Archivo del Autor: Ruben Hurtado

$\mathbb{R}^{n}$ como espacio Topológico

Por Ruben Hurtado

La Topología es un área de las matemáticas que se interesa por conceptos como proximidad, continuidad, conexidad, compacidad, y muchos otros mas. Para abordarlos, es necesario establecer un cierto tipo de conjuntos (que en Topología se les conoce como los conjuntos abiertos).
$\fbox{Bola abierta}$
La bola abierta con centro en $\bar{x}_0$ y radio $r>0$, es el conjunto:
$$B(\bar{x}_0,r)=\{\bar{x}\in\mathbb{R}^n~|~\|\bar{x}-\bar{x}_0\|<r\}$$
$\fbox{Bola Cerrada}$
La bola cerrada con centro $\bar{x}_0$ y radio $r\geq
0$ es el conjunto:
$$\bar{B}(\bar{x}_0,r)=\{\bar{x}\in\mathbb{R}^n~|~\|\bar{x}-\bar{x}_0\|\leq r\}$$
$\fbox{Esfera}$
La esfera con centro $\bar{x}_0$ y radio $r\geq 0$ es el conjunto:
$$S(\bar{x}_0,r)=\{\bar{x}\in\mathbb{R}^n~|~\|\bar{x}-\bar{x}_0\|=r\}$$
Observemos que para la bola abierta $r>0$ estrictamente, mientras que la bola cerrada y la esfera pueden tener radio cero. En este último caso ambas se reducen a un punto:

\[
\bar{B}(\bar{x}_0,0)={\bar{x}_0}
\]

\[
S(\bar{x}_0,0)={\bar{x}_0}~~\textcolor{orange}{\blacksquare}
\]
Los conjuntos $B(\overline{x}_0,r)$, $\bar{B}(\overline{x}_0,r)$ y $S(\bar{x}_0,r)$ son subconjuntos de $\mathbb{R}^n$ y su aspecto geométrico depende de la métrica con la cual se midan las distancias.
$\textcolor{orange}{Ejemplo}$
\begin{align*} \overline{B}_2(0,1)&=\{\bar{x}\in\mathbb{R}^2\ |\ \|\bar{x}\|_2\leq1\} \\ &=\{\bar{x}\in\mathbb{R}^2|\sqrt{x^2+y^2}\ \leq1\} \\ &=\{(x,y)\in\mathbb{R}^2\ |\ x^2+y^2\leq1\} \end{align*}
Geométricamente

La periferia de este disco es el circulo que tiene por ecuación
$x^2+y^2=1$, que corresponde a la esfera $S_2(0,1)=\{\bar{x}\in \mathbb{R}^2\ |\
\|\bar{x}\|_2=1\}$.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Sea ahora la bola cerrada
\begin{align*} \bar{B}_2(0,1)&=\{\overline{x}\in\mathbb{R}^{2}~|~\|\bar{x}\|\leq1\} \\ &=\{(x,y)\in\mathbb{R}^2\ |\ |x|+|y|\leq1\} \end{align*}
Geométricamente

Para $S_1(0,1)=\{\bar{x}\in\mathbb{R}^2\ |\ |\bar{x}|=1\}$

Para $\overline{B}_{\infty}(0,1)=\{\bar{x}\in\mathbb{R}^2\ |\ \|\bar{x}\|_{\infty}\leq1\}$ = $\{(x,y)\in\mathbb{R}^2\ |\ \max\{|x|,|y|\}\leq1\}$

tenemos entonces que

Las figuras anteriores muestran la situación geométrica, entre las bolas cerradas $\overline{B}_{1}(\overline{0},1),~\overline{B}_{2}(\overline{0},1),~\overline{B}_{\infty}(\overline{0},1)$ en forma explicita se escriben:
\[
\max\{|x_1|,\cdots,|x_n|\}\leq
\sqrt{x_1^2+\cdots+x_n^2}\ \leq
|x_1|+\cdots+|x_n|
\]
Las contenciones tanto para las bolas abiertas, como para las bolas
cerradas se siguen de las desigualdades

\[
\|\bar{x}-x_0\|_{\infty}\leq \|\bar{x}-\bar{x}_0\|_2\leq
\|\bar{x}-x_0\|_1
\]
Pues por ejemplo si $\bar{x}\in B_2(\bar{x}0,r)$ entonces $\|\bar{x}-\bar{x}_0\|_2<r$ luego $\|\bar{x}-\overline{x}_0\|_{\infty}<r$

$\therefore~~~\|\bar{x}-\bar{x}_0\|_{\infty}<r$ es decir $\overline{x}\subset
B_{\infty}(x_0,r)$ $\therefore$ $B_2(\bar{x}0,r)\subset B_{\infty}(\bar{x}_0,r)$

Si $\overline{x}\in B_1(\bar{x}_0,r)$ entonces $\|\bar{x}-\bar{x}_0\|_1<r$ luego $\|x-\bar{x}_0\|_2\leq \|\bar{x}-\bar{x}_0\|_1<r$ $\therefore$
$\|\overline{x}-\bar{x}_0\|_2<r$ $\therefore$ $\overline{x}\in B_2(x_0,r)$ $\therefore$ $B_1(\bar{x}_0,r)\subset B_2(x_0,r)$
Para las esferas no hay alguna relación similar, lo que se puede deducir de las desigualdades anteriores son las relaciones siguientes:
\[S_1(\bar{x}_0,r)\subset \overline{B}_{2}(\bar{x}_0,r)\subset\overline{B}_{\infty}(\bar{x}_0,r)\] \[S_2(\bar{x}_0,r)\subset B_{\infty}(\bar{x}0,r)\hspace{1.7cm}\] \[S_{\infty}(\bar{x}0,r)\subset \overline{B}_{\infty}(\bar{x}_0,r)\hspace{1.8cm}
\]
$\fbox{$\textcolor{red}{Conjuntos~ Abiertos~ y~ Conjuntos~ Cerrados}$}$
Un concepto importante en la topología de $\mathbb{R}^{n}$ es el de conjunto abierto. Junto con el de conjunto cerrado.
Conjunto abierto y conjunto cerrado dos conceptos duales, en un sentido que trataremos de explicar. Por ahora solamente veremos la definición de cada uno de ellos y alguna de sus propiedades más importantes.
$\fbox{$\fbox{Definición}$}$
Un conjunto $V\subset\mathbb{R}^n$ se dice que es $\textbf{abierto}$ si para cada $\bar{x}\in V$ existe una bola abierta $B(\bar{x},r)$ contenida en $V$. Es decir si para cada $\bar{x}\in V$ existe $r>0$ tal que $B(\bar{x},r)\subset V$.
$\fcolorbox{orange}{NombreColorRelleno}{Ejemplo}$
El espacio $\mathbb{R}^n$ es un conjunto abierto, pues dado cualquier $\bar{x}\in \mathbb{R}^n$, toda bola abierta $B(\bar{x},r)$ esta contenida en $\mathbb{R}^n$.$~~\textcolor{orange}{\blacksquare}$
$\fcolorbox{orange}{NombreColorRelleno}{Ejemplo}$
Mostraremos que el $\emptyset$ es abierto.
Suponemos que el $\emptyset$ no es abierto $\therefore$ $\exists$ $x\in
\emptyset$ para el cual no es posible hallar una bola abierta $B(\bar{x},r)$ contenida en $\emptyset$. Pero esto no es posible ya que el $\emptyset$ no tiene elementos.
Entonces debemos suponer que el $\emptyset$ no es abierto ${\large\textbf{!}}$ $~~~\therefore~~~\emptyset$ es abierto.$~~\textcolor{orange}{\blacksquare}$
$\fbox{Proposición}$
Toda bola abierta en $\mathbb{R}^n$ es un conjunto abierto.
$\fbox{Demostración}$
Sea $\bar{x}_0\in\mathbb{R}^n$ y $r>0$. Mostraremos que $B(\bar{x}_0,r)$ es un conjunto abierto. Debemos probar que para cada $\bar{x}\in B(\bar{x}_0,r)$, existe una bola abierta $B(\bar{x},r)$ contenida a su vez en la bola abierta $B(\bar{x}_0,r)$. Sea pues $\bar{x}\in B(\bar{x}_0,r)$ y consideremos $R=r-\|\bar{x}-\bar{x}_0\|$. Como $\bar{x}\in B(\bar{x}_0,r)$ se tiene entonces que $\|\bar{x}-\bar{x}_0\|<r$ $\therefore$ $R>0$. Mostraremos que la bola abierta $B(\bar{x},R)$ esta contenida en $B(\bar{x}_0,r)$.


esto prueba que $\bar{y}\in B(\bar{x}_0,r)$.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Mostraremos que en $\mathbb{R}^2$, el semiplano superior
$$V=\{(x,y)\in\mathbb{R}^2~|~y>0\}$$
es un conjunto abierto respecto a la norma $\|\overline{x}\|_1$
$\textcolor{orange}{Solución}$

Sea $\overline{v}_{0}=(x_{0},y_{0})\in V$. Se tiene entonces que $y_{0}>0$ consideremos $r=y_{0}$ y consideremos la bola $B_{1}(\bar{v}_0,y_0)$ y sea $\bar{v}=(x,y)\in
B_1(\bar{v}_0,y_0)$ se tiene que $\|\bar{v}-\overline{v}_0\|_1<y_0$, es
decir, $|x-x_0|+|y-y_0|<y_0$. Debemos probar que $y>0$.
(1) $y$ no puede ser cero pues si $y=0$
$|x-x_0|+|y-y_0|<y_0$ $\Rightarrow$ $|x-x_0|+|y_0|<y_0$ ${\large\textbf{!}}$ (Falso)
es decir no puede ocurrir que $|x-x_0|+|y_0|$ sea menor que $y_{0}$.
(2) $y$ no puede ser negativa pues
$|x-x_0|+|y-y_0|=|x-x_0|+\underset{*}{\underbrace{|y|+y_0}}>y_0$ ${\large\textbf{!}}$ (Falso)
* $y<y_0$ $\Rightarrow$ $|y-y_0|=-y+y_0=|y|+|y_0|$ $\therefore$ $y$ tiene que ser $y>0$ $\therefore$ $B_1(\bar{v}_0,y_0)$ esta en el semiplano superior.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\fbox{Definición}$}$
Un conjunto $F\subset\mathbb{R}^n$ se dice que es $\textbf{cerrado}$ si su complemento $F^c=\mathbb{R}^n-F$ es un conjunto abierto.
$\textcolor{orange}{Ejemplo}$
Los conjuntos $\mathbb{R}^n$ y $\emptyset$ son cerrados. En efecto $\mathbb{R}^n$ es cerrado pues su complemento $\emptyset$ es abierto. Similarmente $\emptyset$ es cerrado pues su complemento $\mathbb{R}^n$ es abierto.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Un conjunto con un solo punto ${\bar{0}}$ es cerrado ya que $\mathbb{R}^n-{\bar{0}}$ es abierto.$~~\textcolor{orange}{\blacksquare}$
$\fbox{Proposición}$
Toda bola cerrada en $\mathbb{R}^n$ es un conjunto cerrado.
$\textcolor{blue}{Demostración}$ Sea $\bar{x}_0\in \mathbb{R}^n$ y $r\geq0$. Probaremos que la bola cerrada $\bar{B}(x_0,r)$ es un conjunto cerrado, es decir, que su complemento $\mathbb{R}^n-\bar{B}(x_0,r)$ es un conjunto abierto. Sea pues $\bar{x}\in\mathbb{R}^n-\bar{B}(x_0,r)$. Mostraremos que existe una bola abierta $B(\bar{x},R)$ contenida en $\mathbb{R}^n-\bar{B}(x_0,r)$. Como $\bar{x}$ no está en la bola cerrada $\bar{B}(x_0,r)$, se tiene entonces que $\|\bar{x}-\bar{x}_0\|>r$. Definamos $R=\|\bar{x}-\bar{x}_0\|-r>0$, esto equivale a $r=\|\bar{x}-\bar{x}_0\|-R$. Veamos que $B(\bar{x},R)\subset\mathbb{R}^n-\bar{B}(x_0,r)$

luego $\|\bar{x}-\bar{x}_0\|<R+\|\bar{y}-\bar{x}_0\|$ $\therefore$ $\|\bar{x}-\bar{x}_0\|-R<\|\bar{y}-\bar{x}_0\|$, es decir, $r<\|\bar{y}-\bar{x}_0\|$. Esto significa que $\bar{y}\not\in \bar{B}(\bar{x}_0,r)$, es decir, $\bar{y}\in\mathbb{R}^n-\bar{B}(\bar{x}_0,R)$.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Muestre que el conjunto $$V=\{(x,y)\in\mathbb{R}^{2}~|~x\leq y\}$$
es un conjunto cerrado.
$\textcolor{orange}{Solución}$
Sea $V^{c}=\{(x,y)\in\mathbb{R}^{2}~|~x>y\}$. mostraremos que $V^{c}$ es un conjunto abierto

Sea $\overline{v}_{0}=(x_{0},y_{0})\in V^{c}$ entonces $x_{0}>y_{0}$. Definimos $r=x_{0}-y_{0}>0$ ahora consideramos $B(\overline{v}_{0},r)$ vamos probar que $B(\overline{v}_{0},r)\subset V^{c}$ Sea $\overline{v}_{1}=(x,y)\in B(\overline{v}_{0},r)$ con la norma $\|\overline{x}\|_{1}$ se tiene $$\|\overline{v}_{1}-\overline{v}_{0}\|_{1}<r~\Rightarrow~|x-x_{0}|+|y-y_{0}|<r~\Rightarrow~|x-x_{0}|+|y-y_{0}|<x_{0}-y_{0}$$ por lo tanto $$x-y=x-x_{0}+y_{0}-y+x_{0}-y_{0}=x_{0}-y_{0}+x-x_{0}+y_{0}-y\geq x_{0}-y_{0}-\left(|x-x_{0}|+|y-y_{0}|\right)>0$$ la última desigualdad se obtiene de la propiedad $-|x-x_{0}|\leq x-x_{0}\leq |x-x_{0}|$. De esta manera $x-y>0~\Rightarrow~x>y$ y en consecuencia $v_{1}\in V^{c}$ por lo que $V^{c}$ es un conjunto abierto y por lo tanto V es un conjunto cerrado.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Sea $V={(x,y)\in\mathbb{R}^{2}~|~x+y>0}$. Demuestre que V es un conjunto abierto

$\textcolor{orange}{Solución}$
Sea $\bar{v}_{0}=(x_{0},y_{0})\in V$ entonces $x_{0}+y_{0}>0$. Definimos $r=x_{0}+y_{0}>0$ ahora consideramos $B(\bar{v},r)$ vamos probar que $B(\bar{v},r)\subset V$
Sea $\bar{v}_{1}=(x,y)\in B(\bar{v},r)$ con la norma $\|.\|_{1}$ se tiene $$\|\bar{v}-\bar{v}_{0}\|_{1}=|x-x_{0}|+|y-y_{0}|<r$$
por lo tanto
$$x+y=x-x_{0}-y_{0}+y+x_{0}+y_{0}=x_{0}+y_{0}+x-x_{0}-y_{0}+y\geq x_{0}-y_{0}-\left(|x-x_{0}|+|y-y_{0}|\right)>0$$

de esta manera $x+y>0$ y en consecuencia $\bar{v}_{1}\in V$ por lo que V es un conjunto abierto.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Sea $V=\{(x,y)\in\mathbb{R}^{2}~|~y>x^{2}\}$. Demuestre que V es un conjunto abierto

$\textcolor{orange}{Solución}$
Sea $\bar{v}_{0}=(x_{0},y_{0})\in V$ entonces $y_{0}>x^{2}{0}$. Definimos $r=y_{0}+x^{2}{0}>0$ y ahora consideramos $B(\bar{v},r)=(x-x_{0})^{2}+(y-y_{0})^{2}=\epsilon^{2}$

vamos probar que $B(\bar{v},r)\subset V$.
Sea $\bar{v}_{1}=(x,y)\in B(\bar{v},r)$ cada punto en $B(\bar{v},r)$ cumple $$|x-x_{0}|<\epsilon~~~|y-y_{0}|<\epsilon$$ y usando la identidad algebraica $$x_{0}^{2}=x^{2}-2(x-x_{0})x_{0}-(x-x_{0})^{2}$$
tenemos que
$$y>y_{0}-\epsilon=x_{0}^{2}+y_{0}-x_{0}^{2}-\epsilon=x^{2}-2(x-x_{0})x_{0}-(x-x_{0})^{2}+y_{0}-x_{0}^{2}-\epsilon>x^{2}-2\epsilon x_{0}-\epsilon^{2}+y_{0}-x_{0}^{2}-\epsilon$$
Por lo tanto
$$y>x^{2}-2\epsilon x_{0}-\epsilon^{2}+y_{0}-x_{0}^{2}-\epsilon>x^{2}se~cumple~para~\epsilon=\min\left\{1,\frac{y-x_{0}^{2}}{2|x_{0}|+2}\right\}$$
de esta manera $y>x^{2}$ y en consecuencia $\bar{v}_{1}\in V$ por lo que V es un conjunto abierto.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Sea $V={x\in\mathbb{R}~|~f(x)>0}$. Demuestre que V es un conjunto abierto

$\textcolor{orange}{Solución}$
Sea $y\in V$ entonces $f(y)>0$. Definimos $\epsilon=f(y)$ y como f es continua
$$si~~0<|x-y|<\delta~\Rightarrow~|f(x)-f(y)|<\epsilon=f(y)~\Rightarrow~-f(y)<f(x)-f(y)<f(y)~\Rightarrow~0<f(x)$$
por lo tanto
$$\forall~x\in B(x,\delta)~se~tiene~f(x)>0$$de esta manera $B(y,\delta)\subset V$ por lo que V es un conjunto abierto.$~~\textcolor{orange}{\blacksquare}$

$\textcolor{orange}{Ejemplo}$
Sea $V={(x,y)\in\mathbb{R}^{2}~|~a<x<b~,~c<y<d}$. Demuestre que V es un conjunto abierto.

$\textcolor{orange}{Solución}$
Sea $X=(x_{1},y_{1})\in V$ entonces $a<x_{1}<b$ y $c<y_{1}<d$. Definimos $\epsilon=\min\{x_{1}-a,b-x_{1},y_{1}-c,d-y_{1}\}$ por tanto si $(x,y)\in B(X,\epsilon)$

debe ocurrir
$$a<x_{1}-\epsilon<x<x_{1}+\epsilon<b~~y~~c<y_{1}-\epsilon<y<y_{1}+\epsilon<d$$
por lo tanto
$$(x,y)\in V~\therefore~B(X,\epsilon)\subset V$$y en consecuencia V es un conjunto abierto.$~~\textcolor{orange}{\blacksquare}$

Propiedades de los conjuntos abiertos y cerrados

$\fbox{$\textcolor{blue}{Proposición}$:Si A y B son subconjuntos abiertos de $\mathbb{R}^{n}$, entonces $A\bigcup B$ es un conjunto abierto de $\mathbb{R}^{n}$.}$
$\fbox{$\textcolor{orange}{Demostración}$}$
Sea $\overline{x}\in A\cup B$. Se tiene entonces que $\overline{x}\in A$ ó $\overline{x}\in B$. Si $\overline{x}\in A$, entonces, puesto que A es abierto existe $r>0$ tal que $B_{r}(\overline{x})\subset A$, luego $B_{r}(\overline{x})\subset A\cup B$ Si $\overline{x}\in B$, entonces, puesto que B es abierto existe $r>0$ tal que $B_{r}(\overline{x})\subset B$, luego $B_{r}(\overline{x})\subset A\cup B$. En cualquiera de los casos, existe una bola abierta $B_{r}$ contenida en $A\cup B$. $\therefore$ $A\cup B$ es abierto.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición}$: Si A y B son subconjuntos abiertos de $\mathbb{R}^{n}$, entonces $A\bigcap B$ es un conjunto abierto de $\mathbb{R}^{n}$.}$
$\fbox{$\textcolor{orange}{Demostración}$}$
Sea $\overline{x}\in A\cup B$. Se tiene entonces que $\overline{x}\in A$ y $\overline{x}\in B$. Puesto que A es abierto $\exists~r_{1}>0$ tal que $B(\overline{x},r_{1})\subset A$. Puesto que b es abierto $\exists~r_{2}>0$ tal que $B(\overline{x},r_{2})\subset B$.\Sea $r=\min{r_{1},r_{2}}$, entonces se tiene que
\begin{align*} B(\overline{x},r) & \subset B(\overline{x},r_{1}) \\ B(\overline{x},r) & \subset B(\overline{x},r_{2}) \end{align*}
Por lo tanto $B(\overline{x},r)\subset A$ y $B(\overline{x},r)\subset B$, o sea $B(\overline{x},r)\subset A\cap B$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición}$: Si A y B son subconjuntos cerrados de $\mathbb{R}^{n}$, entonces $A\bigcup B$ es un conjunto cerrado de $\mathbb{R}^{n}$.}$
$\fbox{$\textcolor{orange}{Demostración}$}$
Para mostrar que $A\bigcup B$ es un conjunto cerrado, tenemos que mostrar que $(A\bigcup B)^{c}$ es un conjunto abierto, al ser A, B conjuntos cerrados entonces $A^{c},~B^{c}$ son conjuntos abiertos y por leyes de D’morgan
$$(A\bigcup B)^{c}=A^{c}\bigcap B^{c}$$
ahora bien por el resultado anterior se tiene que la intersección de conjuntos abiertos es un conjunto abierto, esto prueba que $(A\bigcup B)^{c}$ es un conjunto abierto, por lo tanto $A\bigcup B$ es un conjunto cerrado.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición}$: Si A y B son subconjuntos cerrados de $\mathbb{R}^{n}$, entonces $A\bigcap B$ es un conjunto cerrado de $\mathbb{R}^{n}$.}$
$\fbox{$\textcolor{orange}{Demostración}$}$
Para mostrar que $A\bigcap B$ es un conjunto cerrado, tenemos que mostrar que $(A\bigcap B)^{c}$ es un conjunto abierto, al ser A, B conjuntos cerrados entonces $A^{c},~B^{c}$ son conjuntos abiertos y por leyes de D’morgan
$$(A\bigcap B)^{c}=A^{c}\bigcup B^{c}$$
ahora bien por el resultado anterior se tiene que la unión de conjuntos abiertos es un conjunto abierto, esto prueba que $(A\bigcap B)^{c}$ es un conjunto abierto, por lo tanto $A\bigcap B$ es un conjunto cerrado.$~~\textcolor{orange}{\blacksquare}$

Generalizaciones de la proposiciones anteriores de la familias de conjuntos.

$\fbox{$\textcolor{blue}{Proposición :}$ La unión arbitraria de conjuntos abiertos en $\mathbb{R}^{n}$ es un conjunto abierto en $\mathbb{R}^{n}$}$
$\textcolor{orange}{Demostración}$
Sea ${A_{\alpha}}$ una colección de subconjuntos de $\mathbb{R}^{n}$ tal que $A_{\alpha}$ es un conjunto abierto en $\mathbb{R}^{n}$. Sea $\displaystyle{A=\bigcup A_{\alpha}}$.
Sea $\overline{x}_{0}\in A$. Entonces existe $\alpha$ tal que $\overline{x}_{0}\in A_{\alpha}$ y como $A_{\alpha}$ es un conjunto abierto, existe $r>0$ tal que
$$B(\overline{x}_{0},r)\subset A{\alpha}\subset \bigcup A_{\alpha}=A$$
Por lo tanto A es abierto.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición :}$ La intersección finita de conjuntos abiertos en $\mathbb{R}^{n}$ es un conjunto abierto en $\mathbb{R}^{n}$}$
$\textcolor{orange}{Demostración}$
Sean $A_{1},A_{2},…,A_{k}$ subconjutos abiertos de $\mathbb{R}^{n}$. Sea $\displaystyle{B=\bigcap_{i=1}^{k}A_{i}=A_{1}\cap A_{2}\cap …\cap A_{k}}$.
Sea $\overline{x}_{0}\in B$. Entonces $\overline{x}_{0}\in A_{i}$ para toda $1\leq i\leq k$. Cada $A_{i}$ es un conjunto abierto. Por lo tanto existe $r_{i}>0$ tal que $B(\overline{x}_{0},r{i})\subset A_{i}$ para toda $1\leq i\leq k$. Sea $r=\min{r_{1},r_{2},…,r_{n}}>0$. Entonces
$$B(\overline{x}_{0},r)\subset B(\overline{x}_{0},r_{i})\subset A_{i}~~\forall~i=1,…,n$$
Por lo tanto
$$B(\overline{x}_{0},r)\subset \bigcap_{i=1}^{k}A_{i}=B$$
y por lo tanto B es un conjunto abierto.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición :}$La unión finita de conjuntos cerrados en $\mathbb{R}^{n}$ es un conjunto cerrado en $\mathbb{R}^{n}$}$
$\textcolor{orange}{Demostración}$
Sean $A_{1},…,A_{k}\subset \mathbb{R}^{n}$ conjuntos cerrados y sea $\displaystyle{B=\bigcup_{i=1}^{n}A_{i}}$. Entonces
$$B^{c}=\left(\bigcup_{i=1}^{n}A_{i}\right)^{c}=\bigcap_{i=1}^{n}A^{c}_{i}$$
el cual es un conjunto abierto de $\mathbb{R}^{n}$. Por lo tanto B es un conjunto cerrado de $\mathbb{R}^{n}$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición :}$La intersección finita de conjuntos cerrados en $\mathbb{R}^{n}$ es un conjunto cerrado en $\mathbb{R}^{n}$}$
$\textcolor{orange}{Demostración}$
Sea ${A_{\alpha}}$ una colección de subconjuntos de $\mathbb{R}^{n}$ tales que cada $A_{\alpha}$ es cerrado en $\mathbb{R}^{n}$. Por lo tanto para cada $\alpha$, $A^{c}{\alpha}$ es un conjunto abierto en $\mathbb{R}^{n}$. Sea $\displaystyle{A=\bigcap{\alpha}A_{\alpha}}$ tal que
$$A^{c}=\left(\bigcap_{\alpha}A_{\alpha}\right)^{c}=\bigcup_{\alpha}A^{c}_{\alpha}$$
es un conjunto abierto en $\mathbb{R}^{n}$. Por lo tanto A es un conjunto cerrado en $\mathbb{R}^{n}$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Definición}$}$
Un elemento $\bar{x}\in A$ se dice que es un $\textbf{punto interior}$ de $A$, si existe una bola abierta con centro en $\bar{x}$ contenida en $A$ es decir si $\exists$ $r>0$ tal que $B(\bar{a},r)\subset A$. Denotamos por $int(A)$ al conjunto formado por todos estos puntos, es decir $$int(A)=\{\overline{x}\in\mathbb{R}^{n}~|~\overline{x}~es~punto~interior~de~A\}$$
y diremos que este conjunto es el interior de A.
$\textcolor{orange}{Ejemplo}$
Determinar el $int(A),~~Fr(A),~~ext(A)$ con
\[
A=\left[0,1\right]\times\left[0,1\right]\cap\left(\mathbb{Q}\times\mathbb{Q}\right)=\left\{ (x,y)\in\mathbb{R}^{2}~\big{|}~(x,y)\in\mathbb{Q}~~y~~0\leq x\leq1~~0\leq y\leq1\right\} .
\]

$\textcolor{orange}{Solución}$
Primero analicemos la figura, ¿qué pasa si tomamos un $(x,y)$ en $A$ y un $r>0$?, ¿qué podemos observar?. Si recordamos la densidad de los irracionales sabemos que podemos encontrar un $x’$ irracional entre $x$ y $x+r$, entonces si tomamos el punto $(x’,y)$ podemos ver que esta dentro de $B_{r}(x,y)$, pero $(x’,y)$ no es un punto de $A$. Esto pasa para toda $r>0$ y todo $(x,y)$ en $A$. Entonces, podemos afirmar que el $int(A)=\emptyset$.
Ademas, podemos decir que para todo $(x,y)$ en $A$ y todo $r>0$ se tiene que $B_{r}(x,y)\cap A^{c}\neq\emptyset$. Usando el mismo argumento, pero ahora para los racionales, podemos decir que para cualquier $(x,y)$ y $r>0$ se tiene que $B_{r}(x,y)\cap A\neq\emptyset$.
Todo esto dentro del cuadrado $\left[0,1\right]\times\left[0,1\right]$. Entonces, podemos afirmar que $Fr(A)=\left[0,1\right]\times\left[0,1\right]$.

¿Que podemos decir del exterior? De lo anterior podemos deducir que
$ext(A)=\mathbb{R}{{}^2}-\left[0,1\right]\times\left[0,1\right]$.
Entonces, demostremos la siguiente afirmación:
$\fbox{$\textcolor{orange}{Afirmación: }$ $int(A)=\emptyset$}$
$\textcolor{orange}{Demostración}$
Sean $(x,y)\in A$ y $r>0$. Mostraremos que $B_{r}(x,y)\cap A^{c}\neq\emptyset$, es decir, que para cualquier punto $(x,y)$ de $A$ y cualquier radio $r>0$, la bola $B_{r}(x,y)$ siempre contiene puntos de $A^{c}$, es decir, que $A$ no tiene puntos interiores.
Como $(x,y)\in A$, entonces $x\in\mathbb{Q}$ y por la densidad de los irracionales sabemos que siempre existe un $x’\notin\mathbb{Q}$ tal que $x<x'<x+r$……$\bigstar$
Tomemos el punto $(x’,y)$ y calculemos su distancia con $(x,y)$:
\[
\| (x,y)-(x’,y)\|=\| (x-x’,0)\|=\sqrt{(x-x’)^{2}}=\underset{**}{\underbrace{\left|x-x’\right|<r}}\text{ esta ultima desigualdad se cumple por }\bigstar
\] Veamos por que se cumple $**$. De $\bigstar$ tenemos que $x<x'<x+r$, restando $x$ tenemos $x-x<x’-x<x+r-x$ $\Longrightarrow0<x’-x<r$ como esto es positivo, le podemos sacar el valor absouto y se mantiene la desigualdad $0<|x’-x|<r$ y sabemos que $|a-b|=|b-a|$. Por lo tanto, $|x-x’|<r$.
Entonces, como $\left\Vert (x,y)-(x’,y)\right\Vert <r$, tenemos que $(x’,y)\in B_{r}(x,y)$, pero como $x’\notin\mathbb{Q}$ esto implica que $(x’,y)\notin\mathbb{Q}\times\mathbb{Q}$. Por lo tanto, $B_{r}(x,y)\cap\left(\mathbb{R}^{2}-\mathbb{Q}\times\mathbb{Q}\right)\neq\emptyset$.
Podemos observar que $A\subset\mathbb{Q}\times\mathbb{Q}$ $\Longrightarrow$ $B_{r}(x,y)\cap\left(\mathbb{R}^{2}-A\right)=B_{r}(x,y)\cap A^{c}\neq\emptyset$,
es decir, que para todo $r>0$ se tiene que $B_{r}(x,y)$ siempre interseca a $A^{c}$. Por lo tanto, $int(A)=\emptyset$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{orange}{Afirmación :}$ $Fr(A)=\left[0,1\right]\times\left[0,1\right]$}$
$\textcolor{orange}{Demostración}$
Primero mostraremos que $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$. Sea $(x,y)\in\left[0,1\right]\times\left[0,1\right]$ y $r>0$. Ya probamos que $B_{r}(x’,y’)\cap A^{c}\neq\emptyset$, falta probar que $B_{r}(x,y)\cap A\neq\emptyset$. (Para que se cumpla la definición de frontera). Tenemos varios casos para $x$ y $y$:
$(1)$ Supongamos que $0\leq x<1$ y $0\leq y<1$. Por la densidad de los números racionales, sabemos que existen $x’,y’\in\mathbb{Q}$ tal que:
\[
x<x'<min\left\{1,x+\frac{r}{\sqrt{2}}\right\},\text{y }y<y'<min\left\{1,y+\frac{r}{\sqrt{2}}\right\}…………………\clubsuit
\]
Entonces, $\underset{\spadesuit}{\underbrace{(x’,y’)\in A}}$ y además $\displaystyle{|x-x’|<\frac{r}{\sqrt{2}}}$ y $\displaystyle{|y-y’|<\frac{r}{\sqrt{2}}}$. Así podemos ver lo siguiente:
\[
||(x,y)-(x’,y’)||=\sqrt{(x-x’)+(y-y’)}<\sqrt{\left(\frac{r}{\sqrt{2}}\right)^{2}+\left(\frac{r}{\sqrt{2}}\right)^{2}}=r,
\]
lo que nos dice que el punto $(x’,y’)\in B_{r}(x,y)$, y por $\spadesuit$ tenemos que $B_{r}(x,y)\cap A\neq\emptyset$.
$(2)$ En este caso juntaremos los casos que faltan. Escogiendo a $x’,y’$ como en $\clubsuit$, tenemos lo siguiente:
(a) Si $x=1$ y $y<1$ nos fijamos en la pareja $(1,y’)$,
(b) Si $x<1$ y $y=1$ nos fijamos en la pareja $(x’,1)$, y
(c) Si $x=1$ y $y=1$nos fijamos en la pareja $(1,1)$.
Podemos observar que estos puntos están en $A$, pues sus entradas pertenecen a los racionales. Por lo tanto, $B_{r}(x,y)\cap A\neq\emptyset$. Por lo tanto, $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$.
$\fbox{$\textcolor{orange}{Afirmación :}$ $ext(A)=\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]$}$
Primero mostremos que $\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}\subset ext(A)$. Sea $(x,y)\in\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$
y supongamos que $x<0$ ó $1<x$, (la otra posibilidad es que $y<0$ ó $y>1$, pero se hace de manera análoga).
(1) Si $x<0$, entonces tomamos $r=|x|>0$. Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$. Observemos que $\mathbb{R}^{2}\{\left[0,1\right]\times\left[0,1\right]\}\subset A^{c}…………..\spadesuit$.
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que
\[
|x-x|\leq\left\Vert (x,y)-(x’,y’)\right\Vert <r
\]
pero $|x|=r$, entonces
\[
|x-x’|<|x|=-x\text{ pues }x<0
\]
entonces
\[
x<x-x'<-x\Longrightarrow-x+x<-x+x-x'<-x-x\Longrightarrow0<-x'<-2x
\]
multiplicando por $(-1)$, tenemos que $x'<0$, lo cual implica que
$(x’,y’)\notin\left[0,1\right]\times\left[0,1\right]$. Así tenemos que $(x’,y’)\in\mathbb{R}^{n}-\left[0,1\right]\times\left[0,1\right]$.
Entonces, $B_{r}(x,y)\subset\mathbb{R}^{n}-\left[0,1\right]\times\left[0,1\right]$.
Por lo tanto, por $\spadesuit$, $B_{r}(x,y)\subset A^{c}$, lo cual implica que $(x,y)\in ext(A)$.
(2) Si $x>1$, entonces tomamos $r=x-1>0$.
Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$. Observemos que $\mathbb{R}^{2}\{\left[0,1\right]\times\left[0,1\right]\}\subset A^{c}…………..\spadesuit$.
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que

Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}{{}^2}-\left[0,1\right]\times\left[0,1\right]$.
Observemos que $\mathbb{R}{{}^2}\left[0,1\right]\times\left[0,1\right]\subset A^{c}…………..\spadesuit$.\
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que
\[
|x-x’|\leq\left\Vert (x,y)-(x’,y’)\right\Vert <r=x-1
\]

\[
|x-x’|<x-1\Longrightarrow1-x<x-x'<x-1\Longrightarrow1-2x<x-x-x'<x-x-1
\]

\[
1-2x<-x'<-1\Longrightarrow1<x'<2x-1
\]

entonces tenemos que $x’>1$, lo cual nos dice que $(x’,y’)\notin\left[0,1\right]\times\left[0,1\right]$.
Así tenemos que $(x’,y’)\in\mathbb{R}^{n}-\{\left[0,1\right]\times\left[0,1\right]\}$.
Entonces, $B_{r}(x,y)\subset\mathbb{R}^{n}-\{\left[0,1\right]\times\left[0,1\right]\}$.
Por lo tanto, por $\spadesuit$, $B_{r}(x,y)\subset A^{c}$, lo cual
implica que $(x,y)\in ext(A)$. Por lo tanto, $\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}\subset ext(A)$.
De la proposición tenemos que $\mathbb{R}^{n}=int(A)\cup ext(A)\cup Fr(A)$,
en nuestro caso obtuvimos que $int(A)=\emptyset$. Entonces,

\[
\mathbb{R}{{}^2}=ext(A)\cup Fr(A)
\]
y de esto obtenemos las siguientes igualdades
\[
\mathbb{R}{{}^2}-ext(A)=Fr(A)………\clubsuit\text{ y }\mathbb{R}{{}^2}-Fr(A)=ext(A)………\clubsuit\clubsuit.
\]
De $\clubsuit$ tenemos $Fr(A)\subset\mathbb{R}{{}^2}-ext(A)$ y de $(2)$ tenemos $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$, entonces $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)\subset\mathbb{R}{{}^2}-ext(A)………….\maltese$
De $(3)$ tenemos $\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]\subset ext(A)$,
entonces

\[
\left(\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]\right)\cup\left[0,1\right]\times\left[0,1\right]\subset ext(A)\cup\left[0,1\right]\times\left[0,1\right]
\]

entonces
\[
\mathbb{R}^{2}\subset ext(A)\cup\left[0,1\right]\times\left[0,1\right]\Longrightarrow\mathbb{R}^{2}-ext(A)\subset\left(ext(A)\cup\left[0,1\right]\times\left[0,1\right]\right)-ext(A)
\]

así tenemos
\[
\mathbb{R}^{2}-ext(A)\subset\left[0,1\right]\times\left[0,1\right]…………..\maltese\maltese
\]

Entonces, por $\maltese$ y $\maltese\maltese$ tenemos que $Fr(A)=\left[0,1\right]\times\left[0,1\right]$. Y de esta igualdad y de $\clubsuit\clubsuit$ tenemos que $ext(A)=\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{blue}{Proposición :}$}$
Si $A\subset\mathbb{R}^{n}$, entonces:
(1) $int(A)\subset A$
(2) $ext(A)\subset A^{c}$
(3) (a) $int(A)\cap ext(A)=\emptyset$, (b) $int(A)\cap Fr(A)=\emptyset$ y (c) $Fr(A)\cap ext(A)=\emptyset$
(4) $\mathbb{R}^{n}=int(A)\cup ext(A)\cup Fr(A)$
(5) $int(A^{c})=ext(A)$ y $Fr(A)=Fr(A^{c})$.
$\textcolor{orange}{Demostración}$
(1) Por demostrar que $int(A)\subset A$. Sea $\hat{x}\in int(A)$ $\Longrightarrow$ por definición que existe $r>0$ tal que $B_{r}(\hat{x})\subset A$. Como $\hat{x}\in B_{r}(\hat{x})$ (por definición de bola), entonces $\hat{x}\in A$. Por lo tanto, $int(A)\subset A$.
(2) Por demostrar que $ext(A)\subset A^{c}$. Sea $\hat{x}\in ext(A)$ $\Longrightarrow$ por definición que existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$. Como $\hat{x}\in B_{r}(\hat{x})$ (por definición de bola), entonces $\hat{x}\in A^{c}$. Por lo tanto, $ext(A)\subset A$.
(3_{a}) Por demostrar que $int(A)\cap ext(A)=\emptyset$. Supongamos por contadicción que $int(A)\cap ext(A)\neq\emptyset$, esto implica que existe $\hat{x}\in int(A)\cap ext(A)$ $\Longrightarrow$ $\hat{x}\in int(A)$ y $\hat{x}\in ext(A)$, esto implica por (1) y (2) que $\hat{x}\in A$ y $\hat{x}\in A^{c}$, lo cual es una contradicción. Por lo tanto, $int(A)\cap ext(A)=\emptyset$.
(3_{b}) Por demostrar que $int(A)\cap Fr(A)=\emptyset$. Supongamos por contadicción que $int(A)\cap Fr(A)\neq\emptyset$, esto implica que existe $\hat{x}\in int(A)\cap Fr(A)$ $\Longrightarrow$
$\hat{x}\in int(A)$ y $\hat{x}\in Fr(A)$. Así, tenemos lo siguiente: $(a).$ Existe $r>0$ tal que $B_{r}(\hat{x})\subset A$, y $(b).$ Para todo $r’>0$ se tiene que $B_{r’}(\hat{x})\cap A\neq\emptyset$ y $B_{r’}(\hat{x})\cap A^{c}\neq\emptyset$.
En particular, por $(a)$, para $r>0$ tenemos que $B_{r}(\hat{x})\cap A^{c}=\emptyset$,
lo cual contradice la hipótesis $(b)$. Por lo tanto, $int(A)\cap Fr(A)=\emptyset$.
(3_{c}) Por demostrar que $Fr(A)\cap ext(A)=\emptyset$.
Supongamos por contradicción que $Fr(A)\cap ext(A)\neq\emptyset$,
esto implica que existe $\hat{x}\in Fr(A)\cap ext(A)$ $\Longrightarrow$
$\hat{x}\in Fr(A)$ y $\hat{x}\in ext(A)$. Así, tenemos lo siguiente:
$(a).$ Para todo $r>0$ se tiene que $B_{r’}(\hat{x})\cap A\neq\emptyset$
y $B_{r’}(\hat{x})\cap A^{c}\neq\emptyset$, y
$(b).$ Existe $r’>0$ tal que $B_{r’}(\hat{x})\subset A^{c}$.
Así, por $(b)$tenemos que existe $r’>0$ tal que $B_{r’}(\hat{x})\cap A=\emptyset$,
lo cual contradice la hipótesis $(a)$. Por lo tanto, $Fr(A)\cap ext(A)=\emptyset$.
(4) Por demostrar que $\mathbb{R}^{n}=int(A)\cup Fr(A)\cup ext(A)$.
Como $A\subset\mathbb{R}^{n}$, se tiene que $int(A)\cup Fr(A)\cup ext(A)\subset\mathbb{R}^{n}$. Falta ver que $\mathbb{R}^{n}\subset int(A)\cup Fr(A)\cup ext(A)$. Sea $\hat{x}\in\mathbb{R}^{n}$, como $A\subset\mathbb{R}^{n}$entonces tenemos tres casos:
$(a)$ Existe $r>0$ tal que $B_{r}(\hat{x})\subset A$, entonces por
definición tenemos que $\hat{x}\in int(A)$,
$(b)$ existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$, entonces
por defición tenemos que $\hat{x}\in ext(A)$, o
$(c)$ para todo $r>0$ se tiene que $B_{r}(\hat{x})\cap A^{c}\neq\emptyset$
y $B_{r}(\hat{x})\cap A\neq\emptyset$, entonces por definición $\hat{x}\in Fr(A)$. Así tenemos que, $\mathbb{R}^{n}\subset int(A)\cup Fr(A)\cup ext(A)$. Por lo tanto, $\mathbb{R}^{n}=int(A)\cup Fr(A)\cup ext(A)$.
$(5)$ (a) Por demostrar que $int(A^{c})=ext(A)$.
$\subset\rfloor$ $int(A^{c})\subset ext(A)$
Sea $\hat{x}\in int(A^{c})$, por definición se tiene que existe $r>0$
tal que $B_{r}(\hat{x})\subset A^{c}$, pero esta es la definición
de un punto exterior de $A$. Por lo tanto, $\hat{x}\in ext(A)$.
$\supset\rfloor$ $ext(A)\subset int(A^{c})$.
Sea $\hat{x}\in ext(A)$, por definición se tiene que existe $r>0$
tal que $B_{r}(\hat{x})\subset A^{c}$, pero esta es la definición
de un punto interior de $A^{c}$. Por lo tanto, $\hat{x}\in int(A^{c})$.
Por lo tanto, $int(A^{c})=ext(A)$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{Definición}$
Sea $A\subset \mathbb{R}^{n}$. Definimos la cerradura de A, que denotamos por $\overline{A}$, como $$\overline{A}=int(A)\cup Fr(A)$$
$\fbox{$\textcolor{blue}{Proposición :}$}$ Sea $A\subset \mathbb{R}^{n}$. Las siguientes afirmaciones son ciertas:
(1) $Int(A)$ es un conjunto abierto
(2) $Ext(A)$ es un conjunto abierto
(3) $Fr(A)$ es un conjunto cerrado
(4) $\overline{A}$ es un conjunto cerrado.
$\fbox{$\textcolor{orange}{Demostración}$}$
(1) Sea $\overline{x}\in Int(A)$, entonces existe $r>0$ tal que $B(\overline{x},r)\subset A$. Sea $\overline{y}\in B(\overline{x},r)$, existe $r’>0$ tal que $B(\overline{y},r’)\subset B(\overline{x},r)\subset A$ por lo que $\overline{y}\in Int(A)$ y por tanto $B(\overline{x},r)\subset Int(A)$.
(2) Como $Ext(A)=Int(A^{c})$ y de acuerdo al inciso anterior este conjunto es abierto.
(3) Tenemos que $$(Fr(A))^{c}=\mathbb{R}^{n}-Fr(A)=int(A)\cup Ext(A)$$
ambos conjuntos son conjuntos abiertos y la unión de conjuntos abiertos es abierta, entonces este conjunto es abierto y por tanto $Fr(A)$ es cerrado.
(4) Se tiene que
$$(\overline{A}^{c})=\mathbb{R}^{n}-(int(A)\cup Fr(A))=ext(A)$$
el cual es conjunto abierto, por lo tanto $\overline{A}$ es un conjunto cerrado.$~~\textcolor{orange}{\blacksquare}$

Punto de Acumulación

$\fbox{$\textcolor{blue}{Definición}$}$
Sea $A\subset\mathbb{R}^{n}$ y $\overline{x}\in\mathbb{R}^{n}$. Se dice que
(1) $\overline{x}$ es un $\textit{$\textbf{punto de acumulación}$}$ de A, si toda bola abierta con centro en $\overline{x}$ contiene un punto de A distinto de $\overline{x}$ es decir $$\forall r>0, \quad \left(B(\overline{x},r)-{\overline{x}}\right)\cap A\neq \emptyset$$
Al conjunto de $\textbf{puntos de acumulación}$ de A se le denomina el $\textbf{conjunto derivado}$ de A y se le denota $A’$.
(2) $\overline{x}\in A$ es un \textbf{punto aislado} de A si $\overline{x}$ no es un punto de acumulación de A, es decir, si existe $r>0$ tal que
$$(B(\overline{x},r)-{\overline{x}})\cap A=\emptyset.$$
$\textcolor{orange}{Ejemplo}$
Sea
$$A={(x,y)\in\mathbb{R}^{2}~|~x^{2}+y^{2}<1}$$
Muestre que $\displaystyle{\overline{x}_{0}=\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)}$ es un punto de acumulación de A.
$\textcolor{orange}{Solución}$
Vamos a considerar el punto $\displaystyle{\overline{x}=\left(\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}(r+1)}\right)}$, para $r>0$.
Tenemos entonces que
(1) $\overline{x}\in A$ pues
\begin{align*} \left(\frac{1}{\sqrt{2}(r+1)}\right)^{2}+\left(\frac{1}{\sqrt{2}(r+1)}\right)^{2} & =\frac{1}{2(r+1)^{2}}+\frac{1}{2(r+1)^{2}} \\ & <\frac{1}{2}+\frac{1}{2}=1 \end{align*}
(2) Tenemos que
\begin{align*} \|\overline{x}-\overline{x}_{0}\| & =\left|\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)-\left(\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}(r+1)}\right)\right| \\ & =\left|\left(\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}(r+1)}\right)\right| \\ &=\left|\frac{r}{\sqrt{2}(r+1)},\frac{r}{\sqrt{2}(r+1)}\right| \\ &=\frac{r}{\sqrt{2}(r+1)}\|(1,1)\| \\ &=\frac{r}{\sqrt{2}(r+1)}\sqrt{2} \\ &=\frac{r}{r+1}<r\end{align*}
Tenemos entonces que $\displaystyle{\overline{x}\in B\left(\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right),r\right)}$. Por lo tanto
$$\left[B\left(\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right),r\right)-\left\{\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)\right\}\right]\bigcap A\neq \emptyset$$
Por lo tanto $\displaystyle{\overline{x}_{0}=\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)}$ es un punto de acumulación de A.$~~\textcolor{orange}{\blacksquare}$











$\textcolor{red}{El~ Espacio~ Metrico~ \mathbb{R}^{n}}$

Por Ruben Hurtado

El concepto de $\| \: \|$ (norma) nos da una noción de distancia, el tener una noción de distancia en $\mathbb{R}$ o más generalmente en $\mathbb{R}^n$, es lo que nos permite hablar de limite o de convergencia.
Consideremos la noción común de distancia entre dos puntos en $\mathbb{R}^3$.
Si $\bar{x}=(x_1,x_2,x_3),~~~\bar{y}=(y_1,y_2,y_3)$
$$\|\bar{x}-\bar{y}\|=\sqrt{(x_1-y_1)^2+(x_2-y_2)^2+(x_3-y_3)^2}$$
Esta distancia la denominamos métrica euclidiana y la generalizamos
en $\mathbb{R}^n$ en la siguiente definición.
$\fbox{$\textcolor{blue}{Definición}$}$
Sean $\bar{x}=(x_1,\ldots,x_n)$ y $\bar{y}=(y_1,\ldots,y_n)$ elementos cualesquiera de
$\mathbb{R}^n$ definimos la distancia euclidiana entre ellos como $$d(\bar{x},\bar{y})=\|\bar{x}-\bar{y}\|=\sqrt{(x_1-y_1)^2+\ldots+(x_n-y_n)^2}$$
La función $d:\mathbb{R}^n \times \mathbb{R}^n \rightarrow\mathbb{R}$ se denomina distancia o métrica euclidiana.
$\fbox{Proposición}$
Para cualesquiera vectores $\bar{x},\,\bar{y},\,\bar{z}\,\in\,\mathbb{R}^n$ se tiene:
(a) $d(\bar{x},\bar{y})\geq 0$
(b) $d(\bar{x},\bar{y})=d(\bar{y},\bar{x})$
(c) $d(\bar{x},\bar{y})\leq d(\bar{x},\bar{z})+d(\bar{z},\bar{y})$
(d) $d(\bar{x},\bar{y})=0~~ \Rightarrow ~~ \bar{x}=\bar{y}$
$\fbox{Demostración}$
(a) Como $d(x,y)=\|\bar{x}-\bar{y}\|\geq
0$ entonces $d(\bar{x},\bar{y})\geq 0$
tambien si $d(x,y)=0 \quad \Rightarrow \quad \|\bar{x}-\bar{y}\|=0 \quad \Rightarrow \quad \bar{x}=\bar{y}$
(b) $d(\bar{x},\bar{y})=\|\bar{x}-\bar{y}\|=\|\bar{y}-\bar{x}\|=d(\bar{y},\bar{x})$
(c) $d(\bar{x},\bar{y})=\|\bar{x}-\bar{y}\|=
\|\bar{x}-\bar{z}+\bar{z}-\bar{y}\|\leq \|\bar{x}-\bar{z}\|+\|\bar{z}-\bar{y}\| =
d(\bar{x},\bar{z})+d(\bar{z},\bar{y}).~~\textcolor{orange}{\blacksquare}$
$\fbox{Proposición}$
La función $$d_{1}(x,y)=|x_{1}-y_{1}|+\cdots+|x_{n}-y_{n}|$$ donde $\bar{x}=(x_{1},\cdots,x_{n})$ y $\bar{y}=(y_{1},\cdots,y_{n})$ $\in \mathbb{R}^{n}$, es una métrica para el espacio euclideano $\mathbb{R}^{n}$.
$\fbox{Demostración}$
Las propiedades (a), (b) son inmediatas y para la propiedad (c) tenemos
$$|x_{i}-y_{i}|\leq|x_{i}|+|y_{i}|~~~\forall~i=1,…,n$$
sumando ambos lados de estas desigualdades para $i=1,…,n$ obtenemos
\begin{align*}d_{1}(x,z)&=\sum_{i=1}^{n}|x_{i}-z_{i}|\\&=\sum_{i=1}^{n}|x_{i}-y_{i}+y_{i}-z_{i}|\\&\leq\sum_{i=1}^{n}|x_{i}-y_{i}|+|y_{i}-z_{i}|\\&=\sum_{i=1}^{n}|x_{i}-y_{i}|+\sum_{i=1}^{n}|y_{i}-z_{i}|\\&= d_{1}(x,y)+d_{1}(y,z)\end{align*}
y en consecuencia $d_{1}$ es una métrica.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
En $\mathbb{R}^{n}$ son métricas
\begin{align*}d_{p}(\bar{x},\bar{y})&=\left(\sum_{i=1}^{n}|x_{i}-y_{i}|^{p}\right)^{\frac{1}{p}},~~~(p\geq 1)\\d_{\infty}(\bar{x},\bar{y})&=\max_{1\leq i\leq n}~|x_{i}-y_{i}|.~~\textcolor{orange}{\blacksquare}\end{align*}

$\textcolor{red}{El ~Espacio~ Euclideo~ \mathbb{R}^{n}}$

Por Ruben Hurtado

En este sección estudiamos el espacio euclideo n-dimensional, espacio que sería la base de todo el desarrollo posterior.
$\fbox{$\textcolor{blue}{Definición}$}$
Como conjunto, $\mathbb{R}^{n}$ es la colección de todas las n-adas ordenadas de números reales. Es decir $$\mathbb{R}^{n}={(x_{1},x_{2},…,x_{n})|x_{i}\in \mathbb{R},~i=1,2,…,n}$$
$\textcolor{blue}{Notación}$
Denotamos a un elemento de $\mathbb{R}^{n}$ por $\overline{x}=(x_{1},x_{2},…,x_{n})$\Dados dos elementos $\overline{x},\overline{y}\in \mathbb{R}^{n}$ decimos que $\overline{x}=\overline{y}\Leftrightarrow x_{i}=y_{i}$ $\forall i=1,2,…,n$.
Frecuentemente a los elementos de $\mathbb{R}^{n}$ se les denomina vectores, y con las operaciones usuales (suma y producto por un escalar), definidas como
$\fbox{$\textcolor{blue}{Definición}$}$
La suma $+:\mathbb{R}^{n}\times \mathbb{R}^{n}\rightarrow \mathbb{R}^{n}$ para dos elementos $\overline{x},\overline{y}\in\mathbb{R}^{n}$ se define asi:
$$\overline{x}+\overline{y}=(x_{1},x_{2},…,x_{n})+(y_{1},y_{2},…,y_{n})=(x_{1}+y_{1},x_{2}+y_{2},…,x_{n}+y_{n})$$
El producto $\overline{x}\in\mathbb{R}^{n}$ por un escalar $a\in\mathbb{R}$ como
$$\alpha(x_{1},x_{2},…,x_{n})=(\alpha x_{1},\alpha x_{2},…,\alpha x_{n})$$
$\mathbb{R}^{n}$ es un espacio vectorial.
La base canónica de dicho espacio vectorial son los vectores:$$e_{1}=(1,0,0,…,0)$$$$e_{2}=(0,1,0,…,0)$$$$.$$$$.$$$$.$$$$e_{n}=(0,0,0,…,1)$$
ya que si $\overline{x}=(x_{1},x_{2},…,x_{n})$, se tiene que $\overline{x}=x_{1}e_{1}+x_{2}e_{2}+…+x_{n}e_{n}$
$\fbox{$\textcolor{red}{Estructura ~Geométrica}$}$
Para dotar de una estructura geométrica al espacio $\mathbb{R}^{n}$ (que incluya los conceptos de distancia, ángulo y ortogonalidad) debemos dotar a $\mathbb{R}^{n}$ de un producto escalar.
$\fbox{$\textcolor{blue}{Definición}$}$
Sea E un espacio vectorial, un \textbf{producto escalar} en E es una función de $E\times E$ en $\mathbb{R}$ que a cada par de vectores $\overline{x},\overline{y}$ le asocia un número $$\langle \overline{x},\overline{y}\rangle$$ que satisface las siguientes propiedades:

(a) $\langle \overline{x},\overline{x}\rangle>0$ si $\overline{x}\neq 0$
(b) $\langle \overline{x},\overline{y}\rangle=\langle \overline{y},\overline{x}\rangle$
(c) $ \langle \lambda \overline{x},\overline{y}\rangle=\lambda\langle \overline{x},\overline{y}\rangle$
(d) $\langle \overline{x}+\overline{y},\overline{z}\rangle=\langle \overline{x}+\overline{z}\rangle+\langle \overline{y},\overline{z}\rangle$
$\textcolor{orange}{Ejemplo}$
Sea $C[a,b]$ el espacio lineal de todas las funciones reales continuas continuas en el intervalo $[a,b]$. Definimos $\langle f,g\rangle$ mediante la fórmula $$\langle f,g\rangle=\int_{a}^{b}f(t)g(t)dt.$$
Vamos a probar que $\langle f,g\rangle$ define un producto escalar en $c([a,b])$
(a) Tenemos que
$$\langle f,g\rangle=\int_{a}^{b}f(t)\cdot f(t)~dt=\int_{a}^{b}f^{2}(t)~dt~\geq 0~$$
la última desigualdad la justificamos usando las propiedades de la integral $\displaystyle{f\geq 0~\Rightarrow~\int_{a}^{b}f~\geq 0~}$
(b) Tenemos que
$$\langle f,g\rangle=\int_{a}^{b}f(t)g(t)~dt=\int_{a}^{b}g(t)f(t)~dt=\langle g,f\rangle$$
(c) Tenemos que
$$\langle \lambda f,g\rangle=\int_{a}^{b}\lambda~f(t)~g(t)~dt=\lambda~\int_{a}^{b}f(t)~g(t)~dt=\lambda~\langle f,g\rangle$$
(d) Tenemos que
\begin{align*} \langle f+g,h\rangle & =\int_{a}^{b}[f(t)+g(t)]h(t)~dt \\ &=\int_{a}^{b}[f(t)h(t)+g(t)h(t)]~dt \\ &=\int_{a}^{b}f(t)h(t)~dt+\int_{a}^{b}g(t)h(t)~dt \\ &=\langle f,h\rangle+\langle g,h\rangle \end{align*}
en este caso $\langle f,g\rangle$ es un producto escalar para $C[a,b]$.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{red}{El ~Espacio~ Normado~ \mathbb{R}^{n}}$}$
$\fbox{$\textcolor{blue}{Definición}$}$
Un producto escalar $\langle,\rangle$ en un espacio vectorial E da lugar a una noción de longitud de un vector $\overrightarrow{x}\in E$, llamada su norma, y definida como
$$|\overline{x}|=\sqrt{\langle \overline{x},\overline{x}\rangle}$$
En general, una norma en un espacio vectorial E es una aplicación $x\rightarrow |x|$ de E en $(0,+\infty)$ que satisface las siguientes propiedades:
(1) $|\overline{x}|\geq 0$ para toda $\overline{x}\in\mathbb{R}^{n}$ y $|\overline{x}|=0$ si y sólo si $\overline{x}=\overline{0}$
(2) $|\lambda \overline{x}|=\lambda |\overline{x}|$ para toda $\overline{x}\in\mathbb{R}^{n}$ y $\lambda\in \mathbb{R}$
(3) $|x+y|\leq |x|+|y|$ para cualesquiera $\overline{x},\overline{y}\in\mathbb{R}^{n}$ (Desigualdad Triangular)
Al par $(E,|.|)$ se le denomina espacio normado.
$\textcolor{orange}{Ejemplo}$
Veamos que
$$|\overline{x}|=\sqrt{\langle \overline{x},\overline{x}\rangle}$$
define una norma.
$\textcolor{orange}{Solución}$
(1) Tenemos que
$$|\overline{x}|=\sqrt{\langle \overline{x},\overline{x}\rangle}\geq 0$$
la última igualdad la justificamo así: $\langle \overline{x},\overline{x}\rangle>0~\Rightarrow~\sqrt{\langle \overline{x},\overline{x}\rangle}>0$
(2) Tenemos que
\begin{align*} |\lambda \overline{x}| &=\sqrt{\langle \lambda\overline{x},\lambda\overline{x}\rangle} \\ &=\sqrt{\lambda^{2}\langle \overline{x},\overline{x}\rangle} \\ &=|\lambda|\langle \overline{x},\overrightarrow{x}\rangle\\ &=|\lambda|~|\overline{x}| \end{align*}
(3) Para la desigualdad del triángulo necesitamos antes probar un resultado
$\fbox{Lema: Desigualdad de Caychy}$
Si E es un espacio vectorial entonces $\forall~\overline{x},\overline{y}\in E$ se cumple
$$|\langle\overline{x},\overline{y}\rangle|\leq |\overline{x}|~|\overline{y}|$$
$\fbox{Demostración}$
Supongamos que $\overline{x},\overline{y}\neq 0$ y definimos
$$\overline{u}=\frac{\overline{x}}{\|\overline{x}\|}~~\overline{v}=\frac{\overline{y}}{\|\overline{y}\|}$$
Tenemos entonces que
\begin{align*} \|\overline{u}\| & =\left\|\frac{\overline{x}}{|\overline{x}|}\right\|=\frac{\|\overline{x}\|}{\|\overline{x}\|}=1 \\ \|\overline{v}\| & =\left\|\frac{\overline{y}}{\|\overline{y}\|}\right\|=\frac{\|\overline{y}\|}{\|\overline{y}\|}=1 \end{align*}
Por tanto
\begin{align*} 0\leq \|\overline{u}-\overline{v}\|^{2} & =\langle\overline{u}-\overline{v},\overline{u}-\overline{v}\rangle \\ & =\langle\overline{u}-\overline{u}\rangle-2\langle\overline{u}-\overline{v}\rangle+\overline{v}-\overline{v} \\ & =\|\overline{u}\|^{2}-2\langle\overline{u}-\overline{v}\rangle+\|\overline{u}\|^{2} \\ & =1-2\langle\overline{u},\overline{v}\rangle+1 \\ & =2-2\langle\overline{u},\overline{v}\rangle \end{align*}
Por lo tanto
\begin{align*} 0\leq 2-2\langle\overline{u},\overline{v}\rangle&~\Rightarrow~2\langle\overline{u},\overline{v}\rangle\leq 2 \\ &~\Rightarrow~\langle\overline{u},\overline{v}\rangle\leq 1 \\ &~\Rightarrow~\left\langle\frac{\overline{x}}{|\overline{x}|},\frac{\overline{y}}{\|\overline{y}\|}\right\rangle\leq 1 \\ &~\Rightarrow~\frac{1}{\|\overline{x}\|~\|\overline{y}\|}\langle\overline{x},\overline{y}\rangle\leq 1 \\ &~\Rightarrow~\langle\overline{x},\overline{y}\rangle\leq\|\overline{x}\|~\|\overline{y}\| \end{align*}
Reemplazando $\overline{x}$ por $-\overline{x}$ se obtiene que
\begin{align*} \langle\overline{-x},\overline{y}\rangle\leq\|-\overline{x}\|~\|\overline{y}\| & ~\Rightarrow~-\langle\overline{x},\overline{y}\rangle\leq~|-1|~|\overline{x}|~|\overline{y}| \\ &~\Rightarrow~\langle\overline{x},\overline{y}\rangle\geq~-\|\overline{x}\|~\|\overline{y}\| \end{align*}
con lo que queda demostrada la desigualdad.$~~\textcolor{orange}{\blacksquare}$
Regresando ahora a la desigualdad triangular tenemos que
\begin{align*} \|\overline{x}+\overline{y}\|=\sqrt{\langle\overline{x}+\overline{y},\overline{x}+\overline{y}\rangle} & ~\Rightarrow~\|\overline{x}+\overline{y}\|^{2}=\langle\overline{x}+\overline{y},\overline{x}+\overline{y}\rangle \\ & ~\Rightarrow~\|\overline{x}+\overline{y}\|^{2}=\langle\overline{x},\overline{x}\rangle+2\langle\overline{x},\overline{y}\rangle+\langle\overline{y},\overline{y}\rangle \\ &~\Rightarrow~\|\overline{x}+\overline{y}\|^{2}=\|\overline{x}\|^{2}+2\langle\overline{x},\overline{y}\rangle+|\overline{y}|^{2} \\ & ~\Rightarrow~\|\overline{x}+\overline{y}\|^{2}\leq \|\overline{x}\|^{2}+2\|\overline{x}\|~\|\overline{y}\|+\|\overline{y}\|^{2} \\ & ~\Rightarrow~\|\overline{x}+\overline{y}\|^{2}\leq \left(\|\overline{x}\|+\|\overline{y}\|\right)^{2} \end{align*}
Y tomando raíces en ambos miembros de la desigualdad, obtenemos el resultado.$~~\textcolor{orange}{\blacksquare}$
$\fbox{$\textcolor{red}{Otras ~normas~ en~ \mathbb{R}^n}$}$
$\textcolor{orange}{Ejemplo}$
$\fbox{La Norma 1 $\|\overline{x}\|_{1}$}$
Definimos $\|\\,\|_1:\mathbb{R}^n \rightarrow \mathbb{R}$ por
$\|\,\|_1 = |x_1|+\ldots+|x_n|$ $\forall \, \bar{x} \in
\mathbb{R}^n$. Vamos a probar que $\|\,\|_1 $ es una norma en
$\mathbb{R}^n$
(a) Dado que $\forall \, x \in \mathbb{R}$ $|x|\geq
0$, se tiene $\|\,\|_1 = |x_1|+\ldots+|x_n|\geq 0$ $\forall \, \bar{x} \in\mathbb{R}^n$.
(b) Si $\alpha \in \mathbb{R}$ y $\bar{x}=(x_1,\ldots,x_n) \in
\mathbb{R}^n$, entonces
\[\begin{array}{ll}
|\alpha\bar{x}| & =|\alpha x_1|+ \ldots + |\alpha
x_n|\\
\, & =|\alpha||x_1|+ \ldots + |\alpha||x_n|\\
\, & = |\alpha|(|x_1|+ \ldots + |x_n|)\\
\, & = |\alpha||\bar{x}| \quad \forall \, \bar{x}\in\mathbb{R}^n\
\end{array}\]
(c) Si $\bar{x}=(x_1,\ldots,x_n)$ y $\bar{y}=(y_1,\ldots,y_n)$ son elementos de $\mathbb{R}^n$
\[\begin{array}{ll}
|\bar{x}+\bar{y}| & =|x_1+y_1|+ \ldots + |x_n+y_n|\\
\, & \leq|x_1|+|y_1|+ \ldots + |x_n|+|y_n|\\
\, & = |x_1|+ \ldots +|x_n|+ \ldots + |y_1|+ \ldots +|y_n|\\
\, & = |\bar{x}|_1 + |\bar{y}|_1
\end{array}\]
Si $|\bar{x}|_1=0~\Rightarrow~|x_1|+ \ldots+|x_n|=0$ y como cada $|x_i|\geq 0$ $i=1,\ldots,n$ entonces $|x_1|+ \ldots +|x_n|=0~\Rightarrow~|x_i|= 0$ $i=1,\ldots,n~~~\therefore~~~\bar{x}=0$.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
$\fbox{La Norma infinito $\|\overline{x}\|_{\infty}$}$
Consideremos ahora la función $\|\,\|_\infty:\mathbb{R}^n \rightarrow \mathbb{R}$ dada por
$$\boxed{\|\overline{x}\|_\infty=\max{|x_1|+\ldots +|x_n|}~~\forall x\in\mathbb{R}^n}$$
Vamos a probar que la función $\|\,\|_\infty:\mathbb{R}^n \rightarrow \mathbb{R}$ es una norma en $\mathbb{R}^n$, que se denomina norma del máximo o norma cúbica.
(a) Puesto que $|x_i|\geq 0~~i=1,\ldots,n$\ entonces $$\max{|x_1|+\ldots +|x_n|}\geq0$$ es decir $$\|\bar{x}\|_\infty \geq 0$$
(b) Sea $\alpha\in\mathbb{R}$ y $\bar{x}\in\mathbb{R}^n$. Se tiene entonces
que $$\|\alpha \bar{x}\|=\max\{|\alpha x_1|,\ldots,|\alpha x_n|\}=\max\{|\alpha|| x_1|,\ldots,|\alpha||x_n|\}$$
Supongamos ahora que
$$|x_{i\alpha}|=\max \{ |x_1|, \ldots, |x_n| \}$$
$\therefore~~~|x_{i\alpha}|\geq |x_i|,~~~\forall~ i=1,\ldots,n~~~\therefore~~~|\alpha||x_{i\alpha}|\geq |\alpha||x_i|,~~\forall ~~ i=1,\ldots,n$ $\therefore$ $|\alpha x_{i\alpha}|\geq |\alpha x_i|$ $\forall~~i=1,\ldots,n$ por lo que
$$|\alpha||x_{i\alpha}|= |\alpha x_{i\alpha}|=\max\{|\alpha x_1|,\ldots,|\alpha x_n|\}=\max\{|\alpha|| x_1|,\ldots,|\alpha||x_n|\}$$
es decir $$|\alpha|\max \{ |x_1|, \ldots, |x_n| \} = \max\{|\alpha x_1|,\ldots,|\alpha x_n|\}=\max\{|\alpha|| x_1|,\ldots,|\alpha||x_n|\}$$
$\therefore~~~|\alpha|\|\bar{x}\|_{\infty}=\|\alpha \bar{x}\|_{\infty}$
(c) $\|\bar{x}+\bar{y}\|_{\infty}=\max\{|x_1+y_1|,\ldots,|x_n+y_n|\}$
Sea $$|x_{1\alpha}+y_{1\alpha}|=\max\{|x_1+y_1|,\ldots,|x_n+y_n|\}$$
como $$|x_{1\alpha}+y_{1\alpha}|\leq|x_{1\alpha}|+|y_{1\alpha}|$$
se tiene que $$\max\{|x_1+y_1|,\ldots,|x_n+y_n|\}\leq|x_{1\alpha}|+|y_{1\alpha}|$$
pero por definición de $$\max\{|x_1|+\ldots+|x_n|\}~~y~~ \max\{|y_1|+\ldots +|y_n|\}$$
también se tiene que $$|x_{1\alpha}|\leq \max\{|x_1|+\ldots
+|x_n|\}~~~y~~~|y_{1\alpha}|\leq \max\{|y_1|+\ldots+|y_n|\}$$
luego $$\max\{|x_1+y_1|,\ldots,|x_n+y_n|\} \leq \max\{|x_1|+\ldots
+|x_n|\} + \max\{|y_1|+\ldots+|y_n|\}$$
o sea $$\|\bar{x}+\bar{y}\|_{\infty} \leq\|\bar{x}\|_{\infty}+\|\bar{y}\|_{\infty}.~~\textcolor{orange}{\blacksquare}$$
$\textcolor{orange}{Ejemplo}$
$\fbox{$\textcolor{red}{Norma~ Euclidiana}$}$
Consideremos ahora la función $\|\,\|_\infty:\mathbb{R}^n \rightarrow \mathbb{R}$ dada por
$$|x|=\sqrt{\langle x,x\rangle}$$
Vamos a mostrar que es una norma en $\mathbb{R}^n$
(a) $\|\bar{x}\|=\sqrt{x_1^2+\ldots+x_n^2} \geq 0$ pues es la raíz positiva $\therefore$ $\|\bar{x}\|\geq 0$.
(b)

\[\begin{array}{ll}
\|\alpha\bar{x}\| & = \sqrt{(\alpha x_1)^2+\ldots+(\alpha
x_n)^2}\\
\, & = \sqrt{\alpha^2x_1^2+\ldots+\alpha^2x_n^2}\\
\, & = \sqrt{\alpha^2(x_1^2+\ldots+x_n^2)}\\
\, & = \sqrt{\alpha^2}\sqrt{x_1^2+\ldots+x_n^2}\\
\, & = |\alpha|\|\bar{x}\|
\end{array}\]
(c)

\[\begin{array}{ll}
\|\bar{x}+\bar{y}\|^2 & =
(x_1+y_1)^2 + \ldots +
(x_n+y_n)^2\\
\, & =x_1^2+2x_1y_1+y_1^2 +
\ldots +
x_n^2+2x_ny_n+y_n^2\\
\, & =x_1^2+\ldots+ x_n^2 +2(x_1y_1+\ldots +x_ny_n )+ y_1^2
+ \ldots +y_n^2\\
\, & = \|\bar{x}\|^2+2(x_1y_1+\ldots +x_ny_n
)+ \|\bar{y}\|^2
\end{array}\]
Aplicando la desigualdad de Cauchy-Shwarz
$$x_1y_1+\ldots+x_ny_n \leq \|\bar{x}\|~\|\bar{y}\|$$
se tiene que $$\|\bar{x}\|^2+2(x_1y_1+\ldots+x_ny_n)+\|\bar{y}\|^2
\leq \|\bar{x}\|^2+2~\|\bar{x}\|~\|\bar{y}\|+ \|\bar{y}\|^2 =\left [\|\bar{x}\|+\|\bar{y}\|\right]^2$$
$\therefore~~~\|\bar{x}+\bar{y}\|^2\leq
\left[\|\bar{x}\|+\|\bar{y}\|\right]^2$ y al
sacar raiz obtenemos $\|\bar{x}+\bar{y}\|\leq
\|\bar{x}\|+\|\bar{y}\|$
(d) Si $\|\bar{x}\|=0$ se tiene entonces $\sqrt{x_1^2+\ldots+x_n^2}=0$ es decir $x_1^2+\ldots+x_n^2=0$ pero $x^2\geq 0~~\therefore~~x_i^2=0~~\forall~ i=1,\ldots,n$ $\therefore~~\bar{x}=0$.$~~\textcolor{orange}{\blacksquare}$
El concepto general de Norma en $\mathbb{R}^n$. Las propiedades de la norma euclidiana nos ayudan para definir la noción abstracta de Norma.
$\fbox{$\textcolor{blue}{Definición}$}$
Una norma en $\mathbb{R}^n$ es cualquier función $\|\,\|:\mathbb{R}^n \rightarrow
\mathbb{R}$ que satisface las siguientes propiedades que denominaremos Axiomas de Norma para cualesquiera $\bar{x},\bar{y}\,\in\,\mathbb{R}^n$ y toda $\alpha\,\in\,\mathbb{R}$ se cumple:
(a) $\|\bar{x}\|\geq 0~~\|0\|=0$
(b) $\|\alpha\bar{x}\|=|\alpha|~\|\bar{x}\|$
(c) $\|\bar{x}+\bar{y}\|\leq \|\bar{x}\|+\|\bar{y}\|$
(d) $\|\bar{x}\|=0~~\Rightarrow~\bar{x}=0$
$\fbox{Proposición}$
Para toda norma $|\,|:\mathbb{R}^n \rightarrow\mathbb{R}$ se cumple:
(a) $\|-\bar{x}\|=\|\bar{x}\|~~\forall \, x \in \mathbb{R}^n$
(b) $|\|\bar{x}\|-\|\bar{y}\||\leq \|\bar{x}-\bar{y}\|~~\forall \, \bar{x},\bar{y} \in \mathbb{R}^n$
$\fbox{Demostración}$
(a) $\|-\bar{x}\|=|-1|~\|\bar{x}\|=\|\bar{x}\|$
(b) $0\leq \|\bar{x}\|=\|\bar{x}-\bar{y}+\bar{y}\|\leq\|\bar{x}-\bar{y}\|+\|\bar{y}\|$
$\therefore$ $\|\bar{x}\|-\|\bar{y}\|\leq\|\bar{x}-\bar{y}\|$ Intercambiando $\bar{x}$ por $\bar{y}$ obtenemos $\|\bar{y}\|-\|\bar{x}\|\leq\|\bar{y}-\bar{x}\|=\|\bar{x}-\bar{y}\|$ $\therefore$ $|\|\bar{y}\|-\|\bar{x}\||\leq \|\bar{x}-\bar{y}\|.~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Sea $I=[0,1]$. Demsotrar que $\|f\|=\sup {|f(x)|}$. Es una norma
de $C[0,1]$
$\textcolor{orange}{Solución}$
(a) Recordar que toda función real continua definida en un intervalo cerrado es acotada, por tanto $\|f\|$ está bien definida.
(b) Puesto que $|f(x)|\geq 0~\forall~x\in I$ entonces $\|f\|\geq 0$ y además, $\|f\|= 0$ sii $|f(x)|= 0~\forall~x\in I$, i.e. sii $f=0$.
(c) Recordemos un resultado: Sean $a$ y $b$ números reales tales que $a\leq b+\varepsilon$.
Demostrar que $a \leq b$
Supongase que $a>b$ entonces $a=b+\delta,~~\delta >0$ tomamos $$\displaystyle\frac{\delta}{2}=\varepsilon$$
entonces $$a > b+\delta > b +\displaystyle\frac{\delta}{2}=b+\varepsilon~ \underset{\circ}{\bigtriangledown}$$
$\therefore~a\leq b$ ahora sea $\varepsilon > 0$. Entonces existe $x_0\in I$ tal que
\[\begin{array}{ll}
|f+g|& = \sup{|f(x)+g(x)|}\\
\, & \leq |f(x_0)+g(x_0)|+\varepsilon\\
\, & \leq |f(x_0)|+|g(x_0)|+\varepsilon\\
\, & \leq \sup{|f(x)|} +\sup{|g(x)|}+\varepsilon\\
\, & = |f|+|g| +\varepsilon
\end{array}\]
$\therefore~~\|f+g\| \leq \|f\|+\|g\|$
(d) Sea $k\in \mathbb{R}$ entonces
\[\begin{array}{ll}
\|kf\| & = \sup{|kf(x)|}\\
\, & = \sup{|k||f(x)|}\\
\, & = |k|\sup{|f(x)|}\\
\, & = |k|\|f(x)\|.~~\textcolor{orange}{\blacksquare}\\
\end{array}\]
$\textcolor{orange}{Ejemplo}$
Demostrar que $\|f\|=\displaystyle\int_0^1|f(x)|dx$ es una norma de $C[0,1]$ (funciones continuas en el intervalo $[0,1]$).
$\textcolor{orange}{Solución}$
(a) $\|f\|=\displaystyle\int_0^1|f(x)|dx\geq 0$ puesto que $$|f(x)|\geq 0\Rightarrow \displaystyle\int_0^1|f(x)|dx \geq 0$$
(b) Tenemos que
\[\begin{array}{ll}
\|kf\|& =\displaystyle\int_0^1|kf(x)|dx\\
\, & =\displaystyle\int_0^1|k||f(x)|dx\\
\, & =|k|\displaystyle\int_0^1|f(x)|dx\\
\, & = |k|\|f\|
\end{array}\]
(c) Tenemos que
\[\begin{array}{ll}
\|f+g\|& =\displaystyle\int_0^1|f(x)+g(x)|dx\\
\, & \leq \displaystyle\int_0^1[|f(x)|+|g(x)|]dx\\
\, & =\displaystyle\int_0^1|f(x)|dx + \displaystyle\int_0^1|g(x)|dx\
\, & = \|f\|+ \|g\|.~~\textcolor{orange}{\blacksquare}
\end{array}\]
$\textcolor{orange}{Ejemplo}$
$\fbox{$\textcolor{blue}{Definición}$}$
Sea $\|\,\|_{p}:\mathbb{R}^n \rightarrow \mathbb{R}$ dada asi: $$\|x\|_{p}=\left(\sum_{i=1}^{n}|x_{i}|^{p}\right)^{\frac{1}{p}}$$
Vamos a demostrar que $|x|_{p}$ es una norma
$\textcolor{orange}{Solución}$
(a) Puesto que $|x_i|\geq 0,~~i=1,\ldots,n$ entonces $$\sum_{1}^{n}|x_i|^{p} \geq 0~~ \therefore \left( \sum_{1}^{n}|x_i|^{p}\right)^{\frac{1}{p}}\geq 0~~ \therefore \|x\|_{p}\geq 0$$
(b) Sea $\alpha\in\mathbb{R}$ y $\bar{x}\in\mathbb{R}^n$. Se tiene entonces
que $$\|\alpha \bar{x}\|_{p}=\left(\sum_{1}^{n}|\alpha x_i|^{p}\right)^{\frac{1}{p}}=\left(|\alpha|^{p}\sum_{1}^{n}| x_i|^{p}\right)^{\frac{1}{p}}=|\alpha|\left(\sum_{1}^{n}| x_i|^{p}\right)^{\frac{1}{p}}=|\alpha|~\|x\|_{p}$$
(c) Tenemos que $$\|\overline{x}\|_{p}=\left[|x_{1}|^{p}+…+|x_{n}|^{p}\right]^{\frac{1}{p}}$$ Ahora procederemos a demostrar que cumple con la propiedad de la desigualdad del triángulo, es decir que para $\overline{x},\overline{y}\in \mathbb{R}^{n}$ $$\|\overline{x}+\overline{y}\|_{p}\leq \|\overline{x}\|_{p}+\|\overline{y}\|_{p}$$ Para ello primero procederemos a demostrar lo siguiente
$\fbox{Proposición}$
Sean p,q números reales tales que $p,q>1$ y $\displaystyle{\frac{1}{p}+\frac{1}{q}=1}$ entonces $$|ab|\leq \frac{|a|^{p}}{p}+\frac{|b|^{q}}{q}$$
$\fbox{Demostración}$
Consideremos la función $\varphi:[0,\infty)\rightarrow
\mathbb{R}$ dada por $\varphi(t)=t^{m}-mt$ con $m=\frac{1}{p}$
se tiene que $\varphi^{\prime}(t)=mt^{m-1}-m=m\left(t^{m-1}-1\right)$ por lo
que $\varphi^{\prime}(t)=0\Leftrightarrow m\left(t^{m-1}-1\right)=0\Leftrightarrow
t=1$ por lo tanto $t=1$ es un punto crítico de la función, ahora volvemos a derivar $\varphi^{\prime\prime}(t)=m(m-1)t^{m-2}$ que en $t=1$ es $<0$ por lo tanto en $t=1$, $\varphi$ alcanza un punto máximo $\therefore$ $\varphi(t)\leq \varphi(1)\Rightarrow t^{m}-mt\leq mt-m\Rightarrow t^{m}-1\leq m(t-1)$ Ahora hacemos $\displaystyle{t=\frac{|a|^{p}}{|b|^{q}}}$ y sustituimos
$$\displaystyle{\left(\frac{|a|^{p}}{|b|^{q}}\right)^{\frac{1}{p}}-1\leq
\frac{1}{p}\left(\frac{|a|^{p}}{|b|^{q}}-1\right)}$$
multiplicando ambos miembros de la desigualdad por $|b|^{q}$ se
tiene que $$\left(|b|^{q}\right)\left(\left(\frac{|a|^{p}}{|b|^{q}}\right)^{\frac{1}{p}}-1\right)\leq
\left(|b|^{q}\right)\left(\frac{1}{p}\left(\frac{|a|^{p}}{|b|^{q}}-1\right)\right)$$ lo que nos queda $$|a||b|^{q-\frac{q}{p}}-|b|^{q}\leq \frac{|a|^{p}}{p}-|b|^{q}\Rightarrow |a||b|^{q-\frac{q}{p}}\leq \frac{|a|^{p}}{p}-\frac{|b|^{q}}{p}+|b|^{q}$$
como $\displaystyle{q-\frac{q}{p}=1}$ y $\displaystyle{-\frac{|b|^{q}}{p}+|b|^{q}=\frac{|b|^{q}}{q}}$ tenemos entonces
$$|ab|\leq \frac{|a|^{p}}{p}+\frac{|b|^{q}}{q}.~~\square$$
Probaremos la desigualdad de Holder
$$\boxed{\sum_{k=1}^{n}|a_{k}b_{k}|\leq \left[\sum_{k=1}^{n}|a_{k}|^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|b_{k}|^{q}\right]^{\frac{1}{q}}}$$
$\fbox{Demostración}$
Sea $\displaystyle{A=\left(\sum_{k=1}^{n}|a_{k}|^{p}\right)^{\frac{1}{p}}}$ y $\displaystyle{B=\left(\sum_{k=1}^{n}|b_{k}|^{q}\right)^{\frac{1}{q}}}$ y
definimos $\displaystyle{a^{\prime}_{k}=\frac{a_{k}}{A}}$ y $\displaystyle{b^{\prime}_{k}=\frac{b_{k}}{B}}$ usando la desigualdad probada anteriormente se tiene
\begin{align*}|a^{\prime}_{k}~b^{\prime}_{k}|&\leq \frac{|a^{\prime}_{k}|^{p}}{p}+\frac{|b^{\prime}_{k}|^{q}}{q}\\&\Rightarrow \sum_{k=1}^{n}|a^{\prime}_{k}b^{\prime}_{k}|\leq \sum_{k=1}^{n}\frac{|a^{\prime}_{k}|^{p}}{p}+\frac{|b^{\prime}_{k}|^{q}}{q}\\&=\sum_{k=1}^{n}\frac{|a^{\prime}_{k}|^{p}}{p}+\sum_{k=1}^{n}\frac{|b^{\prime}_{k}|^{q}}{q}\\&=\frac{1}{p}\sum_{k=1}^{n}|a^{\prime}_{k}|^{p}+\frac{1}{q}\sum_{k=1}^{n}|b^{\prime}_{k}|^{q}\\&=\frac{1}{p}\sum_{k=1}^{n}\left[\frac{a_{k}}{A}\right]^{p}+\frac{1}{q}\sum_{k=1}^{n}\left[\frac{b_{k}}{B}\right]^{q}\\&=\frac{1}{p}\frac{1}{A^{p}}\sum_{k=1}^{n}|a_{k}|^{p}+\frac{1}{q}\frac{1}{B^{q}}\sum_{k=1}^{n}|b_{k}|^{q}\end{align*}
como $$A^{p}=\left(\left(\sum_{k=1}^{n}|a_{k}|^{p}\right)^{\frac{1}{p}}\right)^{p}=\left(\sum_{k=1}^{n}|a_{k}|^{p}\right)~~~y~~~
B^{q}=\left(\left(\sum_{k=1}^{n}|b_{k}|^{q}\right)^{\frac{1}{q}}\right)^{q}=\left(\sum_{k=1}^{n}|b_{k}|^{q}\right)$$
se tiene que
\begin{align*}\frac{1}{p}\frac{1}{A^{p}}\sum_{k=1}^{n}|a_{k}|^{p}+\frac{1}{q}\frac{1}{B^{q}}\sum_{k=1}^{n}|b_{k}|^{q}&=\frac{1}{p}\frac{1} {\left(\sum_{k=1}^{n}|a_{k}|^{p}\right)}\sum_{k=1}^{n}|a_{k}|^{p}+\frac{1}{q}\frac{1}{\left(\sum_{k=1}^{n}|b_{k}|^{q}\right)}\sum_{k=1}^{n}|b_{k}|^{q}\\&=\frac{1}{p}+\frac{1}{q}=1\end{align*}
Por lo tanto
\begin{align*}\sum_{k=1}^{n}|a^{\prime}{k}b^{\prime}{k}|\leq 1 &\Rightarrow \sum_{k=1}^{n}|\frac{a_{k}}{A}\frac{b_{k}}{B}|\leq1\\&\Rightarrow \sum_{k=1}^{n}|a_{k}b_{k}|\leq AB\\ &\Rightarrow \sum_{k=1}^{n}|a_{k}b_{k}|\leq \left(\sum_{k=1}^{n}|a_{k}|^{p}\right)^{\frac{1}{p}}\left(\sum_{k=1}^{n}|b_{k}|^{q}\right)^{\frac{1}{q}}\end{align*}
Ahora probaremos la desigualdad de Minkowski
$$\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{p}}\leq \left[\sum_{k=1}^{n}|a_{k}|^{p}\right]^{\frac{1}{p}}+\left[\sum_{k=1}^{n}|b_{k}|^{q}\right]^{\frac{1}{q}}$$
Tenemos que
\begin{align*}\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}=\sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}|a_{k}+b_{k}|&\leq \sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}\left(|a_{k}|+|b_{k}|\right)\\&=\left( \sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}\right)\left(|a_{k}|\right)+\left(
\sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}\right)\left(|b_{k}|\right)\end{align*}
Aplicando la desigualdad de Holder a cada sumando tenemos que
\begin{align*}\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}\right)\left(|a_{k}|\right)&\leq \left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{q(p-1)}\right]^{\frac{1}{q}}\\&=\left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}\end{align*}
\begin{align*}\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p-1}\right)\left(|b_{k}|\right)&\leq \left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{q(p-1)}\right]^{\frac{1}{q}}\\&=\left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}\end{align*}
Por lo tanto
$$\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\leq \left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}+\left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}$$
Multiplicando ambos miembros de la desigualdad por
$$\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{-\frac{1}{q}}$$
obtenemos
\begin{align*}\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right)\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{-\frac{1}{q}}&=\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right)^{1-\frac{1}{q}}\\&=\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right)^{\frac{1}{p}}\end{align*}
$$\left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}\left(\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{-\frac{1}{q}}\right)=\left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}$$
$$\left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{\frac{1}{q}}\left(\left[\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right]^{-\frac{1}{q}}\right)=\left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}$$
Por lo tanto $$\left(\sum_{k=1}^{n}|a_{k}+b_{k}|^{p}\right)^{\frac{1}{p}}\leq
\left[\sum_{k=1}^{n}a_{k}^{p}\right]^{\frac{1}{p}}+\left[\sum_{k=1}^{n}b_{k}^{p}\right]^{\frac{1}{p}}$$
Por lo tanto $$\|\overline{x}+\overline{y}\|_{p}\leq \|\overline{x}\|_{p}+\|\overline{y}\|_{p}~~\textcolor{orange}{\blacksquare}$$
$\textcolor{orange}{Ejemplo}$
$\fbox{$\textcolor{red}{Espacios~~\ell_{p}}$}$
$\textcolor{blue}{Definition}$
Dado $\bar{x}\in\mathbb{R}^{n}$ definimos
$$\|\bar{x}\|_{p}=\left(\sum_{k=1}^{n}|x_{k}|^{p}\right)^{\frac{1}{p}}~~si~~p\in[1,\infty)$$
$\fbox{Proposición}$
Dada $p\in[1,\infty)$, consideramos el conjunto $\ell_{p}$ de todas las sucesiones $(x_{k})$ de números reales tales que la serie
$$\sum_{k=1}^{\infty}|x_{k}|^{p}$$converge. Entonces la función
$$\|(x_{k})\|_{p}=\left(\sum_{k=1}^{\infty}|x_{k}|^{p}\right)^{\frac{1}{p}}$$es una norma en $\ell_{p}$
$\fbox{Demostración}$
(a) Tenemos
$$\|x_{k}\|_{p}\geq0\Leftrightarrow\left(\sum_{k=1}^{\infty}|x_{k}|^{p}\right)^{\frac{1}{p}}\geq0\Leftrightarrow\sum_{k=1}^{\infty}|x_{k}|^{p}\geq0\Leftrightarrow|x_{k}|^{p}\geq0\Leftrightarrow |x_{k}|\geq0\Leftrightarrow x_{k}\geq0$$
(b) $$\|\lambda x_{k}\|_{p}=\left(\sum_{k=1}^{\infty}|\lambda x_{k}|^{p}\right)^{\frac{1}{p}}=\left(\sum_{k=1}^{\infty}|\lambda|^{p} |x_{k}|^{p}\right)^{\frac{1}{p}}=\left(|\lambda|^{p}\sum_{k=1}^{\infty} |x_{k}|^{p}\right)^{\frac{1}{p}}=|\lambda|\left(\sum_{k=1}^{\infty}|x_{k}|^{p}\right)^{\frac{1}{p}}=|\lambda|~\|x_{k}\|_{p}$$
(c) Como la $\|\|_{p}$ satisface la desigualdad del triángulo, se tiene que
$$\left(\sum_{k=1}^{n} |x_{k}+y_{k}|^{p}\right)^{\frac{1}{p}}\leq \left(\sum_{k=1}^{\infty} |x_{k}|^{p}\right)^{\frac{1}{p}}+\left(\sum_{k=1}^{\infty} |y_{k}|^{p}\right)^{\frac{1}{p}}\leq\|x_{k}\|_{p}+\|y_{k}\|_{p}$$
para todo $n\in \mathbb{N}$. En consecuencia, la serie
$$\sum_{k=1}^{\infty} |x_{k}+y_{k}|^{p}$$
converge y se cumple que
$$\|x_{k}+y_{k}\|_{p}=\left(\sum_{k=1}^{\infty} |x_{k}+y_{k}|^{p}\right)^{\frac{1}{p}}\leq\|x_{k}\|_{p}+\|y_{k}\|_{p}.~~\textcolor{orange}{\blacksquare}$$
$\fbox{Proposición}$
Sea $\bar{x}\in\mathbb{R}^{n}$, entonces
$$\|\bar{x}\|_{\infty}\leq\|\bar{x}\|\leq\|\bar{x}\|_{1}\leq n\|\bar{x}\|$$
$\fbox{Demostración}$
Sea $|x_{k}|=\max{|x_{1},…,|x_{n}||}$
Se tiene entonces
$$|x_{k}|=\sqrt{x_{k}^{2}}\leq \sqrt{x_{1}^{2}+…+x_{n}^{2}}=\|\bar{x}\|$$
$\therefore~~\|\bar{x}\|_{\infty}\leq\|\bar{x}\|$
Ahora bien
$$\left(\|\bar{x}\|\right)^{2}=\left(|x_{1}|^{2}+…+|x_{n}|^{2}\right)\leq \sum_{i=1}^{n}|x_{i}|^{2}+2\sum_{i\leq i\leq j\leq n}|x_{i}||x_{j}|=\left(|x_{1}|+…+|x_{n}|\right)^{2}=\left(\|\bar{x}\|_{1}\right)^{2}$$
$$~\Rightarrow~\left(\|\bar{x}\|\right)^{2}\leq\left(\|\bar{x}\|_{1}\right)^{2}$$
$$~\Rightarrow~\|\bar{x}\|\leq \|\bar{x}\|_{1}$$
También si suponemos que $|x_{j}|=\max{|x_{1}|,…,|x_{n}|}$ entonces
$$\|\bar{x}\|_{1}=|x_{j}|\leq |x_{j}|+…+|x_{j}|=n|x_{j}|=n\max{|x_{1}|,…,|x_{j}|}=n\|\bar{x}\|_{\infty}$$
por lo que
$$\|\bar{x}\|_{1}\leq n\|\bar{x}\|_{\infty}.~~\textcolor{orange}{\blacksquare}$$
$\fbox{Proposición}$
Sea $\bar{x}\in\mathbb{R}^{n}$ entonces
$$\|\bar{x}\|_{\infty}\leq\|\bar{x}\|\leq\sqrt{n}\|\bar{x}\|_{\infty}$$
$\fbox{Demostración}$
Suponemos que $|x_{j}|=\max{|x_{1}|,…,|x_{n}|}$. Se tiene entonces
$$|x_{j}|=\sqrt{x_{j}^{2}}\leq \sqrt{x_{1}^{2}+…+x_{j}^{2}+…+x_{n}^{2}}=\|\bar{x}\|$$
Por tanto
$$\|\bar{x}\|_{\infty}\leq\|\bar{x}\|$$
Por otro lado suponemos que $|x_{j}|=\max{|x_{1}|,…,|x_{n}|}$ y tenemos
$$\|\bar{x}\|=\sqrt{x_{1}^{2}+…+x_{j}^{2}+…+x_{n}^{2}}\leq \sqrt{x_{j}^{2}+…+x_{j}^{2}+…+x_{j}^{2}}=\sqrt{n(x_{j}^{2})}=\sqrt{n}\|\bar{x}\|_{\infty}$$
por lo tanto
$$\|\bar{x}\|\leq\sqrt{n}\|\bar{x}\|_{\infty}.~~\textcolor{orange}{\blacksquare}$$
$\fbox{Proposición}$
Sea $\bar{x}\in\mathbb{R}^{n}$ entonces
$$\|\bar{x}\|_{1}\leq\sqrt{n}\|\bar{x}\|$$
$\fbox{Demostración}$
$$\|\bar{x}\|_{1}=|x_{1}|+…+|x_{n}|=\left(1,…,1\right)\cdot (|x_{1}|,…,|x_{1}|)\leq \|(1,…,1)\|~\|\bar{x}\|=\sqrt{n}\|\bar{x}\|$$
por lo tanto
$$\|\bar{x}\|_{1}\leq\sqrt{n}\|\bar{x}\|.~~\textcolor{orange}{\blacksquare}$$
$\fbox{$\textcolor{blue}{Ortogonalidad~ de~ vectores}$}$
Generalizando el concepto de perpendicularidad en $\mathbb{R}^{3}$, damos la siguiente definición.
$\fbox{$\textcolor{blue}{Definición}$}$
Sea E un espacio vectorial dotado de un producto escalar $\langle,\rangle$, se dice que dos vectores $\overline{x},\overline{y}\in E$ son \textbf{ortogonales} si $$\langle \overline{x},\overline{y}\rangle=0$$
Tenemos que si $\langle \overline{x},\overline{y}\rangle=0$ entonces $$\|\overline{x}-\overline{y}\|^{2}=\langle \overline{x}+\overline{y},\overline{x}+\overline{y}\rangle=\langle \overline{x},\overline{x}\rangle-2\langle \overline{x},\overline{y}\rangle+\langle \overline{y},\overline{y}\rangle=\langle \overline{x},\overline{x}\rangle+\langle \overline{y},\overline{y}\rangle=\|\overline{x}\|^{2}+\|\overline{y}\|^{2}$$
es decir se cumple el teorema de pitagoras.

Sean ahora $\overline{x},\overline{y}\in \mathbb{R}^{2}$ y sea $\theta$ el ángulo entre ellos. Según la ley de los cosenos
\begin{align*} \|\overline{x}-\overline{y}\|^{2}&=\|\overline{x}\|^{2}+\|\overline{y}\|^{2}-2\|\overline{x}\|\|\overline{y}\|\cos(\theta) \\ &~\Rightarrow~\|\overline{x}\|^{2}-2\langle \overline{x},\overline{y}\rangle+\|\overline{y}\|^{2}=\|\overline{x}\|^{2}+\|\overline{y}\|^{2}-2\|\overline{x}\|\|\overline{y}\|\cos(\theta) \\ &~\Rightarrow~\langle \overline{x},\overline{y}\rangle=\|\overline{x}\|\|\overline{y}\|\cos(\theta) \end{align*}
Esta fórmula motiva la siguiente definición de ángulo $\theta$ entre dos vectores no nulos $\overline{x},\overline{y}\in E$, por medio de $$\boxed{\theta=\arccos\left(\frac{\langle \overline{x},\overline{y}\rangle}{|\overline{x}||\overline{y}|}\right)}$$

.






Fórmulas de Frenet-Serret

Por Ruben Hurtado

Dada una curva $f:[a,b]\rightarrow\mathbb{R}^{n}$, el Vector Unitario Tangente $T$ es otra
función vectorial asociada a la curva, y está definida por:
$$\boxed{T(t)=\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\ \ \ \ \text{siempre
que $|f^{\prime}(t)| \neq 0$.}}$$
De acuerdo a la definición anterior tenemos
$$\|T(t)\|=\left\|\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right\|=\frac{\|f'(t)\|}{\|f'(t)\|}=1$$
y de acuerdo a lo anterior
\begin{align*} \|T(t)\|=1 &~\Rightarrow~T(t)\cdot T(t)=1 \\ &~\Rightarrow~\frac{d}{dt}(T(t)\cdot T(t))=0 \\ &~\Rightarrow~T'(t)\cdot T(t)+T(t)\cdot T'(t)=0 \\ &~\Rightarrow~2(T'(t)\cdot T(t))=0 \\ &~\Rightarrow~T'(t)\cdot T(t)=0 \end{align*}
lo que implica que $T'(t)$ es ortogonal $T(t)$. Si $T^{\prime}\neq 0$ el vector unitario que tiene la misma dirección que $T^{\prime}$ se llama Vector Normal Principal a la
curva y se designa por $N(t)$. Asi pues $N(t)$ es una nueva función vectorial asociada a la curva y esta dada por la ecuación:
$$\boxed{N(t)=\frac{T^{\prime}(t)}{\|T^{\prime}(t)\|}\ \ \ \ \text{si}\ \ \ \ \ \|T^{\prime}(t)\| \neq 0}$$
de acuerdo a lo visto con el vector tangente, se tiene que $T(t)$ y $N(t)$ son ortogonales.
Un tercer vector definido mediante
$$\boxed{B(t)=T(t)\times N(t)}$$
recibe el nombre de Vector Binormal. Notese que $$\|B(t)\|=\|T(t)\times
N(t)\|=\|T(t)\|\|N(t)\|\sin\left(\frac{\pi}{2}\right)=1$$
de acuerdo a lo anterior
\begin{align*} \|B(t)\|=1&~\Rightarrow~B(t)\cdot B(t)=1 \\ &~\Rightarrow~\frac{d}{dt}(B(t)\cdot B(t))=0 \\ &~\Rightarrow~B'(t)\cdot B(t)+B(t)\cdot B'(t)=0\\ &~\Rightarrow~ 2(B'(t)\cdot B(t))=0\\ &~\Rightarrow~B'(t)\cdot B(t)=0 \end{align*}
por tanto $B'(t)$ es ortogonal a $B(t)$. Es decir $\boxed{B'(t)\cdot B(t)=0}$
$\textcolor{orange}{Ejemplo}$
Pruebe que $\displaystyle{B'(t)\cdot T(t)=0}$
$\textcolor{orange}{Solución}$
Si $B(t)=T(t)\times N(t)$ entonces $B(t)$ es ortogonal a $T(t)$ y $B(T)$ es ortogonal a $N(t)$ y por lo tanto $B(t)\cdot T(t)=0$
Por otro lado
$$N(t)=\frac{T(t)}{\|T'(t)\|}~\Rightarrow~\|T'(t)\|~N(T)=T'(t)$$
Si $B(t)$ es ortogonal a $N(t)$ entonces $B(t)$ es ortogonal a $\|T'(t)\|~N(T)$. Por lo tanto
$$B(t)\cdot T'(t)=B(t)\cdot \|T'(t)\|~N(T)=0$$
Tenemos entonces que
\begin{align*} \frac{d}{dt}(B(t)\cdot T(t))=0&~\Rightarrow~B'(t)\cdot T(t)+B(t)\cdot T'(t)=0 \\ &~\Rightarrow~B'(t)\cdot T(t)+0=0 \\ &~\Rightarrow~B'(t)\cdot T(t)=0 \end{align*}
Por lo tanto $\boxed{B'(t)\cdot T(t)=0}$.$~~\textcolor{orange}{\blacksquare}$
Según los resultados anteriores $B'(t)\cdot B(t)=0$ y $B'(t)\cdot T(t)=0$. Pero también $N(t)\cdot B(t)=0$ y $N(t)\cdot T(t)=0$. Por lo tanto $N(t)$ y $B'(t)$ deben ser paralelos, es decir existe $\alpha$ tal que $\boxed{B'(t)=\alpha N(t)}$.
Si la curva está parametrizada por longitud de arco, considerando que $\|\overline{f}'(s)\|=1$, se tiene
\begin{align*} T(s) & =\overline{f}'(s) \\ N(s) & =\frac{\overline{f}»(s)}{|\overline{f}»(s)|} \\ B(s) & =T(s)\times N(s) \end{align*}
$\fbox{Fórmulas de Frenet-Serret}$
El sistema de vectores ${T(t),N(t),B(t)}$ forman un triedro en el cual
$$\boxed{B(t)=T(t)\times N(t)}$$
de acuerdo a la definición anterior
\begin{align*} B(t)=T(t)\times N(t)&~\Rightarrow~N(t)\times B(t)=N(t)\times (T(t)\times N(t)) \\ &~\Rightarrow~N(t)\times B(t)=(N(t)\cdot N(t))T(t)-(N(t)\cdot T(t))N(t) \\ &~\Rightarrow~N(t)\times B(t)=T(t)-0\cdot N(t) \\ &~\Rightarrow~N(t)\times B(t)=T(t) \end{align*}
por tanto
$$\boxed{N(t)\times B(t)=T(t)}$$
Análogamente de acuerdo a la definición anterior
\begin{align*} B(t)=T(t)\times N(t)&~\Rightarrow~B(t)\times T(t)=(T(t)\times N(t))\times T(t) \\ &~\Rightarrow~B(t)\times T(t)=(T(t)\cdot T(t))N(t)-(N(t)\cdot T(t))T(t) \\ &~\Rightarrow~B(t)\times T(t)=N(t)-0\cdot T(t) \\ &~\Rightarrow~B(t)\times T(t)=N(t) \end{align*}
por tanto
$$\boxed{B(t)\times T(t)=N(t)}$$
Por que dicho sistema de vectores, es un conjunto ortonormal. Las fórmulas que dan las derivadas del triedro móvil, en términos del mismo triedro móvil, se llaman las fórmulas de Frenet-Serret.
$\fbox{Teorema}$
(a) $\displaystyle{\frac{dT}{ds}=\kappa N}$
(b) $\displaystyle{\frac{dB}{ds}=-\tau N(s)}$
(c) $\displaystyle{\frac{dN}{ds}=\tau B-\kappa T}$
$\fbox{Demostración}$
(a) Por definición $\displaystyle{N(s)=\frac{T'(s)}{\|T'(s)\|}}$ y $\displaystyle{\kappa(s)=\left\|\frac{dT}{ds}\right\|=\|f»(s)\|}$. Luego
$$T'(s)=\|T'(s)\|~N(s)=\kappa(s)~N(s).$$
(b) $\displaystyle{\frac{dB}{ds}=-\tau N(s)}$ es fórmula de definición de torsión.
(c) \begin{align*} N'(s)&=B'(s)\times T(s)+B(s)\times T'(s) \\ &=-\tau N(s)\times T(s)+B(s)\times \kappa N(s) \\ &=\tau T(s)\times N(s)-\kappa N(s)\times B(s) \\ &=\tau B(s)-\kappa T(s).~~\textcolor{orange}{\blacksquare} \end{align*}

Curvatura, Radio de Curvatura, Circulo Osculador y Torsión

Por Ruben Hurtado

$\fbox{$\textcolor{red}{Curvatura}$}$
En una recta, el vector unitario tangente $T$ no cambia su dirección y por tanto $T^{\prime}=0$. Si la curva no es una linea recta, la derivada $T^{\prime}$ mide la tendencia de la tangente a cambiar su dirección. El coeficiente de variación o derivada de la tangente unitaria respecto a la longitud de arco se denomina vector curvatura de la curva. Se designa por $\displaystyle{dT/ds}$ donde s representa la
longitud de arco.

Sea $f:[a,b]\subset\mathbb{R}\rightarrow\mathbb{R}^{n}$ una curva dos veces diferenciable parametrizada por longitud de arco y T su vector tangente unitario. La $\textcolor{red}{\textit{curvatura}}$ de f es la función
$$\kappa=\left\|\frac{dT}{ds}\right\|=\|f^{\prime\prime}(s)\|$$
La letra $\kappa$ es la letra griega kappa. La curvatura mide la flexión de la curva.
Mostraremos que una recta, es una curva que no se flexiona, tiene curvatura 0
$\textcolor{orange}{Ejemplo}$
Calcule la curvatura en todo punto de la recta $f(t)=(x_{0},y_{0},z_{0})+t(u_{1},u_{u},u_{3})$ donde $\|u\|=1$
tenemos:
\[ f^{\prime}(t)=(u_{1},u_{2},u_{3})\ \ \ \ \ \text{y}\ \ \ \ \ \|f^{\prime}(t)\|=\|u\|=1
\]
Por lo tanto la curva esta parametrizada por longitud de arco
Por lo tanto $\kappa=\|f^{\prime\prime}(t)\|=0$, por lo tanto
$\kappa=0$.$~~\textcolor{orange}{\blacksquare}$
$\textcolor{orange}{Ejemplo}$
Calcule la curvatura de una circunferencia. Para un círculo
de radio $R$ dado por la ecuación
$$f(t)=(R\cos t,R \sin t)$$
tenemos:
La parametrizacion por longitud de arco es:
$$s=\int_{0}^{t}\|f'(u)\|du=\int_{0}^{t}Rdt=Rt~\rightarrow~s=Rt~\Rightarrow~t=\frac{s}{R}$$
de esta manera se tiene
\begin{align*} \overline{f}(s) &=f\left(\frac{s}{R}\right)=\left(R\cos\left(\frac{s}{R}\right),R\sin\left(\frac{s}{R}\right)\right) \\ \overline{f}^{\prime}(s)&=\left(-\sin \left(\frac{s}{R}\right), \cos \left(\frac{s}{R}\right)\right) \\ \overline{f}^{\prime\prime}(s)&=\left(-\frac{1}{R}\cos \left(\frac{s}{R}\right),-\frac{1}{R} \sin \left(\frac{s}{R}\right)\right) \end{align*}
Por lo tanto $\displaystyle{\kappa=\|\overline{f}^{\prime\prime}(s)\|=\frac{1}{R}}$.
Esto prueba que una circunferencia tiene curvatura constante.
El siguiente teorema nos proporciona otras fórmulas que nos permiten calcular la
curvatura parametrizada por otro parámetro t, que no es necesariamente la longitud
de arco.
$\fbox{Teorema}$
Sea $f(t)$ una curva dos veces diferenciable. Entonces
$$\kappa(t)=\frac{\|T'(t)\|}{\|f'(t)\|}$$
$\fbox{Demostración}$
Sabemos que $\displaystyle{s^{\prime}(t)=\|f^{\prime}(t)\|}$. Además usando la regla de la cadena
\begin{align*} T'(t)&=\frac{dT}{dt}=\frac{dT}{ds}\frac{ds}{dt}=\frac{dT}{ds}\|f'(t)\| \\ &~\Rightarrow~\frac{dT}{ds}=\frac{T'(t)}{\|f'(t)\|} \\ &~\Rightarrow~\left\|\frac{dT}{ds}\right\|=\frac{\|T'(t)\|}{\|f'(t)\|} \\ &~\Rightarrow~\kappa(t)=\frac{\|T'(t)\|}{\|f'(t)\|}.~~\textcolor{orange}{\blacksquare} \end{align*}
$\textcolor{orange}{Ejemplo}$
Calcule la curvatura $\kappa$ de la hélice
$x(t)=a\cos(wt)$, $y(t=a\sin(wt))$, $z(t)=bt$.
$\textcolor{orange}{Solución}$
Tenemos que: \[f^{\prime}(t)=(-wa\sin(wt),aw\cos(wt),b)\ \ \Rightarrow\ \ \|f^{\prime}(t)\|=\sqrt{a^2w^2+b^2}\] Por lo tanto \[ T=(-aw\sin(wt),aw\cos(wt),b)\frac{1}{\sqrt{a^2w^2+b^2}} \] Por lo tanto \[ k=\frac{\|T^{\prime}\|}{\|f^{\prime}\|}= \|-aw^2\cos(wt),-aw^2\sin(wt),0\|\frac{1}{\sqrt{a^2w^2+b^2}}= \] \[ =\sqrt{(aw^2)^2(\cos^2(wt)+\sin^2(wt))}\ \frac{1}{\sqrt{a^2w^2+b^2}}= \frac{aw^2}{\sqrt{a^2w^2+b^2}}.~~\textcolor{orange}{\blacksquare} \]

$\fbox{Teorema}$
Sea $f(t)$ una curva dos veces diferenciable. Entonces
$$\kappa(t)=\frac{\|f^{\prime}(t)\times f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{3}}$$
$\fbox{Demostración}$
Si $$T=\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\Rightarrow
T~\|f^{\prime}(t)\|=f^{\prime}(t)\Rightarrow
T\frac{ds}{dt}=f^{\prime}(t)$$Por lo tanto
$$f^{\prime\prime}(t)=T\frac{d^{2}s}{dt^{2}}+\frac{ds}{dt}T^{\prime}$$
Haciendo el producto cruz $$f^{\prime}(t)\times
f^{\prime\prime}(t)=T\frac{ds}{dt}\times
\left(T\frac{d^{2}s}{dt^{2}}+\frac{ds}{dt}T^{\prime}\right)=\cancel{T\frac{ds}{dt}\times
T\frac{d^{2}s}{dt^{2}}}+T\frac{ds}{dt}\times
\frac{ds}{dt}T^{\prime}$$Por lo tanto
$$\|f^{\prime}(t)\times f^{\prime\prime}(t)\|=\left\|T\frac{ds}{dt}\times
\frac{ds}{dt}T^{\prime}\right\|=\left(\frac{ds}{dt}\right)\left\|T\right\|\left(\frac{ds}{dt}\right)\left\|T^{\prime}\right\|\sin(T,T^{\prime})=\left(\frac{ds}{dt}\right)^{2}\left\|T^{\prime}\right\|$$En
cosecuencia$$\frac{\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|}{\left(\frac{ds}{dt}\right)^{2}}=\|T^{\prime}|\Rightarrow
\|T^{\prime}\|=\frac{\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{2}}$$ sustituimos en
$$k(t)=\frac{\|T^{\prime}(t)\|}{\|f^{\prime}(t)\|}\Rightarrow \kappa(t)=\frac{\frac{\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{2}}}{\|f^{\prime}(t)\|}\Rightarrow
\kappa(t)=\frac{\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{3}}.~~\textcolor{orange}{\blacksquare}$$
$\textcolor{orange}{Ejemplo}$
Hallar la función curvatura $\kappa(t)$ de la curva
$$f(t)=\left(t^{2},t,\frac{2t^{3}}{3}\right)$$
$\textcolor{orange}{Solución}$
Según la fórmula anterior
\begin{align*} f'(t) & =(2t,1,2t^{2}) \\\ f^{\prime\prime}(t) & =(2,0,4t) \\ \|f'(t)\| & =\sqrt{4t^{2}+1+4t^{4}}=2t^{2}+1 \end{align*}
Por lo que
\begin{align*} f'(t)\times f^{\prime\prime}(t) & =\left|\begin{matrix}i&j&k\\2t&1&2t^{2}\\2&0&4t\end{matrix}\right| \\ & =2(2t,-2t^{2},-1) \\ \|f'(t)\times f^{\prime\prime}(t)\|&=2\sqrt{4t^{2}+4t^{4}+1}=2(2t^{2}+1) \end{align*}
Luego
$$\kappa(t)=\frac{\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{3}}=\frac{2(2t^{2}+1)}{(2t^{2}+1)^{3}}=\frac{2}{(2t^{2}+1)^{2}}.~~\textcolor{orange}{\blacksquare}$$
$\textcolor{orange}{Ejemplo}$
Para el caso especial de una curva plana con ecuación $y=f(x)$ podemos escoger $x$ como el parámetro y escribir $r(x)=x\hat{i}+f(x)\hat{j}$ entonces
\begin{align*}r^{\prime}(x)&=\hat{i}+f^{\prime}(x)\hat{j}\\r^{\prime
\prime}(x)&=f^{\prime \prime}(x)\hat{j}\end{align*} y al efectuar:
\[
r^{\prime}(x)\ \text{x}\ r^{\prime \prime}(x)=
\left|
\begin{array}{ccc}
\hat{i} & \hat{j} & \hat{k} \\
1 & f^{\prime}(x) & 0 \\
0 & f^{\prime \prime}(x) & 0 \\
\end{array}
\right|= f^{\prime \prime}(x)\hat{k}
\]

Por lo tanto $\|r^{\prime}(x)\ \times r^{\prime\prime}(x)\|=|f^{\prime\prime}(x)|$.
Por lo tanto, para una curva plana
\[
\kappa(x)=\frac{\|r'(t)\times r^{\prime\prime}(t)\|}{\|r'(t)\|^{3}}=\frac{|f^{\prime\prime}(x)|}{\left(1+[f^{\prime}(x)]^2\right)^{3/2}}.~~\textcolor{orange}{\blacksquare}
\]
$\textcolor{orange}{Ejemplo}$
Calcular la curvatura del gráfico $f(x)=e^{-x}$.
$\textcolor{orange}{Solución}$
Tenemos que: $f'(x)=-e^{-x}$ y $f^{\prime\prime}(x)=e^{-x}$. Luego
$$\kappa(x)=\frac{|f^{\prime\prime}(x)|}{\left[1+\left(f'(x)\right)^{2}\right]^{\frac{3}{2}}}=\frac{e^{-x}}{\left[1+\left(-e^{-x}\right)^{2}\right]^{\frac{3}{2}}}=\frac{e^{-x}}{\left[e^{-2x}+1\right]^{\frac{3}{2}}}.~~\textcolor{orange}{\blacksquare}$$

$\fbox{$\textcolor{red}{Circunferencia~ y~ radio~ de~ curvatura}$}$
Sea $f:[a,b]\rightarrow\mathbb{R}^{2}$ una curva plana y un punto $P$ sobre una curva plana donde $\kappa\neq 0$. Se llama circunferencia de curvatura o circunferencia osculadora de la curva en el punto P a la circunferencia que cumple las siguientes condiciones:
(a) Es tangente a la curva en P. (la circunferencia y la curva tienen la misma recta tangente en el punto P).
(b) Tiene la misma curvatura ($\kappa$) que la curva en P.
(c) Se encuentra hacia el lado concavo o interior de la curva.
(d) El radio de la curvatura de la curva P es el radio del círculo de curvatura o círculo osculador. $$\rho(t)=\frac{1}{\kappa(t)}$$


Asi el centro del círculo osculador (llamado centro de curvatura)
debe estar en:

\[
c(t)=f(t)+\frac{1}{k(t)}N(t)
\]
$\textcolor{orange}{Ejemplo}$
Determine los vectores $T$ y $N$, la curvatura $k$, el centro de la curvatura y la circunferencia osculadora de la parábola $y=x^2$ en el punto $(1,1)$.
$\textcolor{orange}{Solución}$
Si la parábola esta
parametrizada por $x=t$ y por $y=t^2$, entonces su vector de
posición es $f(t)=(t,t^2)$, por lo tanto
\begin{align*}f(t)=(t,t^2)&\Rightarrow f^{\prime}(t)=(1,2t)\\&\Rightarrow\|f^{\prime}(t)\|=\sqrt{1+4t^2}\\&\Rightarrow f^{\prime\prime}(t)=(0,2)\end{align*}
por lo tanto:
\[ T(t)=\frac{(1,2t)}{\sqrt{1+4t^2}}\ \ \ \ \ \ \ T(1)=\left(\frac{1}{\sqrt{5}},\frac{2}{\sqrt{5}}\right)\ \ \ \ \ \ \ N(1)=\left(\frac{-2}{\sqrt{5}},\frac{1}{\sqrt{5}}\right) \] la curvatura $\kappa$, \[ k=\frac{\|f^{\prime\prime}(t)\|}{\left(\sqrt{1+[f^{\prime}(t)]^2}\right)^3}= \frac{2}{\left(\sqrt{1+4t^2}\right)^3}\ \ \ \ \ \ \ k(1)=\frac{2}{5\sqrt{5}}\ \ \Rightarrow\ \ \rho=\frac{5\sqrt{5}}{2} \] Por lo tanto el centro de la curvatura es \[ c(t)=f(1,1)+\frac{1}{\frac{2}{5\sqrt{5}}}\left(\frac{-2}{\sqrt{5}},\frac{1}{\sqrt{5}}\right)= \left(-4,\frac{7}{2}\right) \] Y la ecuación del círculo osculador a la parábola es, por tanto: \[ (x+4)^2+\left(y-\frac{7}{2}\right)^2= \left(\frac{5\sqrt{5}}{2}\right)^2=\frac{125}{4}.~~\textcolor{orange}{\blacksquare} \]
$\fbox{$\textcolor{red}{Torsión}$}$
Sea $f:I\subset \mathbb{R}\rightarrow \mathbb{R}^{3}$ una curva tres veces diferenciable parametrizada por longitud de arco. Nuestro objetivo consistira en estimar con que rapidez una curva se aleja de su plano osculador

La forma de medir la rapidez de alejamiento de la curva f de su plano osculador es por medio del vector binormal $B(s)=T(s)\times N(s)$, que sabemos es un vector unitario ortogonal al plano osculador de f en P. Puesto que $\|B(s)\|=1$, $\forall~s\in I$, la magnitud de la derivada $\|B'(s)\|$ de $B(s)$ medirá precisamente la rapidez con la que el vector binormal $B(s)$ está cambiando de dirección en los alrededores del punto estudiado.
Puesto que $B(s)=T(s)\times N(s)$, tenemos, derivando
$$B'(s)=T(s)\times N'(s)+T'(s)\times N(s)$$
El sumando $T'(s)\times N(s)$ que aparece en esta expresión es igual a cero, ya que $T'(s)=f^{\prime\prime}(s)$ es un vector en la dirección de $N(s)$ (y por lo tanto son colineales; por lo que su producto cruz es cero). Entonces nos queda
$$B'(s)=T(s)\times N'(s)$$
También tenemos que
$$\|B\|=1~\Rightarrow~\frac{d \|B\|^{2}}{ds}=0~\Rightarrow~\frac{d(B\cdot B)}{ds}=0~\Rightarrow~B\cdot B’+B’\cdot B=0~\Rightarrow~B’\cdot B=0~\Rightarrow~B’\bot B $$ Esto nos permite concluir que $B'(s)$ es un vector en el plano osculador de f en s. Por otro lado $$B\cdot T=0~\Rightarrow~(B\cdot T)’=0~\Rightarrow~B’\cdot T+T’\cdot B=0~\underbrace{\Rightarrow}_{\textcolor{red}{T’\cdot B=N~ \|T’\|\cdot B=0}}~B’\cdot T=0~\Rightarrow~B’\bot T$$
De lo anterior podemos concluir que $B’$ tiene la dirección del vector $N$. Debe entonces existir un escalar $\tau(s)$ tal que
$$B'(s)=\tau(s)N(s)$$
$\fbox{$\textcolor{blue}{Definición}$}$
Sea $f:I\subset \mathbb{R}\rightarrow \mathbb{R}^{3}$ una curva tres veces diferenciable parametrizada por longitud de arco tal que $f»(s)\neq 0$ $\forall~s\in I$. El número $\tau(s)$ tal que $B'(s)=-\tau(s)N(s)$ se llama $\textcolor{red}{\textbf{torsión}}$ de f en s.
Notese que
$$\|B'(s)\|=|\tau(s)|$$
$\textcolor{orange}{Ejemplo}$
Dada la función
$$f(t)=(\cos(t),\sin(t),t)$$
cuya reparametrización por longitud de arco es:
$$\overline{f}(s)=\left(\cos\left(\frac{s}{\sqrt{2}}\right),\sin\left(\frac{s}{\sqrt{2}}\right),\frac{s}{\sqrt{2}}\right)$$
cuyo vector normal es
$$N(s)=\left(-\cos\left(\frac{s}{\sqrt{2}}\right),-\sin\left(\frac{s}{\sqrt{2}}\right),0\right)$$
cuyo vector binormal es
$$B(s)=\frac{1}{\sqrt{2}}\left(\sin\left(\frac{s}{\sqrt{2}}\right),-\cos\left(\frac{s}{\sqrt{2}}\right),1\right)$$
de modo que
$$B'(s)=\frac{1}{2}\left(\cos\left(\frac{s}{\sqrt{2}}\right),\sin\left(\frac{s}{\sqrt{2}}\right),0\right)$$
y por lo tanto se tiene
$$|\tau(s)|=\|B'(s)\|=\frac{1}{2}.~~\textcolor{orange}{\blacksquare}$$
Una curva es plana (es decir, es la imagen de un camino $f:[a,b]\rightarrow\mathbb{R}^{3}$ tal que f(s) se encuentra en un plano en $\mathbb{R}^{3}$ para toda $s\in [a,b]$) si y sólo si su torsión es igual a cero $(\forall~s\in [a,b])$.
En efecto, si $\tau(s)=0$, se tiene que $B'(s)=0$, por lo que el vector binormal $B(s)$ debe ser constante, es decir $B(s)=v$ para todo $s\in[a,b]$. De aquí se tiene que
$$f'(s)\cdot B(s)=f'(s)\cdot v=0~~~\forall~s\in[a,b]$$
(pues $f'(s)$ es ortogonal a $B(s)$), o sea
$$\frac{d(f(s)\cdot v)}{ds}=0$$
de donde $f(s)\cdot v=cte~~~\forall~s\in[a,b]$, y por lo tanto, concluimos que $f(s)$ se encuentra en el plano cuyo vector normal es v, $\forall~s\in[a,b]$.

Recíprocamente, si $f(s)$ se encuentra en un plano para toda s en $[a,b]$, entonces dicho plano es el plano osculador de la curva en todo punto de ella, por tanto el vector unitario $B(s)$ no cambia de dirección, por lo que $B'(s)=0$. de donde $\tau(s)=0$ para toda s en $[a,b]$. $\textcolor{orange}{\blacksquare}$
$\fbox{Fórmula para calcular la Torsión en términos de la parametrización por longitud de arco}$
La torsión representa una variación en la dirección del vector binormal, procederemos ahora a desarrollar una fórmula para calcularla
Sea $\overline{f}:[a,b]\rightarrow\mathbb{R}^{3}$ la reparametrización por longitud de arco de f, $\overline{f}=f\circ\varphi$. Queremos calcular la torsión de f en t, donde $t=\varphi(s)$. Sabemos que
\begin{align*} T(s) & =\overline{f}'(s)=\frac{f'(t)}{\|f'(t)\|} \\ T'(s)&=\overline{f}»(s)=\frac{d\left(\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)}{ds} \\ &=\frac{d\left(\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)}{dt}\frac{dt}{ds}=\frac{d\left(\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)}{dt}\frac{1}{\frac{ds}{dt}}\\ &=\frac{d\left(\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)}{dt}\frac{1}{\varphi^{\prime}(s)}\\ &=\frac{d\left(\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)}{dt}\frac{1}{\|f^{\prime}(t)\|}\\ &=\left(\frac{\|f^{\prime}(t)\|f^{\prime\prime}-f^{\prime}(t)\frac{d\left(\|f^{\prime}(t)\|\right)}{dt}}{\|f^{\prime}(t)\|^{2}}\right)\frac{1}{\|f^{\prime}(t)\|}\\ &=\left(\frac{\|f^{\prime}(t)\|f^{\prime\prime}-f^{\prime}(t)\frac{f^{\prime}\cdot f^{\prime\prime}}{\|f^{\prime}(t)\|}}{\|f^{\prime}(t)|^{2}}\right)\frac{1}{\|f^{\prime}(t)\|}~~\left(\frac{d\left(\|f^{\prime}(t)\|\right)}{dt}=\frac{d\sqrt{f^{\prime}(t)\cdot f^{\prime}(t)}}{dt}=\frac{f^{\prime}(t)\cdot f^{\prime\prime}(t)}{\|f^{\prime}(t)\|}\right)\\ &=\left(\frac{\|f^{\prime}(t)\|^{2}f^{\prime\prime}-\left(f^{\prime}(t)\cdot f^{\prime\prime}(t)\right)f^{\prime}(t)}{\|f^{\prime}(t)\|}\right)\frac{1}{\|f^{\prime}(t)\|^{3}}\\ &=\frac{1}{\|f^{\prime}(t)\|^{4}}\left(\|f^{\prime}(t)\|^{2}f^{\prime\prime}(t)-\left(f^{\prime}(t)\cdot f^{\prime\prime}(t)\right)f^{\prime}(t)\right)\\ N(s) &=\frac{\overline{f}^{\prime\prime}(s)}{\kappa(s)} =\frac{\overline{f}^{\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|} \end{align*}
calculemos
$$B'(s)=T(s)\times N'(s)$$ en este caso
\begin{align*} N^{\prime}(s) & =\frac{\|\overline{f}^{\prime\prime}(s)\|\overline{f}^{\prime\prime\prime}(s)-\overline{f}^{\prime\prime}(s)\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|}\right)}{\|\overline{f}^{\prime\prime}(s)\|^{2}} \\ &=\frac{\overline{f}^{\prime\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|}-\overline{f}^{\prime\prime}(s)\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|^{3}}\right) \end{align*}
Luego si $B^{\prime}(s)=T(s) \times N^{\prime}(s)$ entonces se tiene que
\begin{align*} B^{\prime}(s) &=\overline{f}^{\prime}(s)\times \left(\frac{\overline{f}^{\prime\prime\prime}(s)}{|\overline{f}^{\prime\prime}(s)|}-\overline{f}^{\prime\prime}(s)\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{|\overline{f}^{\prime\prime}(s)|^{3}}\right)\right) \\ &=\frac{1}{|\overline{f}^{\prime\prime}(s)|}\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime\prime}(s)-\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{|\overline{f}^{\prime\prime}(s)|^{3}}\right)\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime}(s) \end{align*}
La torsión esta dada por
\begin{align*} B^{\prime}(s) &=\tau(s)N(s) \\ &\Rightarrow B^{\prime}(s)\cdot N(s)=\tau(s)N(s)\cdot N(s) \\ &\Rightarrow B^{\prime}(s)\cdot N(s)=\tau(s)\|N(s)\|^{2} \\ &\Rightarrow B^{\prime}(s)\cdot N(s)=|\tau(s)| \end{align*}
Entonces
\begin{align*} \tau(s) &=B^{\prime}(s)\cdot N(s) \\ &=\left(\frac{1}{\|\overline{f}^{\prime\prime}(s)\|}\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime\prime}(s)-\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{|\overline{f}^{\prime\prime}(s)|^{3}}\right)f^{\prime}(s)\times \overline{f}^{\prime\prime}(s)\right)\cdot \frac{\overline{f}^{\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|} \\ &=\frac{1}{\|\overline{f}^{\prime\prime}(s)\|^{2}}\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime\prime}(s)\cdot \overline{f}^{\prime\prime}(s)-\cancel{\left(\frac{\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{\|\overline{f}^{\prime\prime}(s)\|^{4}}\right)\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime}(s)} \\ &=\frac{1}{\|\overline{f}^{\prime\prime}(s)\|^{2}}\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime\prime}(s)\cdot \overline{f}^{\prime\prime}(s) \end{align*}
La cancelación es porque $$\overline{f}^{\prime}(s)\times \overline{f}^{\prime\prime}(s)\cdot
\overline{f}^{\prime\prime}(s)=0$$ y como $$k(s)=\|\overline{f}^{\prime\prime}\|$$ se
tiene entonces que $$\boxed{\tau(s)=\frac{\overline{f}^{\prime}(s)\times
\overline{f}^{\prime\prime\prime}(s)\cdot \overline{f}^{\prime\prime}(s)}{k(s)^{2}}=-\frac{\overline{f}^{\prime}(s)\times
\overline{f}^{\prime\prime}(s)\cdot \overline{f}^{\prime\prime\prime}(s)}{k(s)^{2}}}$$
$\fbox{Fórmula para calcular la Torsión en términos del parámetro t}$
Ahora vamos a expresar la torsión en términos de t. Ya hemos visto que
\begin{align*} \overline{f}^{\prime}(s)&=\frac{f^{\prime}(t)}{|f^{\prime}(t)|} \\ f^{\prime\prime}(s) & =\frac{1}{\|f^{\prime}(t)\|^{4}}\left(|f^{\prime}(t)|^{2}f^{\prime\prime}(t)-\left(f^{\prime}(t)\cdot f^{\prime\prime}(t)\right)f^{\prime}(t)\right) \end{align*}
Por lo tanto
\begin{align*} f^{\prime}(s)\times f^{\prime\prime}(s) &=\frac{f^{\prime}(t)}{\|f^{\prime}(t)\|}\times \left(\frac{1}{\|f^{\prime}\|^{4}}\left(\|f^{\prime}(t)\|^{2}f^{\prime\prime}(t)-\left(f^{\prime}(t)\cdot f^{\prime\prime}(t)\right)f^{\prime}(t)\right)\right) \\ &=\left(\frac{1}{\|f^{\prime}(t)\|^{3}}\right)f^{\prime}(t)\times f^{\prime\prime}(t)-\left(\frac{f^{\prime}(t)\cdot f^{\prime\prime}(t)}{\|f^{\prime}(t)\|^{5}}\right)\cancel{f^{\prime}(t)\times f^{\prime}(t)} \\ &=\left(\frac{1}{\|f^{\prime}(t)\|^{3}}\right)f^{\prime}(t)\times f^{\prime\prime}(t) \end{align*}
Mientras que
\begin{align*} f^{\prime\prime\prime}(s) &=\frac{df^{\prime\prime}(s)}{ds}=\left(\frac{df^{\prime\prime}(s)}{dt}\right)\frac{dt}{ds}=\left(\frac{df^{\prime\prime}(s)}{dt}\right)\frac{1}{\frac{ds}{dt}} \\ &=\left(\frac{df^{\prime\prime}(s)}{dt}\right)\frac{1}{\|f^{\prime}(t)\|} \\ &=\frac{1}{\|f^{\prime}(t)\|}\frac{d}{dt}\left(\frac{1}{\|f^{\prime}\|^{4}}\left(\|f^{\prime}(t)\|^{2}f^{\prime\prime}(t)-\left(f^{\prime}(t)\cdot f^{\prime\prime}(t)\right)f^{\prime}(t)\right)\right) \\ &=\left(\frac{1}{\|f^{\prime}(t)\|}\right)\left[\left(\frac{1}{\|f^{\prime}(t)\|^{2}}f^{\prime\prime}(t)\right)+\left(\frac{1}{\|f^{\prime}(t)\|^{2}}\right)^{\prime}f^{\prime\prime}(t)\right. \\ &\left.-\left(\frac{f^{\prime}(t)\cdot f^{\prime\prime}(t)}{\|f^{\prime}(t)\|^{4}}\right)f^{\prime\prime}(t)-f^{\prime}(t)\left(\frac{f^{\prime}(t)\cdot f^{\prime\prime}(t)}{\|f^{\prime}(t)\|^{4}}\right)^{\prime}~\right] \end{align*}
Por lo tanto
\begin{align*} f^{\prime}(s)\times f^{\prime\prime}(s)\cdot f^{\prime\prime\prime}(s) &=\left(\frac{1}{\|f^{\prime}(t)\|^{3}}\right)f^{\prime}(t)\times f^{\prime\prime}(t)\cdot \left(\frac{1}{\|f^{\prime}(t)\|}\right)\left[\left(\frac{1}{\|f^{\prime}(t)\|^{2}}f^{\prime\prime}(t)\right)\right. \\ &\left.+\cancel{\left(\frac{1}{\|f^{\prime}(t)\|^{2}}\right)^{\prime}f^{\prime\prime}(t)}-\cancel{\left(\frac{f^{\prime}(t)\cdot f^{\prime\prime}(t)}{\|f^{\prime}(t)\|^{4}}\right)f^{\prime\prime}(t)}-\cancel{f^{\prime}(t)\left(\frac{f^{\prime}(t)\cdot f^{\prime\prime}}{\|f^{\prime}(t)\|^{4}}\right)^{\prime}}~\right] \\ &=\frac{1}{\|f^{\prime}(t)\|^{3}}f^{\prime}(t)\times f^{\prime\prime}(t)\cdot \frac{1}{\|f^{\prime}(t)\|^{3}}f^{\prime\prime\prime}(t) \\ &=\frac{1}{\|f^{\prime}(t)\|^{6}}f^{\prime}(t)\times f^{\prime\prime}(t)\cdot f^{\prime\prime\prime}(t) \end{align*}
finalmente
\begin{align*} \tau(t) &=\frac{f^{\prime}(s)\times f^{\prime\prime\prime}(s)\cdot f^{\prime\prime}(s)}{k(s)^{2}} \\ &=-\frac{f^{\prime}(s)\times f^{\prime\prime}(s)\cdot f^{\prime\prime\prime}(s)}{k(s)^{2}} \\ &=-\frac{1}{\|f^{\prime}(t)\|^{6}}\frac{f^{\prime}(t)\times f^{\prime\prime}(t)\cdot f^{\prime\prime\prime}}{\left(\frac{\|f^{\prime}\times f^{\prime\prime}(t)\|}{\|f^{\prime}(t)\|^{3}}\right)^{2}} \end{align*}
Tenemos que
la torsión esta dada por $$\boxed{\tau(t)=-\frac{f^{\prime}(t)\times
f^{\prime\prime}(t)\cdot
f^{\prime\prime\prime}(t)}{\left(\|f^{\prime}(t)\times
f^{\prime\prime}(t)\|\right)^{2}}}$$
$\textcolor{orange}{Ejemplo}$
Probar que la torsión de la hélice $f(t)=(a\cos(t),a\sin(t),bt)$ es
$$\tau(t)=\frac{b}{a^{2}+b^{2}}$$
$\textcolor{orange}{Solución}$
En este caso
\begin{align*} f'(t) & =(-a\sin(t),a\cos(t),b) \\ f^{\prime\prime}(t) & =(-a\cos(t),-a\sin(t),0) \\ f^{\prime\prime\prime}(t) & =(a\sin(t),-a\cos(t),0) \end{align*}
Por lo que
$$f'(t)\times f^{\prime\prime}(t)=\left|\begin{matrix}i&j&k\\-a\sin(t)&a\cos(t)&b\\-a\cos(t)&-a\sin(t)&0\end{matrix}\right|=(ab\sin(t),-ab\cos(t),a^{2})$$
tenemos entonces
$$f'(t)\times f^{\prime\prime}(t)\cdot f^{\prime\prime\prime}(t)=(ab\sin(t),-ab\cos(t),a^{2})\cdot (a\sin(t),-a\cos(t),0)=a^{2}b$$
$$\|f'(t)\times f»(t)\|=\|(ab\sin(t),-ab\cos(t),a^{2})\|=\sqrt{a^{2}b^{2}+a^{4}}=|a|\sqrt{a^{2}+b^{2}}$$
luego,
$$\tau(t)=\frac{[f'(t)\times f^{\prime\prime}(t)]\cdot f^{\prime\prime\prime}(t)}{\|f'(t)\times f^{\prime\prime}(t)\|^{2}}=\frac{a^{2}b}{\left(|a|\sqrt{a^{2}+b^{2}}\right)^{2}}=\frac{b}{a^{2}+b^{2}}.~~\textcolor{orange}{\blacksquare}$$