Archivo de la categoría: Sin clasificar

16 Material de prueba: Un ejemplo de dinámica de poblaciones

Por Mariana Perez

Consideremos una población constante distribuida en dos países.

Supongamos que cada año:

  • $\frac{1}{4}$ parte de la población que está en $A$ emigra a $B$.
  • $\frac{3}{4}$ partes se quedan en $A$.
  • $\frac{1}{2}$ parte de la población que está en $B$ emigra hacia $A$.
  • $\frac{1}{2}$ parte se quedan en $B$.

$x_n$: la población de $A$

$y_n$: la población de $B$

después de $n$ años

$(x_0, y_0)$ población inicial.

¿Qué pasará cuando pasen muchos años? $$n \longrightarrow \infty$$

¿Se alcanza un equilibrio?

Sistema Dinámico

$x_{n+1}= \frac{3}{4} x_n + \frac{1}{2} y_n$

$y_{n + 1}=\frac{1}{4} x_n + \frac{1}{2} y_n$

\begin{equation*} \begin{pmatrix} x_{n+1} \\ \\ y_{n+1} \end{pmatrix} = \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \\ \frac{1}{4} & \frac{1}{2} \end{pmatrix}\begin{pmatrix} x_n \\ \\ y_n \end{pmatrix} \end{equation*}

$\overrightarrow{x_{n+1}} = A\, \overrightarrow{x_n}$

$\overrightarrow{x_0} \curvearrowright \overrightarrow {x_1} \curvearrowright \overrightarrow{x_2} \curvearrowright \overrightarrow{x_3} \cdots $

De modo que $\overrightarrow{x_1} = A \overrightarrow{x_0} ; \quad \overrightarrow{x_2}= A^2 \, \overrightarrow{x_0}$ en general $$\overrightarrow{x_n} = A^n \, \overrightarrow{x_0}$$

Si $A$ fuera diagonal $\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$ entonces:

$\begin{equation*} A^2 = \begin{pmatrix} \lambda_1^2 & 0 \\ \\ 0 & \lambda_2^2 \end{pmatrix} \end{equation*}$ en general $\begin{equation*} A^n = \begin{pmatrix} \lambda_1^n & 0 \\ \\ 0 & \lambda_2^n \end{pmatrix} \end{equation*}$

Si pensamos en la transformación lineal $$T(\vec{x}) = A\, \vec{x} \hspace{2cm} T: \mathbb{R}^2 \rightarrow \mathbb{R}^2$$

podemos preguntarnos si existe una base $\{\vec{v}, \vec{w} \}$ de $\mathbb{R}^2$ en la cual la matriz asociada a la transformación lineal sea diagonal, es decir, tal que:

$$ \begin{equation}T (\vec{v}) = \lambda \vec{v} \end{equation}$$ $$\begin{equation} T (\vec{w}) = \lambda \vec{w} \end{equation}$$

$\begin{equation*} P = \begin{pmatrix} v_1 & w_1 \\ v_2 & w_2 \end{pmatrix} \end{equation*}$

$\begin{equation*} P\overrightarrow{e_1} = \vec{v} =\begin{pmatrix} v_1 \\ v_2 \end{pmatrix} \end{equation*}$

$\begin{equation*} P\overrightarrow{e_2} = \vec{w} =\begin{pmatrix} w_1 \\ w_2 \end{pmatrix} \end{equation*}$

Decimos que $A$ es diagonalizable si existe $P$ invertible tal que cumpla con la igualdad $A = PDP^{-1}$, para alguna matriz diagonal $D$.

$D = \begin{pmatrix} \lambda && 0 \\ 0 && \mu \end{pmatrix}$

Buscamos un vector $\vec{v}$ con $\vec{v} \neq \vec{0}$ tal que $$A \vec{v} = \lambda \vec{v}$$

Observación: A $\lambda$ se le llama valor propio, eigenvalor, valor característico o autovalor. Y por tanto, $\overrightarrow{v}$ se denomina vector propio, eigenvector, vector característico o autovector.

$A \vec{v} = \lambda \vec{v}$

$A \vec{v} = \lambda I \vec{v}$

$A\vec{v} – \lambda I \vec{v} = \vec{0}$

$(A – \lambda I) \vec{v} = \vec{0}$

$\vec{0}$ es una solución, si queremos que exista otra solución (solución no única), entonces $det (A – \lambda I) = 0$ es la ecuación que determina a los valores propios $\lambda$.

Entonces para nuestro problema

$\begin{equation*} \begin{vmatrix} A – \lambda I \end{vmatrix} = \begin{vmatrix} \frac{3}{4} – \lambda & \frac{1}{2} \\ \\ \frac{1}{4} & \frac{1}{2} \, – \, \lambda \end{vmatrix} = 0 \end{equation*}$

$\left( \frac{3}{4} \, – \, \lambda \right) \left( \frac{1}{2} \, – \, \lambda \right) \, – \, \frac{1}{4} \frac{1}{2} = 0$

$\lambda^2 – \frac{3}{4} \lambda \, – \, \frac{1}{2} \lambda + \frac{3}{8} \, – \, \frac{1}{8} = 0$

$\lambda^2 – \frac{5}{4} \lambda + \frac{1}{4} = 0$

Resolviendo la ecuación de segundo grado se obtienen los valores para $\lambda$ $$\lambda_1 = 1$$ $$\lambda_2 = \frac{1}{4}$$

Entonces la matriz $\begin{equation*}A = \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \end{equation*}$ tiene dos valores propios $\lambda_1 = 1$ y $\lambda_2 = \frac{1}{4}$.

Buscamos un vector propio $\vec{v} = (x, y)$ asociado a $\lambda_1 = 1$ tal que cumpla la ecuación $A \vec{v} = \lambda \vec{v}$ como $\lambda_1 = 1$ entonces se tiene la ecuación $A \vec{v} = \vec{v}$

$$\begin{equation*} \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{eqnarray*} \left\{ \frac{3}{4} x + \frac{1}{2} y = x \atop \frac{1}{4} x + \frac{1}{2} y = y \right.\end{eqnarray*}$$

Despejando $y$ de la primera ecuación obtenemos $$\frac{1}{2} y = x – \frac{3}{4} x$$ $$\frac{1}{2} y = \frac{1}{4}x$$ $$y = \frac{1}{2} x$$

El vector $\overrightarrow{v} =\begin{pmatrix} 2 \\ 1 \end{pmatrix}$ cumple las condiciones, es un vector propio asociado a $\lambda_1 = 1$

De manera análoga, buscamos el vector asociado a $\lambda_2 = \frac{1}{4}$.

Si $\lambda_2 = \frac{1}{4}$ entonces $A \vec{w} = \frac{1}{4} \vec{w}$

$$\begin{equation*} \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \frac{1}{4} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{eqnarray*} \left\{ \frac{3}{4} x + \frac{1}{2} y = \frac{1}{4}x \atop \frac{1}{4} x + \frac{1}{2} y = \frac{1}{4}y \right.\end{eqnarray*}$$

Despejando $y$ de la primera ecuación obtenemos $$\frac{1}{2} y = \frac{1}{4}x – \frac{3}{4} x$$ $$\frac{1}{2} y = \frac{-2}{4}x$$ $$\frac{1}{2}y = \frac{-1}{2} x$$ $$y = -x$$

El vector $\vec{w} =\begin{pmatrix} 1 \\ -1 \end{pmatrix}$ cumple las condiciones, es un vector propio asociado a $\lambda_2 = \frac{1}{4}$.

$$\begin{equation*} A=\begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} = PDP^{-1} \end{equation*}$$

$\begin{equation*} P=\begin{pmatrix} 2 & 1 \\ 1 & -1\end{pmatrix} \end{equation*}$ $\hspace{1cm}$ $\begin{eqnarray*} \left. P \overrightarrow{e_1} = \vec{v} \atop P \overrightarrow{e_2} = \vec{w} \right. \end{eqnarray*}$

$\begin{eqnarray*} A \vec{v} = \vec{v} \\ A \vec{w} = \frac{1}{4} \vec{w} \end{eqnarray*}$

entonces $\begin{equation*} D = \begin{pmatrix} 1 & 0 \\ 0 & \frac{1}{4} \end{pmatrix} \end{equation*}$

Luego

$\begin{eqnarray*} A^n = P D^n P^{-1} \\ D^n = \begin{pmatrix} 1 & 0 \\ 0 & {\frac{1}{4}}^n \end{pmatrix} \end{eqnarray*}$

cuando $n \longrightarrow \infty$ se tiene que $D \longrightarrow \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}$

Entonces $A^n \overrightarrow{x_0} \longrightarrow P \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} P^{-1} \overrightarrow{x_0}$

Recordemos que $\{ \vec{v}, \vec{w} \}$ son base.

Entonces $$\overrightarrow{x_0} = a \vec{v} + b \vec{w}$$

multiplicando por $A$ $$A \overrightarrow{x_0} = A \left( a \vec{v} + b \vec{w} \right)$$

$$A \overrightarrow{x_0} = A a \vec{v} + A b \vec{w}$$

$$A^n \overrightarrow{x_0} = a A^n \vec{v} + b A^n \vec{w}$$

$$A^n \overrightarrow{x_0} = a \vec{v} + b \frac{1}{4^n} \vec{w}$$

De modo que cuando $n \longrightarrow \infty$ se tiene que $\frac{1}{4^n} \longrightarrow \vec{0}$ y por lo tanto $$A^n \overrightarrow{x_0} \longrightarrow a \vec{v}$$

Regresando al problema inicial, si $(x_0, y_0) = (100, 20)$ por lo que calculamos anteriormente:

$$(100, 20) = a (2, 1) + b (1, -1)$$ $$(100, 20) = (2a + b, a \, – \, b)$$

De donde se obtiene el sistema

$$ \left \{ 100 = 2a + b \atop 20 = a \, – \, b \right. $$

Sumando ambas expresiones, obtenemos $120 = 3a$ por lo que $a = 40$; y sustituyendo en la segunda ecuación del sistema al valor de $a$ se tiene que $b = 40 -20$ por lo que $b = 20$.

En conclusión, si inicialmente tenemos una población total de 120, entonces la distribución será $(80, 40)$ es decir $\frac{2}{3}$ de la población total en la ciudad $A$ y $\frac{1}{3}$ de la población total en la ciudad $B$.

En el siguiente enlace puedes observar una animación de como los valores de las poblaciones se aproximan al resultado que calculamos, $(80, 40).$

https://www.geogebra.org/classic/bbeggvgs

17 Material de prueba: Sucesión de Fibonacci

Por Mariana Perez

$$x_0 = 1$$ $$x_1 = 1$$ $$x_2 = 2$$ $$x_3 = 3$$ $$x_4 = 5$$ $$\vdots$$ $$x_{n+1} = x_n + x_{n-1}$$ $$x_{n+2} = x_n + x_{n+1}$$

Observación: si divido el término siguiente entre el anterior tenemos: $\frac{x_{n+1}}{x_n} = q_n \; $, donde $ \; q_n $ es el cociente.

$\frac{1}{1} = 1 $

$\frac{2}{1} = 2 $

$\frac{3}{2} = 1.5 $

$\frac{5}{3} = 1. 66 … \longrightarrow \phi = \frac{1 + \sqrt{5}}{2}$ la razón aurea.

Para cada $n$ definamos $y_n = x_{n+1}$

Luego $$y_{n+1} = x_{n+2} = x_n + x_{n+1} = x_n + y_n$$

Tenemos las dos ecuaciones:

$x_{n+1} = y_n$

$y_{n+1}= x_n + y_n$

Podemos escribir estas ecuaciones como una ecuación vectorial $$\begin{equation*} \begin{pmatrix} x_{n+1} & y_{n+1} \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x_n \\ y_n \end{pmatrix} \end{equation*}$$

Entonces tenemos que $\vec{x}_{n+1} = A \vec{x}_n$. ¿Qué pasa cuando $\overrightarrow{x_n} \longrightarrow \infty$?

Calculamos los valores propios de la matriz $A$:

$$A-\lambda I =\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \, – \, \lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} \, – \, \lambda & 1 \\ 1 & 1 \, – \, \lambda \end{pmatrix} \end{equation*}$$

$det (A \, – \, \lambda I) = 0 = ( \lambda)(1 \, – \, \lambda) \, – \, (1)(1)$

$$0 = \lambda^2 \, – \, \lambda \, – \, 1$$

Luego $$\lambda = \frac{1 \pm \sqrt{1+4}}{2} = \frac{1 \pm \sqrt{5}}{2}$$

Analizando los valores de $\lambda$ podemos ver que:

  • $\frac{1 + \sqrt{5}}{2} = \phi > 1$ por lo que multiplicar por este valor aumenta la magnitud de los vectores, y si lo hacemos indefinidamente la magnitud tiende a infinito.
  • $\frac{1 – \sqrt{5}}{2} = – \, \frac{1}{\phi} > – \, 0.6$ notemos que el valor absoluto de este número es menor que 1 por lo que multiplicar por este valor propio achica la magnitud de los vectores, y si lo hacemos indefinidamente la magnitud tiende a cero.

Los vectores propios son:

  • para $\phi$ $$A \vec{v} = \phi \vec{v}$$ $$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \phi \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$ $$y = \phi x$$

Los vectores propios son de la forma $\begin{pmatrix} x \\ \phi x \end{pmatrix}$.

Un vector propio es $\begin{pmatrix} 1 \\ \phi \end{pmatrix} = \vec{v}$.

  • para $\lambda = \frac{-1}{\phi}$ $$A \vec{w} = \frac{-1}{\phi} \vec{w}$$

$$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \frac{-1}{\phi} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$ $$y = \frac{-1}{\phi} x$$

Los vectores propios son de la forma $\begin{pmatrix} x \\ \frac{-1}{\phi} x \end{pmatrix}$.

Un vector propio es $\begin{pmatrix} 1 \\ \frac{-1}{\phi} \end{pmatrix} = \vec{w}$.

Observemos que $\vec{v}$ y $\vec{w}$ son una base de $\mathbb{R}^2$ y por lo tanto podemos escribir al vector inicial como combinación lineal de ellos.

$$\begin{equation*} \begin{pmatrix} x_0 \\ y_0 \end{pmatrix} = \begin{pmatrix} 1 \\ 1 \end{pmatrix} = a \begin{pmatrix} 1 \\ \phi \end{pmatrix} + b \begin{pmatrix} 1 \\ \frac{-1}{\phi} \end{pmatrix} \end{equation*}$$

En forma vectorial,$\vec{x_0} = a\vec{v}+b\vec{w}$ entonces

$$\vec{x_1} = A \vec{x_0} = aA\vec{v} +bA\vec{w}= a\phi\vec{v}-\frac{b}{\phi} \vec{w}$$

$$\vec{x_2} = A \vec{x_1} = a\phi A \vec{v} -\frac{b}{\phi}A\vec{w}= a\phi^2\vec{v}+\frac{b}{\phi^2} \vec{w}$$

En general:

$$\vec{x_n} = \textcolor{Magenta}{a\phi^n}\vec{v}+\textcolor{Magenta}{(-1)^n\frac{b}{\phi^n}} \vec{w}$$

Observemos que el vector $(-1)^n\frac{b}{\phi^n} \vec{w}$ tiende al vector $\vec{0}$ cuando $n$ tiende a infinito y entonces el vector $\vec{x_n}$ se aproxima a la recta generada por el vector $\vec{v}$ entonces:

En el siguiente enlace puedes observar una animación de como los puntos $(x_n, y_n)$ se aproximan a la recta $y = \phi x$

https://www.geogebra.org/classic/qxkcm4zf

El cociente $\frac{x_{n+1}}{x_n}$ es igual a la pendiente de la recta generada por el vector $\vec{x_n} = (x_n, y_n)$ pero como este vector se aproxima a la recta generada por el vector propio $\vec{v} =(1, \phi)$ las pendientes $\frac{y_n}{x_n}$ se aproximan a la pendiente $\frac{\phi}{1}=\phi$ por esta razón los cocientes de la sucesión de Fibonacci se aproximan al valor de $\phi.$

Resultados de Conjuntos abiertos y cerrados

Por Angélica Amellali Mercado Aguilar

Propiedades de los Conjuntos abiertos y cerrados

Proposición:Si A y B son subconjuntos abiertos de $\mathbb{R}^{n}$, entonces $A\bigcup B$ es un conjunto abierto de $\mathbb{R}^{n}$.
Demostración.
Sea $\overline{x}\in A\cup B$. Se tiene entonces que $\overline{x}\in A$ ó $\overline{x}\in B$. Si $\overline{x}\in A$, entonces, puesto que A es abierto existe $r>0$ tal que $B_{r}(\overline{x})\subset A$, luego $B_{r}(\overline{x})\subset A\cup B$ Si $\overline{x}\in B$, entonces, puesto que B es abierto existe $r>0$ tal que $B_{r}(\overline{x})\subset B$, luego $B_{r}(\overline{x})\subset A\cup B$. En cualquiera de los casos, existe una bola abierta $B_{r}$ contenida en $A\cup B$. $\therefore$ $A\cup B$ es abierto.$~~\blacksquare$


Proposición. Si A y B son subconjuntos abiertos de $\mathbb{R}^{n}$, entonces $A\bigcap B$ es un conjunto abierto de $\mathbb{R}^{n}$.
Demostración. Sea $\overline{x}\in A\cup B$. Se tiene entonces que $\overline{x}\in A$ y $\overline{x}\in B$. Puesto que A es abierto $\exists~r_{1}>0$ tal que $B(\overline{x},r_{1})\subset A$. Puesto que b es abierto $\exists~r_{2}>0$ tal que $B(\overline{x},r_{2})\subset B$.\Sea $r=\min{r_{1},r_{2}}$, entonces se tiene que
\begin{align*} B(\overline{x},r) & \subset B(\overline{x},r_{1}) \\ B(\overline{x},r) & \subset B(\overline{x},r_{2}) \end{align*}
Por lo tanto $B(\overline{x},r)\subset A$ y $B(\overline{x},r)\subset B$, o sea $B(\overline{x},r)\subset A\cap B$.$~~\blacksquare$


Proposición. Si A y B son subconjuntos cerrados de $\mathbb{R}^{n}$, entonces $A\bigcup B$ es un conjunto cerrado de $\mathbb{R}^{n}$.
Demostración. Para mostrar que $A\bigcup B$ es un conjunto cerrado, tenemos que mostrar que $(A\bigcup B)^{c}$ es un conjunto abierto, al ser A, B conjuntos cerrados entonces $A^{c},~B^{c}$ son conjuntos abiertos y por leyes de D’morgan
$$(A\bigcup B)^{c}=A^{c}\bigcap B^{c}$$
ahora bien por el resultado anterior se tiene que la intersección de conjuntos abiertos es un conjunto abierto, esto prueba que $(A\bigcup B)^{c}$ es un conjunto abierto, por lo tanto $A\bigcup B$ es un conjunto cerrado.$~~\blacksquare$


Proposición. Si A y B son subconjuntos cerrados de $\mathbb{R}^{n}$, entonces $A\bigcap B$ es un conjunto cerrado de $\mathbb{R}^{n}$.
Demostración. Para mostrar que $A\bigcap B$ es un conjunto cerrado, tenemos que mostrar que $(A\bigcap B)^{c}$ es un conjunto abierto, al ser A, B conjuntos cerrados entonces $A^{c},~B^{c}$ son conjuntos abiertos y por leyes de D’morgan
$$(A\bigcap B)^{c}=A^{c}\bigcup B^{c}$$
ahora bien por el resultado anterior se tiene que la unión de conjuntos abiertos es un conjunto abierto, esto prueba que $(A\bigcap B)^{c}$ es un conjunto abierto, por lo tanto $A\bigcap B$ es un conjunto cerrado.$~~\blacksquare$

Generalizaciones de la proposiciones anteriores de la familias de conjuntos.

Proposición. La unión arbitraria de conjuntos abiertos en $\mathbb{R}^{n}$ es un conjunto abierto en $\mathbb{R}^{n}$.
Demostración.
Sea ${A_{\alpha}}$ una colección de subconjuntos de $\mathbb{R}^{n}$ tal que $A_{\alpha}$ es un conjunto abierto en $\mathbb{R}^{n}$. Sea $\displaystyle{A=\bigcup A_{\alpha}}$.
Sea $\overline{x}_{0}\in A$. Entonces existe $\alpha$ tal que $\overline{x}_{0}\in A_{\alpha}$ y como $A_{\alpha}$ es un conjunto abierto, existe $r>0$ tal que
$$B(\overline{x}_{0},r)\subset A{\alpha}\subset \bigcup A_{\alpha}=A$$
Por lo tanto A es abierto.$~~\blacksquare$


Propposición. La intersección finita de conjuntos abiertos en $\mathbb{R}^{n}$ es un conjunto abierto en $\mathbb{R}^{n}$.
Demostración. Sean $A_{1},A_{2},…,A_{k}$ subconjutos abiertos de $\mathbb{R}^{n}$. Sea $\displaystyle{B=\bigcap_{i=1}^{k}A_{i}=A_{1}\cap A_{2}\cap …\cap A_{k}}$.
Sea $\overline{x}_{0}\in B$. Entonces $\overline{x}_{0}\in A_{i}$ para toda $1\leq i\leq k$. Cada $A_{i}$ es un conjunto abierto. Por lo tanto existe $r_{i}>0$ tal que $B(\overline{x}_{0},r{i})\subset A_{i}$ para toda $1\leq i\leq k$. Sea $r=\min{r_{1},r_{2},…,r_{n}}>0$. Entonces
$$B(\overline{x}_{0},r)\subset B(\overline{x}_{0},r_{i})\subset A_{i}~~\forall~i=1,…,n$$
Por lo tanto
$$B(\overline{x}_{0},r)\subset \bigcap_{i=1}^{k}A_{i}=B$$
y por lo tanto B es un conjunto abierto.$~~\blacksquare$


Proposición. La unión finita de conjuntos cerrados en $\mathbb{R}^{n}$ es un conjunto cerrado en $\mathbb{R}^{n}$.
Demostración. Sean $A_{1},…,A_{k}\subset \mathbb{R}^{n}$ conjuntos cerrados y sea $\displaystyle{B=\bigcup_{i=1}^{n}A_{i}}$. Entonces
$$B^{c}=\left(\bigcup_{i=1}^{n}A_{i}\right)^{c}=\bigcap_{i=1}^{n}A^{c}_{i}$$
el cual es un conjunto abierto de $\mathbb{R}^{n}$. Por lo tanto B es un conjunto cerrado de $\mathbb{R}^{n}$.$~~\blacksquare$


Proposición. La intersección finita de conjuntos cerrados en $\mathbb{R}^{n}$ es un conjunto cerrado en $\mathbb{R}^{n}$.
Demostración. Sea ${A_{\alpha}}$ una colección de subconjuntos de $\mathbb{R}^{n}$ tales que cada $A_{\alpha}$ es cerrado en $\mathbb{R}^{n}$. Por lo tanto para cada $\alpha$, $A^{c}{\alpha}$ es un conjunto abierto en $\mathbb{R}^{n}$. Sea $\displaystyle{A=\bigcap{\alpha}A_{\alpha}}$ tal que
$$A^{c}=\left(\bigcap_{\alpha}A_{\alpha}\right)^{c}=\bigcup_{\alpha}A^{c}_{\alpha}$$
es un conjunto abierto en $\mathbb{R}^{n}$. Por lo tanto A es un conjunto cerrado en $\mathbb{R}^{n}$.$~~\blacksquare$


Definición. Un elemento $\bar{x}\in A$ se dice que es un $\textbf{punto interior}$ de $A$, si existe una bola abierta con centro en $\bar{x}$ contenida en $A$ es decir si $\exists$ $r>0$ tal que $B(\bar{a},r)\subset A$. Denotamos por $int(A)$ al conjunto formado por todos estos puntos, es decir $$int(A)=\{\overline{x}\in\mathbb{R}^{n}~|~\overline{x}~es~punto~interior~de~A\}$$
y diremos que este conjunto es el interior de A.


Ejemplo. Determinar el $int(A),~~Fr(A),~~ext(A)$ con
\[
A=\left[0,1\right]\times\left[0,1\right]\cap\left(\mathbb{Q}\times\mathbb{Q}\right)=\left\{ (x,y)\in\mathbb{R}^{2}~\big{|}~(x,y)\in\mathbb{Q}~~y~~0\leq x\leq1~~0\leq y\leq1\right\} .
\]

Solución. Primero analicemos la figura, ¿qué pasa si tomamos un $(x,y)$ en $A$ y un $r>0$?, ¿qué podemos observar?. Si recordamos la densidad de los irracionales sabemos que podemos encontrar un $x’$ irracional entre $x$ y $x+r$, entonces si tomamos el punto $(x’,y)$ podemos ver que esta dentro de $B_{r}(x,y)$, pero $(x’,y)$ no es un punto de $A$. Esto pasa para toda $r>0$ y todo $(x,y)$ en $A$. Entonces, podemos afirmar que el $int(A)=\emptyset$.
Ademas, podemos decir que para todo $(x,y)$ en $A$ y todo $r>0$ se tiene que $B_{r}(x,y)\cap A^{c}\neq\emptyset$. Usando el mismo argumento, pero ahora para los racionales, podemos decir que para cualquier $(x,y)$ y $r>0$ se tiene que $B_{r}(x,y)\cap A\neq\emptyset$.
Todo esto dentro del cuadrado $\left[0,1\right]\times\left[0,1\right]$. Entonces, podemos afirmar que $Fr(A)=\left[0,1\right]\times\left[0,1\right]$.

¿Que podemos decir del exterior? De lo anterior podemos deducir que
$ext(A)=\mathbb{R}{{}^2}-\left[0,1\right]\times\left[0,1\right]$.
Entonces, demostremos la siguiente afirmación:


Afirmación: $int(A)=\emptyset$
Demostración. Sean $(x,y)\in A$ y $r>0$. Mostraremos que $B_{r}(x,y)\cap A^{c}\neq\emptyset$, es decir, que para cualquier punto $(x,y)$ de $A$ y cualquier radio $r>0$, la bola $B_{r}(x,y)$ siempre contiene puntos de $A^{c}$, es decir, que $A$ no tiene puntos interiores.
Como $(x,y)\in A$, entonces $x\in\mathbb{Q}$ y por la densidad de los irracionales sabemos que siempre existe un $x’\notin\mathbb{Q}$ tal que $x<x'<x+r$……$\bigstar$
Tomemos el punto $(x’,y)$ y calculemos su distancia con $(x,y)$:
\[
\| (x,y)-(x’,y)\|=\| (x-x’,0)\|=\sqrt{(x-x’)^{2}}=\underset{**}{\underbrace{\left|x-x’\right|<r}}\text{ esta ultima desigualdad se cumple por }\bigstar
\] Veamos por que se cumple $**$. De $\bigstar$ tenemos que $x<x'<x+r$, restando $x$ tenemos $x-x<x’-x<x+r-x$ $\Longrightarrow0<x’-x<r$ como esto es positivo, le podemos sacar el valor absouto y se mantiene la desigualdad $0<|x’-x|<r$ y sabemos que $|a-b|=|b-a|$. Por lo tanto, $|x-x’|<r$.
Entonces, como $\left\Vert (x,y)-(x’,y)\right\Vert <r$, tenemos que $(x’,y)\in B_{r}(x,y)$, pero como $x’\notin\mathbb{Q}$ esto implica que $(x’,y)\notin\mathbb{Q}\times\mathbb{Q}$. Por lo tanto, $B_{r}(x,y)\cap\left(\mathbb{R}^{2}-\mathbb{Q}\times\mathbb{Q}\right)\neq\emptyset$.
Podemos observar que $A\subset\mathbb{Q}\times\mathbb{Q}$ $\Longrightarrow$ $B_{r}(x,y)\cap\left(\mathbb{R}^{2}-A\right)=B_{r}(x,y)\cap A^{c}\neq\emptyset$,
es decir, que para todo $r>0$ se tiene que $B_{r}(x,y)$ siempre interseca a $A^{c}$. Por lo tanto, $int(A)=\emptyset$.$~~\blacksquare$


Afirmación: $Fr(A)=\left[0,1\right]\times\left[0,1\right]$
Demostración. Primero mostraremos que $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$. Sea $(x,y)\in\left[0,1\right]\times\left[0,1\right]$ y $r>0$. Ya probamos que $B_{r}(x’,y’)\cap A^{c}\neq\emptyset$, falta probar que $B_{r}(x,y)\cap A\neq\emptyset$. (Para que se cumpla la definición de frontera). Tenemos varios casos para $x$ y $y$:
$(1)$ Supongamos que $0\leq x<1$ y $0\leq y<1$. Por la densidad de los números racionales, sabemos que existen $x’,y’\in\mathbb{Q}$ tal que:
\[
x<x'<min\left\{1,x+\frac{r}{\sqrt{2}}\right\},\text{y }y<y'<min\left\{1,y+\frac{r}{\sqrt{2}}\right\}…………………\clubsuit
\]
Entonces, $\underset{\spadesuit}{\underbrace{(x’,y’)\in A}}$ y además $\displaystyle{|x-x’|<\frac{r}{\sqrt{2}}}$ y $\displaystyle{|y-y’|<\frac{r}{\sqrt{2}}}$. Así podemos ver lo siguiente:
\[
||(x,y)-(x’,y’)||=\sqrt{(x-x’)+(y-y’)}<\sqrt{\left(\frac{r}{\sqrt{2}}\right)^{2}+\left(\frac{r}{\sqrt{2}}\right)^{2}}=r,
\]
lo que nos dice que el punto $(x’,y’)\in B_{r}(x,y)$, y por $\spadesuit$ tenemos que $B_{r}(x,y)\cap A\neq\emptyset$.
$(2)$ En este caso juntaremos los casos que faltan. Escogiendo a $x’,y’$ como en $\clubsuit$, tenemos lo siguiente:
(a) Si $x=1$ y $y<1$ nos fijamos en la pareja $(1,y’)$,
(b) Si $x<1$ y $y=1$ nos fijamos en la pareja $(x’,1)$, y
(c) Si $x=1$ y $y=1$nos fijamos en la pareja $(1,1)$.
Podemos observar que estos puntos están en $A$, pues sus entradas pertenecen a los racionales. Por lo tanto, $B_{r}(x,y)\cap A\neq\emptyset$. Por lo tanto, $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$.


Afirmación: $ext(A)=\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]$
Demostración. Primero mostremos que $\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}\subset ext(A)$. Sea $(x,y)\in\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$
y supongamos que $x<0$ ó $1<x$, (la otra posibilidad es que $y<0$ ó $y>1$, pero se hace de manera análoga).
(1) Si $x<0$, entonces tomamos $r=|x|>0$. Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$. Observemos que $\mathbb{R}^{2}\{\left[0,1\right]\times\left[0,1\right]\}\subset A^{c}…………..\spadesuit$.
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que
\[
|x-x|\leq\left\Vert (x,y)-(x’,y’)\right\Vert <r
\]
pero $|x|=r$, entonces
\[
|x-x’|<|x|=-x\text{ pues }x<0
\]
entonces
\[
x<x-x'<-x\Longrightarrow-x+x<-x+x-x'<-x-x\Longrightarrow0<-x'<-2x
\]
multiplicando por $(-1)$, tenemos que $x'<0$, lo cual implica que
$(x’,y’)\notin\left[0,1\right]\times\left[0,1\right]$. Así tenemos que $(x’,y’)\in\mathbb{R}^{n}-\left[0,1\right]\times\left[0,1\right]$.
Entonces, $B_{r}(x,y)\subset\mathbb{R}^{n}-\left[0,1\right]\times\left[0,1\right]$.
Por lo tanto, por $\spadesuit$, $B_{r}(x,y)\subset A^{c}$, lo cual implica que $(x,y)\in ext(A)$.
(2) Si $x>1$, entonces tomamos $r=x-1>0$.
Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}$. Observemos que $\mathbb{R}^{2}\{\left[0,1\right]\times\left[0,1\right]\}\subset A^{c}…………..\spadesuit$.
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que

Vamos a mostrar que $B_{r}(x,y)\subset\mathbb{R}{{}^2}-\left[0,1\right]\times\left[0,1\right]$.
Observemos que $\mathbb{R}{{}^2}\left[0,1\right]\times\left[0,1\right]\subset A^{c}…………..\spadesuit$.\
Sea $(x’,y’)\in B_{r}(x,y)$, sabemos que
\[
|x-x’|\leq\left\Vert (x,y)-(x’,y’)\right\Vert <r=x-1
\]

\[
|x-x’|<x-1\Longrightarrow1-x<x-x'<x-1\Longrightarrow1-2x<x-x-x'<x-x-1
\]

\[
1-2x<-x'<-1\Longrightarrow1<x'<2x-1
\]

entonces tenemos que $x’>1$, lo cual nos dice que $(x’,y’)\notin\left[0,1\right]\times\left[0,1\right]$.
Así tenemos que $(x’,y’)\in\mathbb{R}^{n}-\{\left[0,1\right]\times\left[0,1\right]\}$.
Entonces, $B_{r}(x,y)\subset\mathbb{R}^{n}-\{\left[0,1\right]\times\left[0,1\right]\}$.
Por lo tanto, por $\spadesuit$, $B_{r}(x,y)\subset A^{c}$, lo cual
implica que $(x,y)\in ext(A)$. Por lo tanto, $\mathbb{R}^{2}-\{\left[0,1\right]\times\left[0,1\right]\}\subset ext(A)$.
De la proposición tenemos que $\mathbb{R}^{n}=int(A)\cup ext(A)\cup Fr(A)$,
en nuestro caso obtuvimos que $int(A)=\emptyset$. Entonces,

\[
\mathbb{R}{{}^2}=ext(A)\cup Fr(A)
\]
y de esto obtenemos las siguientes igualdades
\[
\mathbb{R}{{}^2}-ext(A)=Fr(A)………\clubsuit\text{ y }\mathbb{R}{{}^2}-Fr(A)=ext(A)………\clubsuit\clubsuit.
\]
De $\clubsuit$ tenemos $Fr(A)\subset\mathbb{R}{{}^2}-ext(A)$ y de $(2)$ tenemos $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)$, entonces $\left[0,1\right]\times\left[0,1\right]\subset Fr(A)\subset\mathbb{R}{{}^2}-ext(A)………….\maltese$
De $(3)$ tenemos $\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]\subset ext(A)$,
entonces

\[
\left(\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]\right)\cup\left[0,1\right]\times\left[0,1\right]\subset ext(A)\cup\left[0,1\right]\times\left[0,1\right]
\]

entonces
\[
\mathbb{R}^{2}\subset ext(A)\cup\left[0,1\right]\times\left[0,1\right]\Longrightarrow\mathbb{R}^{2}-ext(A)\subset\left(ext(A)\cup\left[0,1\right]\times\left[0,1\right]\right)-ext(A)
\]

así tenemos
\[
\mathbb{R}^{2}-ext(A)\subset\left[0,1\right]\times\left[0,1\right]…………..\maltese\maltese
\]

Entonces, por $\maltese$ y $\maltese\maltese$ tenemos que $Fr(A)=\left[0,1\right]\times\left[0,1\right]$. Y de esta igualdad y de $\clubsuit\clubsuit$ tenemos que $ext(A)=\mathbb{R}^{2}-\left[0,1\right]\times\left[0,1\right]$.$~~\blacksquare$


Proposición:
Si $A\subset\mathbb{R}^{n}$, entonces:
(1) $int(A)\subset A$
(2) $ext(A)\subset A^{c}$
(3) (a) $int(A)\cap ext(A)=\emptyset$, (b) $int(A)\cap Fr(A)=\emptyset$ y (c) $Fr(A)\cap ext(A)=\emptyset$
(4) $\mathbb{R}^{n}=int(A)\cup ext(A)\cup Fr(A)$
(5) $int(A^{c})=ext(A)$ y $Fr(A)=Fr(A^{c})$.

Demostración.
(1) Por demostrar que $int(A)\subset A$. Sea $\hat{x}\in int(A)$ $\Longrightarrow$ por definición que existe $r>0$ tal que $B_{r}(\hat{x})\subset A$. Como $\hat{x}\in B_{r}(\hat{x})$ (por definición de bola), entonces $\hat{x}\in A$. Por lo tanto, $int(A)\subset A$.


(2) Por demostrar que $ext(A)\subset A^{c}$. Sea $\hat{x}\in ext(A)$ $\Longrightarrow$ por definición que existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$. Como $\hat{x}\in B_{r}(\hat{x})$ (por definición de bola), entonces $\hat{x}\in A^{c}$. Por lo tanto, $ext(A)\subset A$.


3_aPor demostrar que $int(A)\cap ext(A)=\emptyset$. Supongamos por contadicción que $int(A)\cap ext(A)\neq\emptyset$, esto implica que existe $\hat{x}\in int(A)\cap ext(A)$ $\Longrightarrow$ $\hat{x}\in int(A)$ y $\hat{x}\in ext(A)$, esto implica por (1) y (2) que $\hat{x}\in A$ y $\hat{x}\in A^{c}$, lo cual es una contradicción. Por lo tanto, $int(A)\cap ext(A)=\emptyset$.


3_b Por demostrar que $int(A)\cap Fr(A)=\emptyset$. Supongamos por contadicción que $int(A)\cap Fr(A)\neq\emptyset$, esto implica que existe $\hat{x}\in int(A)\cap Fr(A)$ $\Longrightarrow$
$\hat{x}\in int(A)$ y $\hat{x}\in Fr(A)$. Así, tenemos lo siguiente: $(a).$ Existe $r>0$ tal que $B_{r}(\hat{x})\subset A$, y $(b).$ Para todo $r’>0$ se tiene que $B_{r’}(\hat{x})\cap A\neq\emptyset$ y $B_{r’}(\hat{x})\cap A^{c}\neq\emptyset$. En particular, por $(a)$, para $r>0$ tenemos que $B_{r}(\hat{x})\cap A^{c}=\emptyset$, lo cual contradice la hipótesis $(b)$. Por lo tanto, $int(A)\cap Fr(A)=\emptyset$.


3_c Por demostrar que $Fr(A)\cap ext(A)=\emptyset$.
Supongamos por contradicción que $Fr(A)\cap ext(A)\neq\emptyset$,
esto implica que existe $\hat{x}\in Fr(A)\cap ext(A)$ $\Longrightarrow$
$\hat{x}\in Fr(A)$ y $\hat{x}\in ext(A)$. Así, tenemos lo siguiente:
$(a).$ Para todo $r>0$ se tiene que $B_{r’}(\hat{x})\cap A\neq\emptyset$
y $B_{r’}(\hat{x})\cap A^{c}\neq\emptyset$, y
$(b).$ Existe $r’>0$ tal que $B_{r’}(\hat{x})\subset A^{c}$.
Así, por $(b)$tenemos que existe $r’>0$ tal que $B_{r’}(\hat{x})\cap A=\emptyset$,
lo cual contradice la hipótesis $(a)$. Por lo tanto, $Fr(A)\cap ext(A)=\emptyset$.


(4) Por demostrar que $\mathbb{R}^{n}=int(A)\cup Fr(A)\cup ext(A)$.
Como $A\subset\mathbb{R}^{n}$, se tiene que $int(A)\cup Fr(A)\cup ext(A)\subset\mathbb{R}^{n}$. Falta ver que $\mathbb{R}^{n}\subset int(A)\cup Fr(A)\cup ext(A)$. Sea $\hat{x}\in\mathbb{R}^{n}$, como $A\subset\mathbb{R}^{n}$entonces tenemos tres casos:

$(a)$ Existe $r>0$ tal que $B_{r}(\hat{x})\subset A$, entonces por
definición tenemos que $\hat{x}\in int(A)$,

$(b)$ existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$, entonces por defición tenemos que $\hat{x}\in ext(A)$, o
$(c)$ para todo $r>0$ se tiene que $B_{r}(\hat{x})\cap A^{c}\neq\emptyset$
y $B_{r}(\hat{x})\cap A\neq\emptyset$, entonces por definición $\hat{x}\in Fr(A)$. Así tenemos que, $\mathbb{R}^{n}\subset int(A)\cup Fr(A)\cup ext(A)$. Por lo tanto, $\mathbb{R}^{n}=int(A)\cup Fr(A)\cup ext(A)$.


$(5)$ (a) Por demostrar que $int(A^{c})=ext(A)$.
$\subset\rfloor$ $int(A^{c})\subset ext(A)$ Sea $\hat{x}\in int(A^{c})$, por definición se tiene que existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$, pero esta es la definición de un punto exterior de $A$. Por lo tanto, $\hat{x}\in ext(A)$. $\supset\rfloor$ $ext(A)\subset int(A^{c})$. Sea $\hat{x}\in ext(A)$, por definición se tiene que existe $r>0$ tal que $B_{r}(\hat{x})\subset A^{c}$, pero esta es la definición de un punto interior de $A^{c}$. Por lo tanto, $\hat{x}\in int(A^{c})$. Por lo tanto, $int(A^{c})=ext(A)$.$~~\blacksquare$


Definición. Sea $A\subset \mathbb{R}^{n}$. Definimos la cerradura de A, que denotamos por $\overline{A}$, como $$\overline{A}=int(A)\cup Fr(A)$$


Proposición. Sea $A\subset \mathbb{R}^{n}$. Las siguientes afirmaciones son ciertas:
(1) $Int(A)$ es un conjunto abierto
(2) $Ext(A)$ es un conjunto abierto
(3) $Fr(A)$ es un conjunto cerrado
(4) $\overline{A}$ es un conjunto cerrado.
Demostración.
(1) Sea $\overline{x}\in Int(A)$, entonces existe $r>0$ tal que $B(\overline{x},r)\subset A$. Sea $\overline{y}\in B(\overline{x},r)$, existe $r’>0$ tal que $B(\overline{y},r’)\subset B(\overline{x},r)\subset A$ por lo que $\overline{y}\in Int(A)$ y por tanto $B(\overline{x},r)\subset Int(A)$.
(2) Como $Ext(A)=Int(A^{c})$ y de acuerdo al inciso anterior este conjunto es abierto.
(3) Tenemos que $$(Fr(A))^{c}=\mathbb{R}^{n}-Fr(A)=int(A)\cup Ext(A)$$
ambos conjuntos son conjuntos abiertos y la unión de conjuntos abiertos es abierta, entonces este conjunto es abierto y por tanto $Fr(A)$ es cerrado.
(4) Se tiene que
$$(\overline{A}^{c})=\mathbb{R}^{n}-(int(A)\cup Fr(A))=ext(A)$$
el cual es conjunto abierto, por lo tanto $\overline{A}$ es un conjunto cerrado.$~~\blacksquare$

Punto de Acumulación

Definición. Sea $A\subset\mathbb{R}^{n}$ y $\overline{x}\in\mathbb{R}^{n}$. Se dice que
(1) $\overline{x}$ es un punto de acumulación de A, si toda bola abierta con centro en $\overline{x}$ contiene un punto de A distinto de $\overline{x}$ es decir $$\forall r>0, \quad \left(B(\overline{x},r)-{\overline{x}}\right)\cap A\neq \emptyset$$
Al conjunto de puntos de acumulación de A se le denomina el $\textbf{conjunto derivado}$ de A y se le denota $A’$.
(2) $\overline{x}\in A$ es un punto aislado de A si $\overline{x}$ no es un punto de acumulación de A, es decir, si existe $r>0$ tal que
$$(B(\overline{x},r)-{\overline{x}})\cap A=\emptyset.$$


Ejemplo. Sea
$$A=\{(x,y)\in\mathbb{R}^{2}~|~x^{2}+y^{2}<1\}$$
Muestre que $\displaystyle{\overline{x}_{0}=\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)}$ es un punto de acumulación de A.
Solución. Vamos a considerar el punto $\displaystyle{\overline{x}=\left(\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}(r+1)}\right)}$, para $r>0$.
Tenemos entonces que


(1) $\overline{x}\in A$ pues
\begin{align*} \left(\frac{1}{\sqrt{2}(r+1)}\right)^{2}+\left(\frac{1}{\sqrt{2}(r+1)}\right)^{2} & =\frac{1}{2(r+1)^{2}}+\frac{1}{2(r+1)^{2}} \\ & <\frac{1}{2}+\frac{1}{2}=1 \end{align*}


(2) Tenemos que
\begin{align*} \|\overline{x}-\overline{x}_{0}\| & =\left|\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)-\left(\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}(r+1)}\right)\right| \\ & =\left|\left(\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}(r+1)},\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}(r+1)}\right)\right| \\ &=\left|\frac{r}{\sqrt{2}(r+1)},\frac{r}{\sqrt{2}(r+1)}\right| \\ &=\frac{r}{\sqrt{2}(r+1)}\|(1,1)\| \\ &=\frac{r}{\sqrt{2}(r+1)}\sqrt{2} \\ &=\frac{r}{r+1}<r\end{align*}


Tenemos entonces que $\displaystyle{\overline{x}\in B\left(\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right),r\right)}$. Por lo tanto
$$\left[B\left(\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right),r\right)-\left\{\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)\right\}\right]\bigcap A\neq \emptyset$$
Por lo tanto $\displaystyle{\overline{x}_{0}=\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}}\right)}$ es un punto de acumulación de A.$~~\blacksquare$

Más adelante

En la siguiente sección continuaremos estudiando topológicamente los conjuntos importantes obtenidos a partir de la caracterización de puntos de $\mathbb{R}^n$

Tarea Moral

1.- Si $A\subset \mathbb{R^n}$ es un conjunto arbitrario demuestra que $int(A) \subset A´ \subset int(A) \cup Fr(A)$

2.- Sea $A \in \mathbb{R}^n$ prueba que: $A$ no puede ser cerrado y abierto a la vez.

3.- Sea $A \in \mathbb{R}^n$ prueba que: $Fr(A) \neq \phi$

4.-Sean $A$ y $B$ subconjuntos de $\mathbb{R}^n$. Indica y prueba si las siguientes afirmaciónes son ciertas.

a) Si $A \subset B$ entonces $A’ \subset B’$

b) $(A \cup B)’= A’ \cup B’$

c) $(A \cap B)’= A’ \cap B’$

5.- Sea $A$ un subconjunto de $\mathbb{R}^n$ Prueba que: Si $B \subset A$ y $B$ es abierto, entonces $B \subset int(A)$ (es decir, de los conjuntos abiertos que están contenidos en $A$, $int(A)$ es el más «grande»).

Geometría Moderna II: Hileras de puntos en involución

Por Armando Arzola Pérez

Introducción

Uno de los temas más vistos en Geometría Moderna son las hileras de puntos y como estas se relacionan con varios temas, pero en este caso se verá su relación con la involución.

Hilera de puntos en Involución

Sea una línea recta $l$ y un punto $O$ en la recta, sean los pares de puntos $A,A’,B,B’,C,C’$ ubicados en $l$ con respecto a $O$, de tal forma que $OA \bullet OA’ = OB \bullet OB’ = OC \bullet OC’$ entonces se dice que los puntos están en involución.
Donde $O$ es el centro de involución y los puntos por pares se llaman puntos conjugados y a $l$ se le denota como base de la involución. Y de esta forma se tiene una hilera en involución con respecto a $O$.

Hilera de Involución

Se verá ahora un ejemplo de involución en una hilera de puntos.

Ejemplo. Sea un conjunto de circunferencias coaxiales que se intersecan en $P$ y $Q$ con un eje radical «S».

Ejemplo Involución

Sea $O$ un punto en el eje radical y tracemos una recta que pase por $O$ y distinto a «S», será una recta que llamaremos $l$. Las intersecciones con las circunferencias coaxiales forman pares de puntos conjugados, los cuales estarán en involución.

Ejemplo Involución 2

Y son conjugados los puntos por pares, ya que por propiedad de eje radical, la potencia de $O$ a cualquier elemento del sistema coaxial es el mismo. Entonces $OA \bullet OA’ = OB \bullet OB’ = OC \bullet OC’ = OP \bullet OQ$, de esta forma se tiene una hilera en involución.

$\triangle$

Ahora, si los pares de puntos de la recta están en un mismo lado de la recta «l» y el centro $O$, tienen el valor positivo al tener el mismo sentido los pares de puntos conjugados, pero si están en lados contrarios se tiene valor negativo.

Tipos de Involución

De esta forma se tienen dos tipos de involución.

  • Involución Hiperbólica: Cuando un par de puntos conjugados están en el mismo lado del centro de involución, de esta forma, si se tienen dos pares de puntos $A$ y $A’$ conjugados es hiperbólica si el producto $OA \bullet OA’$ es positivo.
  • Involución Elíptica: Cuando un par de puntos conjugados están en lados opuestos del centro de involución, si se tienen dos pares de puntos $A$ y $A’$ conjugados es elíptica si el producto $OA \bullet OA’$ es negativo.

Proposiciones de Involución

Proposición. Sea una involución hiperbólica, entonces existen dos puntos $M$ y $N$ que son autoconjugados, es decir $OM^2 = ON^2 = OA \bullet OA’$

proposición

Demostración. Como se tiene una involución hiperbólica, entonces se tienen los pares de puntos $A$ y $A’$, $B$ y $B’$ conjugados de tal forma que $OA \bullet OA’ > 0$ y $OB \bullet OB’ > 0$, entonces existe un real positivo $k$ tal que $OA \bullet OA’ = k^2$. Si usamos a $k$ como radio con centro en $O$ este interseca a $l$ en dos puntos $M$ y $N$.

Proposición involución dibujo

Y estos dos puntos $M$ y $N$ son los buscados, ya que $k=OM=ON$ entonces $k^2 = OM^2 = ON^2$, pero $OA \bullet OA’ = k^2$ y $OB \bullet OB’ = k^2$ entonces

$OA \bullet OA’ = OB \bullet OB’ = k^2 = OM^2 = ON^2.$

$\square$

Observaciones:

  • $M$ y $N$ son conocidos como los puntos dobles de la involución.
  • La involución elíptica no tiene puntos dobles.
  • En una involución hiperbólica los puntos conjugados son inversos respecto a la circunferencia con diámetro $\bar{MN}$.

Proposición. Una involución elíptica de puntos puede trazarse en una línea recta por los lados de un ángulo recto que gira alrededor de su vértice.

Construcción. Sea una recta $l$ y un punto $O$ en esta, tracemos una recta $m$ perpendicular a $l$ que pase por $O$ y tomemos un punto $H$ en $m$.
Dibujemos una recta $a$ que pase por $H$ y corte a $O$ en el punto $A$, y para encontrar a su conjugado tracemos una recta $a’$ perpendicular a $a$ y pase por $H$, el punto de intersección con $l$ es $A’$.

Proposición involución 2

Observemos el triángulo $\triangle AHA’$ es un triángulo rectángulo y como se traza la altura $HO$ entonces se tienen dos triángulos semejantes $\triangle AOH \sim \triangle HOA’$. Por semejanza se tiene $\frac{\bar{AO}}{\bar{HO}} = \frac{\bar{OH}}{\bar{OA’}}$ entonces $\bar{AO} \bullet \bar{OA’} = \bar{OH} \bullet \bar{HO} = \bar{HO}^2 = HO^2$.

Y como son sentidos opuestos $AO$ y $OA’$ entonces $OA \bullet OA’ = – \bar{HO}^2$.
Donde $HO$ es una distancia fija (constante), por lo cual para cualquier otro par de puntos conjugados construidos de la misma forma que $A$ y $A’$, se tienen nuevos puntos conjugados.

$OB \bullet OB’ = -\bar{HO}^2$ y $OC \bullet OC’ = -\bar{HO}^2$

$\square$

Teoremas de Involución

Teorema. Dos pares de puntos conjugados de una involución determinan la involución.

Demostración. Para ello sean $A, A’$ y $B, B’$ los dos pares de puntos conjugados en la recta $l$, y sea un punto arbitrario $C$ en $l$. Tomemos $P$ un punto fuera de la recta $l$, y tracemos las circunferencias que pasen por $P, A, A’$ y $P, B, B’$, a la otra intersección de estas dos circunferencias será $Q$.
Ahora si trazamos la circunferencia $PQC$ esta interseca a $l$ en un punto $C’$ y diremos que este es el conjugado de $C$, ya que al trazar la recta $PQ$ esta corta a $l$ en $O$ y por potencias $OP \bullet OQ = OA \bullet OA’ = OB \bullet OB’ = OC \bullet OC’ $. Además $C’$ es único, ya que solo existe una circunferencia por $PQC$, también $O$ es el centro de involución. Así es como se determina la involución.

$\square$

Teorema. La razón cruzada de cualesquiera cuatro puntos de una involución en la cual están presentes tres pares conjugados, es igual a la razón cruzada de sus cuatro conjugados.

Demostración. Tomemos tres pares de puntos conjugados $A, A’, B, B’$ y $C, C’$ de una involución de centro $O$, por definición de involución existe una constante $K=OA \bullet OA’ = OB \bullet OB’ = OC \bullet OC’ $.
Lo que se quiere demostrar es que tomando cualesquiera cuatro puntos $A, B, A’$ y $C’$ entonces $ \{ABA’C’ \} = \{ A’B’AC \}$ y por razón cruzada estos se puede ver como

$ \frac{AA’}{A’B} / \frac{AC’}{C’B} = \frac{A’A}{AB’} / \frac{A’C}{CB’}$

Por un lado, tenemos

$ \frac{AA’}{A’B} / \frac{AC’}{C’B} = \frac{AO + OA’}{A’O + OB} / \frac{AO + OC’}{C’O + OB} $

Además,

$K= OA \bullet OA’$ entonces $OA = \frac{K}{OA’}$ ó $OA’ = \frac{K}{OA}$

Esto sucede también para los pares $B,B’$ y $C, C’$.

$ \frac{AO + OA’}{A’O + OB} = \frac{\frac{K}{A’O} + \frac{K}{OA}}{\frac{K}{AO} + \frac{K}{OB’}} = \frac{K(OA + A’O) / A’O \cdot OA}{K(OB’ + AO) / AO \cdot OB’} = \frac{A’A}{AB’} \cdot \frac{OB’}{-A’O} = \frac{A’A}{AB’} \cdot \frac{OB’}{OA’}$

Por otro lado,

$ \frac{AO + OC’}{C’O + OB} = \frac{\frac{K}{A’O} + \frac{K}{OC}}{\frac{K}{CO} + \frac{K}{OB’}} = \frac{K(OC + A’O) / A’O \cdot OC}{K(OB’ + CO) / CO \cdot OB’} = \frac{A’C}{CB’} \cdot \frac{OB’}{OA’}$

Por lo cual

$ \frac{AA’}{A’B} / \frac{AC’}{C’B} = \frac{AO + OA’}{A’O + OB} / \frac{AO + OC’}{C’O + OB} = \frac{A’A}{AB’} \cdot \frac{OB’}{OA’} / \frac{A’C}{CB’} \cdot \frac{OB’}{OA’} = \frac{A’A}{AB’} / \frac{A’C}{CB’} = \{ A’B’AC \}$

Por lo tanto,

$ \{ABA’C’ \} = \{ A’B’AC \}.$

$\square$

Teorema. El inverso del teorema anterior dice, si seis puntos son relacionados por pares, y la razón cruzada de cuatro de ellos que representa los tres pares es igual a la razón cruzada de los cuatro puntos correspondientes, entonces los pares son pares conjugados de una involución.

Más adelante…

Se analizará ahora los haces de líneas en involución, así como propiedades y teoremas.

Entradas relacionadas