20. Material en revisión: Ejemplo de una función que no tiene límite en un punto.

Por Mariana Perez

Consideremos el origen $(0, 0)$.

Tomemos la sucesión $\Big\{ (x_n, y_n)\Big\}_{n \in \mathbb{N}} = \Big\{ \Big(\frac{1}{n}, \frac{1}{n}\Big) \Big\}_{n \in \mathbb{N}} \longrightarrow (0, 0)$

$f(x_n, y_n) = \dfrac{y_n}{x_n} = 1 \longrightarrow 1$

Tomemos la sucesión $\Big\{ (a_n, b_n) \Big\}_{n \in \mathbb{N}} = \Big\{ \Big(\frac{1}{n}, \frac{1}{n}\Big) \Big\}_{n \in \mathbb{N}} \longrightarrow (0, 0)$

$f(a_n, b_n) = \dfrac{b_n}{a_n} = -1 \longrightarrow -1$

Esto nos muestra que $f$ no tiene límite cuando $(x,y) \longrightarrow (0,0)$.

Consideremos el punto $(0, y_0)$.

Tomemos la sucesión $\Big\{ (x_n, y_n)\Big\}_{n \in \mathbb{N}} = \Big\{ \Big(\frac{1}{n}, y_0 + \frac{1}{n}\Big) \Big\}_{n \in \mathbb{N}} \longrightarrow (0, y_0)$

$f(x_n, y_n) = \dfrac{y_n}{x_n} = \frac{y_0 + \frac{1}{n}}{\frac{1}{n}} = ny_0+1 \longrightarrow \infty$

Tomando $\Big\{(a_n, b_n)\Big\}_{n \in \mathbb{N}} = \Big\{\Big(\frac{-1}{n}, y_0 + \frac{1}{n}\Big) \Big\}_{n \in \mathbb{N}} \longrightarrow (0, y_0)$

$f(a_n, b_n) = \dfrac{b_n}{a_n} = \dfrac{y + \frac{1}{n}}{\frac{-1}{n}} = ny_0+1 \longrightarrow – \infty$

Por lo que $f$ no tiene límite cuando $(x,y)$ tiende a $(0, y_0)$

En el siguiente enlace puedes observar una animación de como cada una de las sucesiones se aproximan al $(0,0)$ por las diferentes direcciones, pero cada una de ellas tienden a $1$ y $-1$ respectivamente.

https://www.geogebra.org/classic/kw8f9hmq

15 Material en revisión: Una sucesión que converge a $(\sqrt{2}, \sqrt{2})$

Por Mariana Perez

Recordemos el método de los babilonios para calcular la raíz cuadrada de un número $A$.

Construir una sucesión.

Dar una primera pareja de números $(x_0, y_0)$ tal que $A=x_0 y_0$ sea el área de un rectángulo de base $x_0$ y altura $y_0$.

Dada $(x_n, y_n)$ construir $(x_{n+1}, y_{n+1})$ como sigue: $$x_{n+1}=\frac{x_n+y_n}{2} \hspace{1cm} y_{n+1}=\frac{A}{x_{n+1}}$$

$A=x_{n+1}y_{n+1}$ queda garantizado por elegir $y_n=\dfrac{A}{x_{n+1}}$, y $x_{n+1}$ es el promedio de $x_n$ y $y_n$ por eso con el rectángulo inicial va quedando «más cuadrado», por lo que luego de varios pasos $A=L^2$.

Sea $A=2$ un rectángulo donde $x_1=2$ y $y_1=1$.

Luego, $y_{n+1}=\dfrac{2}{x_n+1} \iff y_{n+1}=\dfrac{2}{\dfrac{x_n+y_n}{2}} \iff y_{n+1}=\dfrac{4}{x_n+y_n}$

De esta manera, definimos $(x_{n+1}, y_{n+1}) := f(x_n, y_n)$ donde $x_{n+1}=\dfrac{x_n+y_n}{2} \; $ y $ \; y_{n+1}=\dfrac{4}{x_n+y_n}$.

Afirmación: la sucesión $\Big\{(x_n, y_n) \Big\}$ converge a $\Big( \sqrt{2}, \sqrt{2} \Big) \iff \text{las sucesiones}$ $$\{x_n\} \longrightarrow \sqrt{2}$$ $$\{y_n\} \longrightarrow \sqrt{2}$$

Observemos que podemos expresar $x_{n+1}$ en términos de $x_n$ como sigue:

$x_{n+1}=\dfrac{x_n + y_n}{2}$ pero $y_n=\dfrac{2}{x_n}$ entonces $$x_{n+1} = \dfrac{x_n+\dfrac{2}{x_n}}{2}$$ $$x_{n+1} =\dfrac{1}{2} \left(x_n + \dfrac{2}{x_n} \right)$$ $$x_{n+1} = f(x_n)$$

Tomando límites llegamos a la ecuación $ L = f(L)$

Es decir, tenemos que $$L = \frac{1}{2}\left(L+\frac{2}{L}\right)$$ $$2L = L + \frac{2}{L} \Longrightarrow L = \frac{2}{L} \Longrightarrow L^2 = 2$$ $$\therefore L=\sqrt{2}$$

Ahora vamos a argumentar porque la sucesión de $\{x_n\}$ converge. $$f(x) = \frac{1}{2} \left(x+\frac{2}{x}\right) = \frac{1}{2}x + \frac{1}{x}$$

Lema: si tenemos una sucesión $\{x_n\}$ definida por un término inicial $x_0$ y una fórmula de recurrencia $x_{n+1} = f(x)$ los puntos de la forma $\Big(x_n, f(x_n) \Big)$ los puedo determinar dibujando una escalera usando la gráfica de $y=f(x)$ y la gráfica $y=x$.

Sea $f(x) =\frac{1}{2}\left(x+\frac{2}{x}\right)$ y $x_{n+1}=f(x_n)$.

Afirmación:

  1. Si $x_n > \sqrt{2} \text{ entonces } f(x_n) > \sqrt{2}.$
  2. Si $x_n > \sqrt{2}\text{ entonces } f(x_n) < x_n \text{ en consecuencia } x_{n+1} < x_n$

Consideremos la imagen de $\Big( \sqrt{2}, \infty \Big)$ bajo la función $f(x) = \left( x + \dfrac{2}{x}\right)$.

¿Es $f(x)$ creciente en $\Big(\sqrt{2}, \infty \Big)$? Si.

Basta ver que $f'(x) > 0 \, \forall \, x \in \Big(\sqrt{2}, \infty \Big)$ $$f \Big(\sqrt{2} \Big) = \sqrt{2}$$ $$f'(x) = \frac{1}{2} \left(1-\frac{2}{x^2} \right)$$ $$x > \sqrt{2} \iff x^2 > 2 \iff 1 > \frac{2}{x^2} \iff 1-\frac{2}{x^2} > 0$$

Por lo que queda probada la afirmación 1.

Si $x_n > \sqrt{2}$ entonces ${x_n}^2 > 2$

$$ {x_n}^2 + {x_n}^2 > 2 + {x_n}^2$$ $$2{x_n}^2 > 2 + {x_n}^2$$ $$x_n > \frac{2 + {x_n}^2}{2}$$ $$x_n > \frac{2 + {x_n}^2}{2 x_n}=\frac{1}{2} \left( \frac{2}{x_n} + \frac{{x_n}^2}{x_n} \right) = \frac{1}{2} \left( \frac{2}{x_n} + x_n \right) = f(x_n) = x_{n+1}$$

$x_n > \sqrt{2} \Rightarrow x_{n+1} < x_n$

Hemos visto que $\{ x_n\}$ es acotada y decreciente. Ahora podemos concluir que $\{x_n\} \longrightarrow \sqrt{2}$.

Por otra parte $y_n = \dfrac{2}{x_n} \longrightarrow \dfrac{2}{\sqrt{2}} = \sqrt{2}$ entonces $\{y_n \} \longrightarrow \sqrt{2}$ $$\therefore \{ (x_n, y_n) \} \longrightarrow (\sqrt{2}, \sqrt{2}) \; _{\blacksquare}$$

En el siguiente enlace, puedes ver una animación tanto de la sucesión de puntos, como de la sucesión de «cuadrados».

https://www.geogebra.org/classic/tcxk2zdh

16 Material de prueba: Un ejemplo de dinámica de poblaciones

Por Mariana Perez

Consideremos una población constante distribuida en dos países.

Supongamos que cada año:

  • $\frac{1}{4}$ parte de la población que está en $A$ emigra a $B$.
  • $\frac{3}{4}$ partes se quedan en $A$.
  • $\frac{1}{2}$ parte de la población que está en $B$ emigra hacia $A$.
  • $\frac{1}{2}$ parte se quedan en $B$.

$x_n$: la población de $A$

$y_n$: la población de $B$

después de $n$ años

$(x_0, y_0)$ población inicial.

¿Qué pasará cuando pasen muchos años? $$n \longrightarrow \infty$$

¿Se alcanza un equilibrio?

Sistema Dinámico

$x_{n+1}= \frac{3}{4} x_n + \frac{1}{2} y_n$

$y_{n + 1}=\frac{1}{4} x_n + \frac{1}{2} y_n$

\begin{equation*} \begin{pmatrix} x_{n+1} \\ \\ y_{n+1} \end{pmatrix} = \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \\ \frac{1}{4} & \frac{1}{2} \end{pmatrix}\begin{pmatrix} x_n \\ \\ y_n \end{pmatrix} \end{equation*}

$\overrightarrow{x_{n+1}} = A\, \overrightarrow{x_n}$

$\overrightarrow{x_0} \curvearrowright \overrightarrow {x_1} \curvearrowright \overrightarrow{x_2} \curvearrowright \overrightarrow{x_3} \cdots $

De modo que $\overrightarrow{x_1} = A \overrightarrow{x_0} ; \quad \overrightarrow{x_2}= A^2 \, \overrightarrow{x_0}$ en general $$\overrightarrow{x_n} = A^n \, \overrightarrow{x_0}$$

Si $A$ fuera diagonal $\begin{pmatrix} \lambda_1 & 0 \\ \\ 0 & \lambda_2 \end{pmatrix}$ entonces:

$\begin{equation*} A^2 = \begin{pmatrix} \lambda_1^2 & 0 \\ \\ 0 & \lambda_2^2 \end{pmatrix} \end{equation*}$ en general $\begin{equation*} A^n = \begin{pmatrix} \lambda_1^n & 0 \\ \\ 0 & \lambda_2^n \end{pmatrix} \end{equation*}$

Si pensamos en la transformación lineal $$T(\vec{x}) = A\, \vec{x} \hspace{2cm} T: \mathbb{R}^2 \rightarrow \mathbb{R}^2$$

podemos preguntarnos si existe una base $\{\vec{v}, \vec{w} \}$ de $\mathbb{R}^2$ en la cual la matriz asociada a la transformación lineal sea diagonal, es decir, tal que:

$$ \begin{equation}T (\vec{v}) = \lambda \vec{v} \end{equation}$$ $$\begin{equation} T (\vec{w}) = \lambda \vec{w} \end{equation}$$

$\begin{equation*} P = \begin{pmatrix} v_1 & w_1 \\ v_2 & w_2 \end{pmatrix} \end{equation*}$

$\begin{equation*} P\overrightarrow{e_1} = \vec{v} =\begin{pmatrix} v_1 \\ v_2 \end{pmatrix} \end{equation*}$

$\begin{equation*} P\overrightarrow{e_2} = \vec{w} =\begin{pmatrix} w_1 \\ w_2 \end{pmatrix} \end{equation*}$

Decimos que $A$ es diagonalizable si existe $P$ invertible tal que cumpla con la igualdad $A = PDP^{-1}$, para alguna matriz diagonal $D$.

$D = \begin{pmatrix} \lambda && 0 \\ 0 && \mu \end{pmatrix}$

Buscamos un vector $\vec{v}$ con $\vec{v} \neq \vec{0}$ tal que $$A \vec{v} = \lambda \vec{v}$$

Observación: A $\lambda$ se le llama valor propio, eigenvalor, valor característico o autovalor. Y por tanto, $\overrightarrow{v}$ se denomina vector propio, eigenvector, vector característico o autovector.

$A \vec{v} = \lambda \vec{v}$

$A \vec{v} = \lambda I \vec{v}$

$A\vec{v} – \lambda I \vec{v} = \vec{0}$

$(A – \lambda I) \vec{v} = \vec{0}$

$\vec{0}$ es una solución, si queremos que exista otra solución (solución no única), entonces $det (A – \lambda I) = 0$ es la ecuación que determina a los valores propios $\lambda$.

Entonces para nuestro problema

$\begin{equation*} \begin{vmatrix} A – \lambda I \end{vmatrix} = \begin{vmatrix} \frac{3}{4} – \lambda & \frac{1}{2} \\ \\ \frac{1}{4} & \frac{1}{2} \, – \, \lambda \end{vmatrix} = 0 \end{equation*}$

$\left( \frac{3}{4} \, – \, \lambda \right) \left( \frac{1}{2} \, – \, \lambda \right) \, – \, \frac{1}{4} \frac{1}{2} = 0$

$\lambda^2 – \frac{3}{4} \lambda \, – \, \frac{1}{2} \lambda + \frac{3}{8} \, – \, \frac{1}{8} = 0$

$\lambda^2 – \frac{5}{4} \lambda + \frac{1}{4} = 0$

Resolviendo la ecuación de segundo grado se obtienen los valores para $\lambda$ $$\lambda_1 = 1$$ $$\lambda_2 = \frac{1}{4}$$

Entonces la matriz $\begin{equation*}A = \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \end{equation*}$ tiene dos valores propios $\lambda_1 = 1$ y $\lambda_2 = \frac{1}{4}$.

Buscamos un vector propio $\vec{v} = (x, y)$ asociado a $\lambda_1 = 1$ tal que cumpla la ecuación $A \vec{v} = \lambda \vec{v}$ como $\lambda_1 = 1$ entonces se tiene la ecuación $A \vec{v} = \vec{v}$

$$\begin{equation*} \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{eqnarray*} \left\{ \frac{3}{4} x + \frac{1}{2} y = x \atop \frac{1}{4} x + \frac{1}{2} y = y \right.\end{eqnarray*}$$

Despejando $y$ de la primera ecuación obtenemos $$\frac{1}{2} y = x – \frac{3}{4} x$$ $$\frac{1}{2} y = \frac{1}{4}x$$ $$y = \frac{1}{2} x$$

El vector $\overrightarrow{v} =\begin{pmatrix} 2 \\ 1 \end{pmatrix}$ cumple las condiciones, es un vector propio asociado a $\lambda_1 = 1$

De manera análoga, buscamos el vector asociado a $\lambda_2 = \frac{1}{4}$.

Si $\lambda_2 = \frac{1}{4}$ entonces $A \vec{w} = \frac{1}{4} \vec{w}$

$$\begin{equation*} \begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \frac{1}{4} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$

$$\begin{eqnarray*} \left\{ \frac{3}{4} x + \frac{1}{2} y = \frac{1}{4}x \atop \frac{1}{4} x + \frac{1}{2} y = \frac{1}{4}y \right.\end{eqnarray*}$$

Despejando $y$ de la primera ecuación obtenemos $$\frac{1}{2} y = \frac{1}{4}x – \frac{3}{4} x$$ $$\frac{1}{2} y = \frac{-2}{4}x$$ $$\frac{1}{2}y = \frac{-1}{2} x$$ $$y = -x$$

El vector $\vec{w} =\begin{pmatrix} 1 \\ -1 \end{pmatrix}$ cumple las condiciones, es un vector propio asociado a $\lambda_2 = \frac{1}{4}$.

$$\begin{equation*} A=\begin{pmatrix} \frac{3}{4} & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2}\end{pmatrix} = PDP^{-1} \end{equation*}$$

$\begin{equation*} P=\begin{pmatrix} 2 & 1 \\ 1 & -1\end{pmatrix} \end{equation*}$ $\hspace{1cm}$ $\begin{eqnarray*} \left. P \overrightarrow{e_1} = \vec{v} \atop P \overrightarrow{e_2} = \vec{w} \right. \end{eqnarray*}$

$\begin{eqnarray*} A \vec{v} = \vec{v} \\ A \vec{w} = \frac{1}{4} \vec{w} \end{eqnarray*}$

entonces $\begin{equation*} D = \begin{pmatrix} 1 & 0 \\ 0 & \frac{1}{4} \end{pmatrix} \end{equation*}$

Luego

$\begin{eqnarray*} A^n = P D^n P^{-1} \\ D^n = \begin{pmatrix} 1 & 0 \\ 0 & {\frac{1}{4}}^n \end{pmatrix} \end{eqnarray*}$

cuando $n \longrightarrow \infty$ se tiene que $D \longrightarrow \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}$

Entonces $A^n \overrightarrow{x_0} \longrightarrow P \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} P^{-1} \overrightarrow{x_0}$

Recordemos que $\{ \vec{v}, \vec{w} \}$ son base.

Entonces $$\overrightarrow{x_0} = a \vec{v} + b \vec{w}$$

multiplicando por $A$ $$A \overrightarrow{x_0} = A \left( a \vec{v} + b \vec{w} \right)$$

$$A \overrightarrow{x_0} = A a \vec{v} + A b \vec{w}$$

$$A^n \overrightarrow{x_0} = a A^n \vec{v} + b A^n \vec{w}$$

$$A^n \overrightarrow{x_0} = a \vec{v} + b \frac{1}{4^n} \vec{w}$$

De modo que cuando $n \longrightarrow \infty$ se tiene que $\frac{1}{4^n} \longrightarrow \vec{0}$ y por lo tanto $$A^n \overrightarrow{x_0} \longrightarrow a \vec{v}$$

Regresando al problema inicial, si $(x_0, y_0) = (100, 20)$ por lo que calculamos anteriormente:

$$(100, 20) = a (2, 1) + b (1, -1)$$ $$(100, 20) = (2a + b, a \, – \, b)$$

De donde se obtiene el sistema

$$ \left \{ 100 = 2a + b \atop 20 = a \, – \, b \right. $$

Sumando ambas expresiones, obtenemos $120 = 3a$ por lo que $a = 40$; y sustituyendo en la segunda ecuación del sistema al valor de $a$ se tiene que $b = 40 -20$ por lo que $b = 20$.

En conclusión, si inicialmente tenemos una población total de 120, entonces la distribución será $(80, 40)$ es decir $\frac{2}{3}$ de la población total en la ciudad $A$ y $\frac{1}{3}$ de la población total en la ciudad $B$.

En el siguiente enlace puedes observar una animación de como los valores de las poblaciones se aproximan al resultado que calculamos, $(80, 40).$

https://www.geogebra.org/classic/bbeggvgs

17 Material de prueba: Sucesión de Fibonacci

Por Mariana Perez

$$x_0 = 1$$ $$x_1 = 1$$ $$x_2 = 2$$ $$x_3 = 3$$ $$x_4 = 5$$ $$\vdots$$ $$x_{n+1} = x_n + x_{n-1}$$ $$x_{n+2} = x_n + x_{n+1}$$

Observación: si divido el término siguiente entre el anterior tenemos: $\frac{x_{n+1}}{x_n} = q_n \; $, donde $ \; q_n $ es el cociente.

$\frac{1}{1} = 1 $

$\frac{2}{1} = 2 $

$\frac{3}{2} = 1.5 $

$\frac{5}{3} = 1. 66 … \longrightarrow \phi = \frac{1 + \sqrt{5}}{2}$ la razón aurea.

Para cada $n$ definamos $y_n = x_{n+1}$

Luego $$y_{n+1} = x_{n+2} = x_n + x_{n+1} = x_n + y_n$$

Tenemos las dos ecuaciones:

$x_{n+1} = y_n$

$y_{n+1}= x_n + y_n$

Podemos escribir estas ecuaciones como una ecuación vectorial $$\begin{equation*} \begin{pmatrix} x_{n+1} & y_{n+1} \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x_n \\ y_n \end{pmatrix} \end{equation*}$$

Entonces tenemos que $\vec{x}_{n+1} = A \vec{x}_n$. ¿Qué pasa cuando $\overrightarrow{x_n} \longrightarrow \infty$?

Calculamos los valores propios de la matriz $A$:

$$A-\lambda I =\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \, – \, \lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} \, – \, \lambda & 1 \\ 1 & 1 \, – \, \lambda \end{pmatrix} \end{equation*}$$

$det (A \, – \, \lambda I) = 0 = ( \lambda)(1 \, – \, \lambda) \, – \, (1)(1)$

$$0 = \lambda^2 \, – \, \lambda \, – \, 1$$

Luego $$\lambda = \frac{1 \pm \sqrt{1+4}}{2} = \frac{1 \pm \sqrt{5}}{2}$$

Analizando los valores de $\lambda$ podemos ver que:

  • $\frac{1 + \sqrt{5}}{2} = \phi > 1$ por lo que multiplicar por este valor aumenta la magnitud de los vectores, y si lo hacemos indefinidamente la magnitud tiende a infinito.
  • $\frac{1 – \sqrt{5}}{2} = – \, \frac{1}{\phi} > – \, 0.6$ notemos que el valor absoluto de este número es menor que 1 por lo que multiplicar por este valor propio achica la magnitud de los vectores, y si lo hacemos indefinidamente la magnitud tiende a cero.

Los vectores propios son:

  • para $\phi$ $$A \vec{v} = \phi \vec{v}$$ $$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \phi \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$ $$y = \phi x$$

Los vectores propios son de la forma $\begin{pmatrix} x \\ \phi x \end{pmatrix}$.

Un vector propio es $\begin{pmatrix} 1 \\ \phi \end{pmatrix} = \vec{v}$.

  • para $\lambda = \frac{-1}{\phi}$ $$A \vec{w} = \frac{-1}{\phi} \vec{w}$$

$$\begin{equation*} \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \frac{-1}{\phi} \begin{pmatrix} x \\ y \end{pmatrix} \end{equation*}$$ $$y = \frac{-1}{\phi} x$$

Los vectores propios son de la forma $\begin{pmatrix} x \\ \frac{-1}{\phi} x \end{pmatrix}$.

Un vector propio es $\begin{pmatrix} 1 \\ \frac{-1}{\phi} \end{pmatrix} = \vec{w}$.

Observemos que $\vec{v}$ y $\vec{w}$ son una base de $\mathbb{R}^2$ y por lo tanto podemos escribir al vector inicial como combinación lineal de ellos.

$$\begin{equation*} \begin{pmatrix} x_0 \\ y_0 \end{pmatrix} = \begin{pmatrix} 1 \\ 1 \end{pmatrix} = a \begin{pmatrix} 1 \\ \phi \end{pmatrix} + b \begin{pmatrix} 1 \\ \frac{-1}{\phi} \end{pmatrix} \end{equation*}$$

En forma vectorial,$\vec{x_0} = a\vec{v}+b\vec{w}$ entonces

$$\vec{x_1} = A \vec{x_0} = aA\vec{v} +bA\vec{w}= a\phi\vec{v}-\frac{b}{\phi} \vec{w}$$

$$\vec{x_2} = A \vec{x_1} = a\phi A \vec{v} -\frac{b}{\phi}A\vec{w}= a\phi^2\vec{v}+\frac{b}{\phi^2} \vec{w}$$

En general:

$$\vec{x_n} = \textcolor{Magenta}{a\phi^n}\vec{v}+\textcolor{Magenta}{(-1)^n\frac{b}{\phi^n}} \vec{w}$$

Observemos que el vector $(-1)^n\frac{b}{\phi^n} \vec{w}$ tiende al vector $\vec{0}$ cuando $n$ tiende a infinito y entonces el vector $\vec{x_n}$ se aproxima a la recta generada por el vector $\vec{v}$ entonces:

En el siguiente enlace puedes observar una animación de como los puntos $(x_n, y_n)$ se aproximan a la recta $y = \phi x$

https://www.geogebra.org/classic/qxkcm4zf

El cociente $\frac{x_{n+1}}{x_n}$ es igual a la pendiente de la recta generada por el vector $\vec{x_n} = (x_n, y_n)$ pero como este vector se aproxima a la recta generada por el vector propio $\vec{v} =(1, \phi)$ las pendientes $\frac{y_n}{x_n}$ se aproximan a la pendiente $\frac{\phi}{1}=\phi$ por esta razón los cocientes de la sucesión de Fibonacci se aproximan al valor de $\phi.$

Álgebra Moderna I: Introducción al curso

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

¡Un curso salvaje de Álgebra Moderna ha aparecido!

El concepto de grupo como tal se da en el siglo XIX. Nace de varios problemas que se estaban trabajando en distintas áreas de las matemáticas, como por ejemplo, en la Teoría de los números, en la Geometría de transformaciones lineales y en el Análisis de las transformaciones continuas.

Un origen alternativo del término grupo está en la búsqueda de soluciones para ecuaciones de distintos grados. Desde el siglo XVIII a.C. los babilonios tenían su propia manera de encontrar las soluciones de ecuaciones de 1ro y 2do grado. Más adelante, en el siglo III d.C. el matemático Diofanto introduce en Grecia una notación algebraica y avanza con el estudio del problema de las soluciones de ecuaciones de grados mayores a dos.

Siglos después, en el siglo VIII, el árabe Al-Juarismi da métodos básicos para resolver ecuaciones polinomiales usando justificaciones geométricas. Después de él, se da un estancamiento para resolver ecuaciones de grado mayor.

En el siglo XVI se da un avance gracias a cuatro matemáticos: Niccolò Fontana Tartaglia, Gerolamo Cardano, su alumno Lodovico Ferrari y Scipione del Ferro. La historia cuenta que Tartaglia encuentra la forma de resolver ecuaciones de grado tres usando radicales, es decir, una fórmula general para resolverlas a partir de los coeficientes usando operaciones básicas como la suma, la resta, la multiplicación y la división. Después de contarle a Cardano, Tartaglia le pide que guarde el secreto. Pero Del Ferro también encuentra una solución al problema y al igual que Tartaglia se le dice a Cardano, así que Cardano piensa que ya no es necesario guardar el secreto de Tartaglia y decide publicar en su libro Ars Magna las soluciones a las ecuaciones de tercer grado, así como la solución a las ecuaciones de grado cuatro descubiertas por su discípulo Ferrari.

Para las ecuaciones de grado cinco no hay avance en mucho tiempo. Fue en el siglo XVIII Joseph-Louis Lagrange retoma el problema y utiliza permutaciones de las raíces de un polinomio para crear una ecuación auxiliar y tratar de encontrar así la solución a ecuaciones de quinto grado usando radicales. A pesar de que no logra resolver el problema, su trabajo es muy importante y retomado más adelante.

A finales de este mismo siglo, Niels Henrik Abel y Paolo Ruffini retoman el trabajo de Lagrange y se dan cuenta que existen ecuaciones de grado cinco que no son solubles con radicales, su trabajo se resume en el Teorema de Abel-Ruffini.

Quién sí logra entender completamente el problema y definir qué ecuaciones de grado cinco (o mayor) tienen soluciones y cuáles no se pueden resolver con radicales fue Évariste Galois. En este camino descubre lo que ahora conocemos como Teoría de grupos, aunque es hasta 1844 que Augustin Louis Cauchy introduce la notación actual que usamos para esta rama del Álgebra.

Esto es precisamente lo que vamos a estudiar en este semestre, no en sí la resolución de ecuaciones, si no la parte básica de la Teoría de grupos. Es posible que ya estés familiarizado con alguna de las estructuras que trataremos porque daremos por hecho que posees conocimientos de Álgebra Superior I, Álgebra Superior II, Álgebra Lineal I y Álgebra Lineal II.

Sobre la estructura del curso

El curso consiste en 48 entradas divididas por temas importantes y agrupadas en cinco unidades:

  • Unidad 1: Grupos y Subgrupos
  • Unidad 2: Permutaciones
  • Unidad 3: Grupo cociente y Homomorfismos
  • Unidad 4: Acciones y Teoremas de Sylow
  • Unidad 5: Jordan Hölder y el Teorema fundamental

Cada una de las entradas está dividida en cuatro secciones importantes: Introducción, Tarea moral, Más adelante… y Entradas relacionadas.

En la Introducción se pretende dar una motivación a los temas que se verán, además de relacionar la entrada actual con la entrada anterior. Luego, durante el desarrollo de la entrada, el contenido también se divide en secciones, estas secciones dependen de la duración y de los temas que se traten.

En la sección de Tarea moral se dejan ejercicios para que repases los temas de la entrada en la que están. Más adelante… es una sección en la que queremos relacionar los temas vistos con futuras entradas.

Por último, la sección de Entradas relacionadas se explica por sí sola. Ahí podrás encontrar las entradas anterior y siguiente inmediatas a la entrada que estás leyendo, un enlace que te llevará directamente a la lista de otros cursos que pueden serte de utilidad y uno para ir a la página de presentación de este curso.

Materiales o videos recomendados

A lo largo de las entradas dejamos algo de material extra porque te puede proporcionar mejor perspectiva y parecer interesante. Aquí recopilamos todo ese material y agregamos algo más para que puedas acceder a él de manera más fácil.

Unidad 1:
Grupos de Transformadores p(112-115)
Grupo Diédrico – Socratica
Visualización de cuaterniones – 3Blue1Brown (subtítulos en español)

Unidad 2:
¿Cómo tocar un cubo de Rubik como si fuera un piano? – M. Staff
Juego del 15 – Mathologer
Lagrange – Universidad de la Sorbona (subtítulos en español)
Grupo cociente – Mathemaniac

Unidad 3:
Homomorphism – Socratica
Homomorphism – Mathemaniac

Unidad 4:
Teorema de Cayley – Mathemaniac

Unidad 5:
Simple Groups – Socratica
La mitad de este video toca los temas vistos en la unidad 5. El resto del video te puede abrir el panorama sobre otros temas del Álgebra Moderna interesantes que no se cubren en este curso y además sirve como un cierre del curso ya que retoma lo que se menciona en esta introducción y vuelve a mencionar a Galois.

Más adelante…

Esta sección está en cada entrada para motivarte a seguir adelante con el curso y te proporciona vistazos de futuros usos a lo que hayas estudiado en la entrada. En este caso ¡tienes todo un maravilloso curso de Álgebra Moderna por explorar!

Entradas relacionadas