Funciones de variación acotada

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección corresponde al libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 17-22.

Estamos por presentar las últimas notas de blog del curso de Análisis Matemático I. Pretendemos mostrar un puente entre lo que vimos aquí y lo que se aprenderá en Análisis Matemático II. Conoceremos algunas ideas que, eventualmente, nos llevarán al concepto de la integral de Riemann-Stieljes, un concepto que generaliza a la integral de Riemann (que suele verse en los cursos de Cálculo) pero que también es un caso particular de la integral de Lebesgue, la que se verá en la siguiente sección del blog. Para comenzar, analicemos los cambios que una función va tomando en un dominio cerrado.

Definición. Partición de un intervalo $\textbf{[a,b].}$ Sea $[a,b]$ un intervalo de $\mathbb{R}.$ Si $P = \{x_0=a, \, x_1, \, x_2,…,x_{n-1}, \, x_n = b\}, \, i=0,1,2,…,n \,$ es una colección de puntos tales que $x_0 =a, \, x_n = b$ y para cada $i =1,2,…,n$ se cumple que $x_{i-1}< x_i,$ entonces diremos que $P$ es una partición de $[a,b].$

Definición. Variación de $f$ sobre $[a,b].$ Considera una función $f:[a,b] \subset \mathbb{R} \to \mathbb{R} \,$ y sea $P=\{x_0, \, x_1, \, …, \, , x_n\}$ una partición de $[a,b].$ Definimos $S_P[f;a,b]$ (o bien $S_P$ cuando no hay necesidad de especificar la función y el intervalo) como:
$$S_P[f;a,b] := \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|$$

La suma del tamaño de los segmentos naranjas es la $S_P.$

Entonces se suman las distancias que se generan al evaluar $f$ en cualesquiera dos puntos consecutivos de la partición.

Ya que para cada partición $P$ de $[a,b]$ existe su respectiva $S_P,$ podemos pensar en si la colección de todas las sumas tiene supremo. El supremo de las sumas de todas las particiones de $[a,b]$ recibe el nombre de variación de $f$ sobre $[a,b].$ Se denota como:
$$ \underset{P \, \in \, \mathcal{P_{[a,b]}}}{Sup} \, S_P \, =V[f;a,b] \, = V [a,b]\, = V$$

Donde $\mathcal{P}_{[a,b]} \,$ es el conjunto de particiones de $[a,b].$

Las sumas pueden dar resultados distintos con particiones distintas

Definición. Función de variación acotada y de variación no acotada. Sea $f:[a,b] \to \mathbb{R}.$ Considera $V[f;a,b].$ Si el supremo de hecho existe en $\mathbb{R},$ entonces $0 \leq V$ y diremos que $f$ es de variación acotada en $[a,b].$
En otro caso diremos que $V = \infty \,$ y que $f$ es de variación no acotada.

Ejemplos de variación en funciones

A continuación presentamos las variaciones de algunas funciones. Al final de esta sección te pediremos calcular los resultados formalmente.

  • Sea $f:[a,b] \to \mathbb{R} \,$ tal que $f$ es monótona. Entonces para cualquier partición $P,$
    $$S_P=|f(b) \, – \, f(a)|=V.$$
$f$ es monótona.
  • Sea $f:[a,b] \to \mathbb{R}$ tal que $f$ puede expresarse en pedazos monótonos acotados, es decir, existe una partición $P = \{x_0 =a, \, x_1,…,x_n =b\}$ tal que $f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$ Entonces
    $$V = S_P.$$
$f$ es monótona en cada intervalo $[x_{i-1}, \, x_i].$
  • Sea $[a,b]$ un intervalo con el $\, 0$ en su interior y $f:[a,b] \to \mathbb{R}$ tal que
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x = 0$} \\
    0 & \text{si $x \neq 0$}
    \end{cases}
    \end{equation*}
    Entonces $S_P = 2 \,$ o $\, S_P = 0,$ de modo que $V=2.$
$f$ no es continua en un punto.
  • Sea $f:[a,b] \to \mathbb{R}$ la función de Dirichlet, es decir
    \begin{equation*}
    f(x) = \begin{cases}
    1 & \text{si $x \, \in \, \mathbb{Q}$} \\
    0 & \text{si $x \, \notin \, \mathbb{Q}$}
    \end{cases}
    \end{equation*}
    Entonces $V = \infty.$
$f$ es la función de Dirichlet.

Las siguientes son propiedades de las funciones de variación acotada.

Proposición. Si $f$ es de variación acotada en $[a,b]$ entonces $f$ es acotada en $[a,b].$

Demostración:
Sea $x \in [a,b].$ Considera la partición $\{a, \, x, \, b\},$ entonces
$$|f(x) \, – \, f(a)| \leq |f(x) \, – \, f(a)| +|f(b) \, – \, f(x)| \leq V.$$
Por lo tanto, $f$ es acotada en $[a,b].$

El regreso no es cierto, esto es, podemos tener una función acotada en $[a,b]$ pero que no sea de variación acotada. La función de Dirichlet ejemplifica esta situación. Podrás ver otro caso también en la tarea moral de la siguiente entrada).

Proposición. Sean $f,g \,$ funciones de variación acotada en $[a,b]$ y sea $c \in \mathbb{R}.$ Entonces las funciones

  • $cf,$
  • $f+g \,$ y
  • $fg$

son de variación acotada en $[a,b].$ Además

  • $\dfrac{f}{g}$

también es de variación acotada en $[a,b]$ si para todo $x \in [a,b]$ existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon.$ La demostración queda como ejercicio.

Con las siguientes ideas tendremos recursos para aproximar mejor el valor de $V$ de una función.

Definición. Refinamiento. Sean $P,Q \in \mathcal{P}_{[a,b]} \,$ tales que $P \subseteq Q,$ es decir, $Q$ tiene todos los puntos de $P$ y, posiblemente, algunos otros. Entonces decimos que $Q$ es un refinamiento de $P,$ o que $Q$ refina a $P.$

Proposición: Si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$ La demostración la dejamos como ejercicio.

Proposición: Sea $f:[a,b] \to \mathbb{R}.$ Si $[a’,b’] \subseteq [a,b]$ entonces $V[a’,b’] \leq V[a,b],$ es decir, la variación potencialmente incrementa con el intervalo.

Demostración:
Sea $P= \{x_0= a’,…,x_n=b’\} \,$ una partición de $[a’,b’]$ y sea $Q = P \cup \{a,b\}.$ Claramente, $Q$ es partición de $[a,b]$ y
\begin{align*}
S_P[f;a’,b’] &= \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|\\
&\leq \sum_{i=1}^{n}|f(x_i) \, -\, f(x_{i-1})|+|f(x_0) \, -\, f(a)|+|f(b) \, -\, f(x_{n})|\\
&= S_Q[f;a,b]
\end{align*}

lo cual indica que para cada $S_P, \, P \in \mathcal{P}_{[a’,b’]}$ existe $S_Q, \, Q \in \mathcal{P}_{[a,b]}$ tal que $S_P \leq S_Q.$ Por lo tanto $V[a’,b’] \leq V[a,b].$

Proposición: Sea $f:[a,b] \to \mathbb{R}.$ Si $a < c < b$ entonces
$$V[a,b] = V[a,c] + V[c,b].$$
Es decir, la variación es aditiva en intervalos adyacentes.

Demostración:
Probemos primero que $V[a,c] + V[c,b] \leq V[a,b].$ Sea $P_1$ y $P_2$ particiones de $[a,c]$ y $[c,b],$ respectivamente. Entonces $P = P_1 \cup P_2$ es una partición de $[a,b].$

En consecuencia
$$S_{P_1}[f,a,c]+S_{P_2}[f,c,b] = S_P[f,a,b].$$
Ya que aún podrían existir otros valores más grandes de $S_{P’}[f,a,b]$ con $P’$ partición de $[a,b],$ se sigue que $V[a,c] + V[c,b] \leq V[a,b].$

Ahora probemos que $V[a,b] \leq V[a,c] + V[c,b].$ Sea $P$ una partición de $[a,b]$ y $\hat{P}= P \cup \{c\}.$

Entonces $\hat{P}$ es un refinamiento de $P,$ y por la proposición que dejamos al lector tenemos
$$S_P[f,a,b] \leq S_{\hat{P}}[f,a,b] = S_{P_1}[f,a,c]+S_{P_2}[f,c,b]$$
por lo tanto $V[a,b] \leq V[a,c] + V[c,b],$ con lo que concluimos que

$$V[a,b] = V[a,c] + V[c,b].$$

Definición. Partes positiva y negativa de $x$. Para cualquier $x \in \mathbb{R}$ definimos la parte positiva de $x$ como:

\begin{equation*}
x^+ = \begin{cases}
x & \text{si $x >0$} \\
0 & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Y la parte negativa de $x$ como:

\begin{equation*}
x^- = \begin{cases}
0 & \text{si $x >0$} \\
-x & \text{si $x \leq 0$}
\end{cases}
\end{equation*}

Nota que las partes positiva y negativa de un número real, satisfacen las siguientes relaciones:

  1. $x^+,x^- \geq 0.$
  2. $|x|=x^++x^- .$
  3. $x = x^+-x^- .$

Definición. Suma de términos positivos y suma de términos negativos de $S_P.$ Sea $f:[a,b] \to \mathbb{R} \,$ y $P=\{x_0, \, x_1, \, … \, , x_{n-1}, \, x_n\}.$ Definimos la suma de términos positivos de $S_P$ como:

$$S_P^+=S_P^+[f;a,b]= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^+.$$

Y la suma de términos negativos de $S_P$ como:

$$S_P^-=S_P^-[f;a,b]= \sum_{i =1}^{n} \, (f(x_i)-f(x_{i-1}))^-.$$

En la siguiente imagen, las líneas naranjas representan los sumandos distintos de cero en $S_P^+$ y las líneas verdes, los de $S_P^-.$

Representación $S_P^+$ y $S_P^-.$

Es sencillo comprobar que

\begin{align}
S_P^+ + S_P^- &= S_P \, \, \, \text{ y } \\
S_P^+ \, – \, S_P^- &=f(b) – f(a).
\end{align}

Definición: Variación positiva y variación negativa de $f.$ Definimos la variación positiva de $f$ como:

$$S^+=S^+[f;a,b]= \underset{P \in \mathcal{P}}{Sup \, } \, S_P^+$$

Y la variación negativa de $f$ como:

$$S^-=S^-[f;a,b]= \underset{P \in \mathcal{P}}{Sup \,} \, S_P^-$$

Nota que ambas son mayores iguales que cero y pueden valer $\infty$ cuando no existe el supremo en $\mathbb{R}$.

Proposición. Si alguno de $S^+, \, S^-, \, $ o $V$ es finito entonces los tres son finitos. Más aún, se satisface:

\begin{align}
S^++S^- &=V, \\
S^+-S^- &= f(b)-f(a)
\end{align}

o equivalentemente

\begin{align}
S^+&= \frac{1}{2}[V+f(b)-f(a)], \\
S^-&= \frac{1}{2}[V-f(b)+f(a)]
\end{align}

Demostración:
Supongamos que $V$ es finito. Por (1)
$$S_P^+ + S_P^- = S_P$$
y como $S_P \leq V,$ se sigue que
\begin{align*}
S_P^+ + S_P^- \leq V.
\end{align*}

Ya que tanto $S_P^+$ como $S_P^- $ son no negativos, tenemos
$$S_P^+ \leq V \, \Rightarrow \, S^+ \leq V.$$
De igual manera
$$S_P^- \leq V \, \Rightarrow \, S^- \leq V.$$

Por lo tanto, si $V$ es finito, $S^+$ y $S^-$ también lo son.

Ahora supongamos que $S^+$ es finito. Despejando en (2), se cumple:

\begin{align*}
&& S_P^- &= S_P^+ – \, (f(b) \, – \, f(a))\\
& \Rightarrow & &\leq S^+ – \, (f(b) \, – \, f(a))\\
\end{align*}

De modo que el conjunto de sumas de términos negativos está acotado y por lo tanto $S^-$ también es finito.

Por (1)
\begin{align}
\nonumber && S_P = S_P^+ + S_P^- &\leq S^+ + S^- \\
&\Rightarrow& V &\leq S^+ + S^-
\end{align}

En consecuencia, $V$ es finito.
Análogamente, podemos concluir que si $S^-$ es finito, $S^+$ y $V$ son finitos.

Para probar (4) considera una sucesión de particiones $(P_n)_{n \in \mathbb{N}}$ tal que la sucesión de sumas positivas cumple que

$$(S_{P_n}^+) \, \to \, S^+.$$

Vamos a demostrar que también $(S_{P_n}^-) \, \to \, S^-$ y que $S^+ \, – \, (f(b)\, – \, f(a)) = S^-,$ que es equivalente a (4).

Por (2) tenemos que $S_{P_n}^- = S_{P_n}^+- \, (f(b) \, – \, f(a)) ,$
y como $(S_{P_n}^+) \, \to \, S^+$
entonces $S_{P_n}^+- \, (f(b) \, – \, f(a)) \, \to \, S^ + -\, (f(b) \, – \, f(a)),$
y por transitividad
\begin{align}
S_{P_n}^- \, \to \, S^ + -\, (f(b) \, – \, f(a)).
\end{align}

Dado que $S_{P_n}^ – \leq S^ -,$ se sigue
\begin{align}
S^ + – \, (f(b) \, – \, f(a)) \leq S ^-.
\end{align}

Queremos que se cumpla la igualdad. Supón por el contrario que

$$S^ + – \, (f(b) \, – \, f(a)) < S ^-,$$

como $S ^-$ es el supremo de las sumas negativas, existe una partición $P$ de $[a,b]$ tal que

\begin{align}
&&S^ + – \, (f(b) \, – \, f(a))&<S_P ^- \\
&\Rightarrow& S^ + &<S_P ^- + (f(b) \, – \, f(a)) \\
&& &= S_P^+
\end{align}

lo cual es una contradicción, pues $S ^+$ es el supremo de las sumas positivas. Por lo tanto

\begin{align}
S^ + – \, (f(b) \, – \, f(a)) = S ^-,
\end{align}

Lo que prueba (4),

y por (8)
\begin{align}
S_{P_n} ^- \, \to \, S ^-,
\end{align}

Por otro lado, por (1)
$$S_{P_n}^+ + S_{P_n}^- = S_P \leq V$$
de modo que tomando el límite
\begin{align}
S^+ + S^- \leq V
\end{align}

y de (7) y (15) concluimos finalmente

$$S^+ + S^- = V$$

que es (3).

Finalizamos esta sección con el siguiente

Corolario. Teorema de Jordan. Una función $f:[a,b] \to \mathbb{R}$ es de variación acotada en $[a,b]$ si y solo si puede ser expresada como la diferencia de dos funciones crecientes acotadas en $[a,b].$

La función en rojo es diferencia de las otras dos. Por lo tanto es de variación acotada en $[1,3].$

Demostración:
Supón que $f$ es de variación acotada. Por un resultado visto arriba, sabemos que $f$ es de variación acotada en cada subintervalo $[a,x]$ con $x \in [a,b].$ Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Es sencillo demostrar que estas funciones son crecientes y acotadas en $[a,b],$ (ver tarea moral), y aplicando el teorema anterior en cada $[a,x],$
\begin{align*}
&& S(x) ^+ \, – \, S(x) ^- &= f(x) \, – \, f(a) \\
&\Rightarrow&f(x) &= (S(x) ^+ +f(a)) \, – \, S(x) ^-
\end{align*}

Como $S(x)$ es creciente y acotada, también lo es $(S(x) ^+ +f(a))$, de modo que $f$ es la diferencia de dos funciones crecientes y acotadas.

En contraparte, supongamos que $f = f_1 \, – \, f_2,$ donde $f_1$ y $f_2$ son funciones crecientes y acotadas en $[a,b].$ De acuerdo con el primer ejemplo, ambas funciones son de variación acotada. Finalmente, por un resultado enunciado arriba, $ f_1 \, – \, f_2 = f \,$ es de variación acotada.

Más adelante…

Seguiremos con el estudio de las funciones de variación acotada y conectaremos con curvas rectificables, una concepción de cómo considerar la longitud de una curva que podría no coincidir, con medir la gráfica de la misma.

Tarea moral

  1. Verifica la variación de cada función de los ejemplos enunciados arriba.
  2. Demuestra que si $f,g \,$ son funciones de variación acotada en $[a,b]$ y $c \in \mathbb{R},$ entonces las funciones
    $$cf, \, f+g \, \, \text{ y } \, \, fg$$
    son de variación acotada en $[a,b].$ Además
    $$\frac{f}{g}$$
    también es de variación acotada en $[a,b]$ si para todo $x \in [a,b]$ existe $\varepsilon >0$ tal que $|g(x)| \geq \varepsilon.$
  3. Prueba que si $Q$ es un refinamiento de $P,$ entonces $S_P \leq S_Q.$
  4. Para cada $x,$ sean $S(x) ^+$ y $S(x) ^-$ las variaciones positiva y negativa de $f$ en $[a,x].$ Demuestra que estas funciones son crecientes y acotadas en $[a,b].$
  5. Prueba que si $f:[a,b] \to \mathbb{R}$ es Lipschitz continua, entonces es de variación acotada.

Enlaces

  • Análisis Matemático.
  • Enlace a entrada anterior.
  • Enlace a entrada siguiente.

40. Material en revisión: Curvatura

Por Mariana Perez

Curvatura de una curva

La curvatura de una curva $\alpha : [a,b] \subset \mathbb{R} \rightarrow \mathbb{R}^n$ en un punto $\alpha(t_0)$ es la curvatura de la circunferencia osculatriz (osculadora), «la que más se parece a la curva cerca del punto».

  • ¿Cuál es la curvatura de una circunferencia?
  • De todas las circunferencias que pasan por el punto, ¿cuál es la que más se parece a la curva?

Definamos la curvatura de una circunferencia de radio $r$ como el número $\textcolor{RoyalBlue}{\mathcal{K} = \frac{1}{r}}$

Observación «física»:

Supongamos que tenemos una circunferencia parametrizada con rapidez constante 1.

$\alpha (s)$ nos da la posición.

${\alpha}’ (s)$ nos da la velocidad.

${\alpha}^{\prime \prime} (s)$ nos da la aceleración.

$\big\| {\alpha}’ (s) \big\| = 1$

$\big\| {\alpha}’ (s) \big\|^2 = 1$ constante.

Como la aceleración es perpendicular a la velocidad, se cumple que $ \big\langle {\alpha}’ (s) , {\alpha}^{\prime \prime} (s) \big\rangle = 0$

$ \big\langle {\alpha}’ (s) , {\alpha}’ (s) \big\rangle \equiv 1$ derivando $ \big\langle {\alpha}^{\prime \prime} (s) , {\alpha}’ (s) \big\rangle + \big\langle {\alpha}’ (s) , {\alpha}^{\prime \prime} (s) \big\rangle \equiv 0$

¿Cuál es la relación que hay entre $\mathcal{K}$ y ${\alpha}^{\prime \prime} (s)$ ?

Circunferencia de radio $1$ parametrizada con rapidez unitaria

$\alpha (t) = (\cos (t), \sin (t))$

${\alpha}’ (t) = ( – \sin (t) , \cos (t))$

$\big\| {\alpha}’ (t) \big\| = 1$

Circunferencia de radio $2$ parametrizada con rapidez unitaria

$\alpha (t) = 2 \big( \cos (t), \sin (t) \big)$

${\alpha}’ (t) = 2 \big( – \sin (t) , \cos (t) \big)$

$\big\| {\alpha}’ (t) \big\| = 2$

Reparametricemos

$t = h(s)$ inyectiva, creciente, derivable.

$\beta (s) = \alpha (h(s))$

Tal que $\big\| {\beta \, }’ (s) \big\| = 1$

Como $\beta (s) = \alpha \big( h(s) \big)$ entonces, ${\beta \, }’ (s) = {\alpha}’ \big( h(s) \big) h’ (s).$

Luego, $ \big\| {\alpha}’ (h(s)) \big\| h’ (s) = 1 $

$2 h’ (s) = 1$

$h’ (s) = \frac{1}{2}$

Entonces, nos sirve la función $h(s) = \frac{1}{2}s $

$\beta (s) = 2 \big(\cos \big(\frac{1}{2} s \big), \sin \big(\frac{1}{2} s \big) \big)$

${\beta \, }’ (s) = 2 \big( – \frac{1}{2} \sin \big(\frac{1}{2} s \big), \frac{1}{2} \cos \big(\frac{1}{2} s \big) \big)$

${\beta \, }’ (s) = \big( – \sin \big(\frac{1}{2} s \big), \cos \big(\frac{1}{2} s \big) \big)$

$\big\| {\beta \, }’ (s) \big\| = 1$

${\beta}^{\prime \prime} (s) = 2 \big( – \frac{1}{2} \cos \big(\frac{1}{2} s \big), – \frac{1}{2} \sin \big(\frac{1}{2} s \big) \big)$

$\big\| {\beta}^{\prime \prime} (s) \big\| = \frac{1}{2}$

Circunferencia de radio $r > 0$

$\alpha (s) = r \big(\cos \big(\frac{1}{r}s \big), r \sin \big(\frac{1}{r}s \big) \big)$

${\alpha}’ (s) = \big(- \sin \big(\frac{1}{r}s \big), \cos \big(\frac{1}{r}s \big) \big)$

${\alpha}^{\prime \prime} (s) = \big( – \frac{1}{r} \cos \big(\frac{1}{r}s \big), – \frac{1}{r} \sin \big(\frac{1}{r}s \big) \big)$

$\big\| {\alpha}^{\prime \prime} (s) \big\| = \frac{1}{r}$ es la «curvatura».

En general, dada una curva $\alpha : I \subset \mathbb{R} \rightarrow \mathbb{R}^n$ si ${\alpha \, }’ (t_0) \neq \vec{0}$, podemos definir «el» vector tangente unitario como $$\textcolor{ForestGreen}{\vec{T} (t_0) = \frac{{\alpha \, }’ (t_0) }{ \big\| {\alpha \, }’ (t_0) \big\|}}$$

Si la curva está parametrizada con rapidez unitaria $\alpha (s) $ tal que existe ${\alpha}’ (s)$ con $\big\|{\alpha \, }'(s) \big\| = 1$ para toda $s$, se tiene que $$T(s) = {\alpha \, }’ (s)$$

Dada una curva $\alpha (t)$, de clase $\mathcal{C}^1$, podemos reparametrizarla con rapidez unitaria.

Si ${\alpha \, }’ (t) \neq \vec{0} \; \; \forall \, t$; decimos que la curva es «regular».

Buscamos una función $t = h(s)$ tal que $\beta = \alpha \circ h$ y ${\beta \, }’ (s) = {\alpha \, }’ (h(s)) h’ (s)$ y que cumple que $\big\| {\beta \, }’ (s) \big\| = 1$ entonces $\big\|{\beta\, }’ (s) \big\| = \big\|{\alpha \, }’ (h(s)) \big\| h’ (s)$, con $h$ una función creciente.

Por lo que $$h’ (s) = \frac{1}{ \big\|{\alpha \, }’ (h(s)) \big\|}$$

Si además podemos que ${\alpha}^{\prime \prime} (s) \neq \vec{0}$ entonces, definimos «el» vector normal $N (s)$ como $$\textcolor{NavyBlue}{N (s) = \frac{{\alpha}^{\prime \prime} (s)}{\big\|{\alpha}^{\prime \prime} (s) \big\|}}$$

Dada una curva $\alpha (t)$, si ${\alpha \, }’ (t) \neq 0$ y existe ${\alpha}^{\prime \prime} (t)$ entonces $${\alpha}^{\prime \prime} (t) = \lambda {\alpha \, }’ (t) + \beta (t) $$

donde ${\alpha}^{\prime \prime} (t)$ es la aceleración,

${\alpha \, }’ (t)$ es la aceleración tangencial, y

$\beta (t)$ es la aceleración normal.

Es decir $${\alpha}^{\prime \prime} (t) = \lambda T (t) + N (t) $$

¿Cuál es la circunferencia osculatriz?

El radio está dado por $$\textcolor{BrickRed}{\frac{1}{\big\|{\alpha}^{\prime \prime} (s_0) \big\|}}$$

El centro de la circunferencia osculatriz es $$\alpha (s_0) + \frac{1}{\big\|{{\alpha \, }’ \, }’ (s_0) \big\|}.N(s_0) $$ $$\alpha (s_0) + \frac{1}{\|{\alpha}^{\prime \prime} (s_0) \big\|}. \frac{{\alpha}^{\prime \prime} (s_0)}{ \big\|{\alpha}^{\prime \prime} (s_0) \big\|}$$ $$ \textcolor{BrickRed}{\text{Centro} = \alpha (s_0) + \frac{{\alpha }^{\prime \prime} (s_0)}{{\big\|{\alpha}^{\prime \prime} (s_0)} \big\|^2}}$$

En conclusión, la curvatura mide el cambio en la dirección comparado con el cambio en la longitud de arco recorrida.

IMAGEN INTERACTIVA EN REVISIÓN

https://www.geogebra.org/classic/atjan5cd

34. Material en revisión: La composición de funciones continuas es continua.

Por Mariana Perez

Teorema 1:

La composición de funciones continuas es continua.

Demostración:

Usando la definición topológica.

Sean

$ f: A \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^m$

$ g: D \subseteq \mathbb{R}^m \rightarrow \mathbb{R}^k$

Tales que $ f(A) \subseteq D $ y con $A$ y $D$ abiertos.

Hipótesis: $f , g$ continuas.

$\big[$ por demostrar: $g \circ f$ es continua. $\big]$

Basta ver que la imagen inversa de abiertos en $\mathbb{R}^k$ bajo $g \circ f$ es abierta en $\mathbb{R}^n.$

Sea $ W \subseteq \mathbb{R}^k $ un abierto.

$\big[$ por demostrar: $(g \circ f)^{-1} (W) \subseteq \mathbb{R}^n$ es abierto.$\big]$

Por hipótesis, $g^{-1} (W) $ es abierto en $\mathbb{R}^m.$

Como $f $ es continua, $ f^{-1}(g^{-1}(\mathcal{W}))$ es abierto en $\mathbb{R}^n.$

¿Coinciden $ f^{-1}(g^{-1}(\mathcal{W}))$ con $ (g \circ f)^{-1}(\mathcal{W})$?

Por un lado tenemos que:

$(g \circ f)^{-1}(\mathcal{W}) = \{ x \in \mathbb{R}^n \mid (g \circ f)(x) \in \mathcal{W}\} = \{ x \in \mathbb{R}^n \mid (g(f(x))) \in \mathcal{W} \} … (1)$

Por otro lado:

$g^{-1}(\mathcal{W}) = \{ y \in \mathbb{R}^m \big| g(y) \in \mathcal{W} \}$

$f^{-1}(g^{-1}(\mathcal{W})) = \big\{ x \in \mathbb{R}^n \big| f(x) \in g^{-1}(\mathcal{W}) \big\}$

$f^{-1}(g^{-1}(\mathcal{W})) = \big\{ x \in \mathbb{R}^n \big| g(f(x)) \in \mathcal{W} \big\} … (2)$

Luego como $(1)$ y $(2)$ son iguales se tiene que $$ f^{-1}(g^{-1}(\mathcal{W})) = (g \circ f)^{-1}(\mathcal{W}) \; _{\blacksquare}$$

Teorema 2:

Sean $f, g:\mathbb{R}^n \longrightarrow \mathbb{R}$ continuas.

Entonces

(1) $ f + g$ es continua.

(2) $f . g$ es continua y en los puntos $x_0$ donde $g(x_0) \neq 0, \frac{f}{g} $ es continua.

Demostración:

Primer inciso:

Por hipótesis, $f, g:\mathbb{R}^n \longrightarrow \mathbb{R}$ continuas.

(1) $\big[$ por demostrar: $ f + g : A \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ es continua.$\big]$

Sea $x_0 \in A.$

Sea $\epsilon > 0.$

Como $f$ es continua, existe $\delta_1 > 0 $ tal que si $x \in B_{\delta_1}(x_0) $ entonces $ f(x) \in B_{\frac{\epsilon}{2}}(f(x_0))…….(1)$

También, como $g$ es continua, existe $\delta_2 > 0 $ tal que si $x \in B_{\delta_2}(x_0) $ entonces $ g(x) \in B_{\frac{\epsilon}{2}} \big( g(x_0) \big)…….(2)$

Luego, si $x \in B_{\delta_3}(x_0) \Rightarrow f(x) + g(x) \in B_{\epsilon} \big( f(x_0) + g(x_0) \big)$ con $\delta_3 = mín \big\{ \delta_1 , \delta_2 \big\}$ ya que de $(1)$ y $(2)$:

Sumando $ \big\| f(x) \, – \, f(x_0) \big\| < \frac{\epsilon}{2}$ y $\big\| g(x) \, – \, g(x_0) \big\| < \frac{\epsilon}{2}$ se tiene que $$\big\| f(x) \, – \, f(x_0) \, + \, g(x) \, – \, g(x_0) \big\| \leq \big\| f(x) \, – \, f(x_0) \big\| + \big\| g(x) \, – \, g(x_0) \big\| < \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon $$

Segundo inciso.

Por hipótesis, $f, g:\mathbb{R}^n \longrightarrow \mathbb{R}$ continuas.

(2) $\big[$ por demostrar: $f . g : A \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ es continua.$\big]$

Sea $x_0 \in A.$

Sea $\epsilon > 0.$

Sea $\delta_0$ tal que si $x \in B_{\delta_0}(x_0)$ entonces $ \big| f(x) \big| < 1 + \big| f(x_0) \big|$

Como $f$ es continua, existe $\delta_1 > 0 $ tal que si $x \in B_{\delta_1}(x_0) $ entonces $ f(x) \in B_{\frac{\epsilon}{2}} \big( f(x_0) \big)…….(1)$

También, como $g$ es continua, existe $\delta_2 > 0 $ tal que si $x \in B_{\delta_2}(x_0) $ entonces $ g(x) \in B_{\frac{\epsilon}{2}} \big( g(x_0)\big)…….(2)$

Luego, si $x \in B_{\delta_3}(x_0)$ entonces $f(x).g(x) \in B_{\epsilon} \big( f(x_0).g(x_0) \big).$

Sea $ \delta_3 = mín \big\{ \delta_0 , \delta_1 , \delta_2 \big\}$

$\big[$ por demostrar: $ \big|f(x)g(x) \, – \, f(x_0)g(x_0) \big| < \epsilon.$ $\big]$

$\begin{align*} \big| f(x)g(x) \, – \, f(x_0)g(x_0) \big| &= \big| f(x)g(x) \, – \, f(x)g(x_0) \, + \, f(x)g(x_0) \, – \, f(x_0)g(x_0) \big| < \big| f(x)g(x) \, – \, f(x)g(x_0) \big| + \big| f(x)g(x_0) \, – \, f(x_0)g(x_0) \big| \\ \\ &= \big| f(x)|.|g(x) \, – \, g(x_0) \big| + \big| f(x) \, – \, f(x_0) \big|.\big| g(x_0) \big| \leq \big|(1 + \big| f(x_0) \big| \big) \big| g(x) \, – \, g(x_0) \big| + \big| f(x) \, – \, f(x_0) \big|. \big| g(x_0) \big| \\ \\ &\leq \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon \end{align*}$

33.Material de prueba: La imagen inversa de abiertos es abierta bajo una función continua.

Por Mariana Perez

Proposición 1:

Sea $f : A \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^m $ una función continua en $A$ y $A$ un conjunto abierto.

Entonces para todo abierto $\mathcal{V} \subseteq \mathbb{R}^m $ la imagen inversa de $\mathcal{V}$, $f^{-1}(\mathcal{V})$ es un abierto de $\mathbb{R}^n.$

Demostración:

Sea $\mathcal{V}$ abierto de $\mathbb{R}^n.$

Supongamos que $f^{-1}(\mathcal{V}) \neq \emptyset.$

Si $f^{-1}(\mathcal{V}) = \emptyset $ , es un abierto entonces, terminó la demostración.

Ahora bien, sea $\vec{x_0} \in f^{-1}(\mathcal{V})$ entonces $f(\vec{x_0}) \in \mathcal{V}$ luego, $f(\vec{x_0})$ es punto interior de $\mathcal{V}.$

$\big[$ por demostrar: $\vec{x_0}$ es punto interior de $f^{-1}(\mathcal{V}$ $\big]$

Por hipótesis, $f$ es continua.

Sea $\epsilon > 0 $ tal que $B_{\epsilon}(f(\vec{x_0})) \subseteq \mathcal{V}$. Dicha $\epsilon$ existe porque $\mathcal{V}$ es abierto y $f(\vec{x_0}) \in \mathcal{V}.$

Entonces, existe $\delta > 0$ tal que si $\vec{x} \in B_{\delta}(\vec{x_0})$ entonces $f(\vec{x}) \in B_{\epsilon}(f(\vec{x_0})) \subseteq \mathcal{V}.$

$\vec{x_0}$ es punto interior de $f^{-1}(\mathcal{V})$ ya que $B_{\delta}(\vec{x_0}) \subseteq f^{-1}(\mathcal{V})$

Razón: $\vec{x} \in B_{\delta}(\vec{x_0})$ entonces $f(\vec{x}) \in B_{\epsilon}(f(\vec{x_0}))$ entonces $f(\vec{x}) \in \mathcal{V}$ implica $\vec{x} \in f^{-1}(\mathcal{V})._{\blacksquare}$

Proposición 2:

Sea $A \subseteq \mathbb{R}^n$ un abierto.

Sea $f : A \subseteq \mathbb{R}^n \rightarrow \mathbb{R}^m.$

Si la imagen inversa de abiertos en $\mathbb{R}^m$ es un abierto en $\mathbb{R}^n$, entonces la función $f$ es continua en $A.$

Demostración:

Sea $\vec{x_0} \in A.$

$\big[$ por demostrar: $f$ es continua en $\vec{x_0}$ $\big]$

Sea $\epsilon > 0.$

$\big[$ por demostrar: existe $\delta > 0$ tal que si $x \in B_{\delta}(\vec{x_0})$ entonces $f(\vec{x}) \in B_{\epsilon} (f(\vec{x_0}))$ $\big]$

Sea $\mathcal{V} = B_{\epsilon} (f(\vec{x_0}))$ es un abierto de $\mathbb{R}^m$.

Por hipótesis, $f^{-1}(\mathcal{V}) \subseteq \mathbb{R}^n$ es abierto.

Existe $\delta_1 > 0 $ tal que $B_{\delta} (\vec{x_0}) \subseteq f^{-1}(\mathcal{V}).$

$A$ es abierto, existe $\delta_2 > 0 $ tal que $B_{\delta_2}(\vec{x_0}) \subseteq A.$

Sea $\delta = mín\{ \delta_1 , \delta_2\}$ es la $\delta$ que necesitamos. $_{\blacksquare}$

Teorema:

Sea $f : \mathcal{K} \subset \mathbb{R}^n \longrightarrow \mathbb{R}^m.$

Si $f$ es continua en $\mathcal{K}$ y $\mathcal{K}$ es compacto, entonces $f$ es uniformemente continua en $\mathcal{K}.$

Demostración:

Sea $\epsilon > 0.$

Como $f$ es continua, para cada $x \in \mathcal{K}$ existe $\delta_x > 0$ tal que si $ \| x-y \| < \delta_x $ entonces $\big\|f(x) – f(y) \big\| < \frac{\epsilon}{2}$

Como $\mathcal{K}$ es compacto, $\mathcal{K} \subseteq \bigcup\limits_{x \in \mathcal{K}} B_{\frac{\delta_x}{2}}(x)$ es una cubierta abierta de $\mathcal{K}.$

Entonces, existe una subcubierta finita $B_{\frac{\delta_1}{2}}(x_1), \dots , B_{\frac{\delta_l}{2}}(x_l).$

Tomemos $ \delta = mín \big\{ \frac{\delta_1}{2} , \dots , \frac{\delta_l}{2} \big\}.$

Si $\big\| x \, – \, y \big\| < \delta $ entonces $ y \in B_{\delta}(x)$ pero $ x \in B_{\frac{\delta_j}{2}}(x_j) $ para alguna $j$

$$\big\| x \, – \, x_j \big\| < \frac{\delta_j}{2} \Rightarrow x_j \in B_{\frac{\delta_j}{2}}(x)$$

$$\big\| f(x) \, – \, f(x_j) \big\| < \frac{\epsilon}{2} $$

Luego, si $\big\| y \, – \, x_j \big\| = \big\| y \, – \, x \, + \, x \, – \, x_j \big\| \leq \big\| y \, – \, x \big\| + \big\|x \, – \, x_j \big\| < \delta + \frac{\delta_j}{2} \leq \frac{\delta_j}{2} + \frac{\delta_j}{2} = \delta $

$y \in B_{\delta_j}(x_j) \Rightarrow \big\| f(y) \, – \, f(x_j) \big\| < \frac{\epsilon}{2}$

En consecuencia,

$$\big\| f(x) \, – \, f(y) \big\| \leq \big\| f(x) \, – \, f(x_j) \big\| + \big\| f(x_j) \, – \, f(y) \big\| < \frac{\epsilon}{2} + \frac{\epsilon}{2} = \epsilon \; _{\blacksquare}$$

18.1 Material en revisión: Cortes de nivel de una función

Por Mariana Perez

Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}$

$$f(x, y) = \left\{ \begin{array}{rcl} \frac{y}{x} & si & x \neq 0 \\ 0 & si & x = 0\end{array} \right.$$

Queremos saber:

  • ¿En qué puntos $f$ tiene límite?
  • ¿En qué puntos $f$ no tiene límite?
  • ¿Cómo es la gráfica de $f$ ?

Analicemos diferentes cortes para poder responder estas preguntas.

1. Cortes paralelos al plano $yz$

$x = x_0$ constante.

$$f(x_0, y) = \left\{ \begin{array}{rcl} \frac{y}{x_0} & si & x_0 \neq 0 \\ 0 & si & x_0 = 0\end{array} \right.$$

Corte especial para $x = 0$

para $x = x_0 = 0$

$$f(0, y) = 0$$

En la siguiente animación, puedes ver los cortes para diferentes valores de $x_0$.

https://www.geogebra.org/classic/vaquauek

2. Cortes con el plano $x=1$

$z=f(1, y) = \frac{y}{1}$

https://www.geogebra.org/classic/mt9rgkzj

3. Cortes paralelos al plano $xz$

$y = y_0$ constante.

$$f(x, y_0) = \left\{ \begin{array}{rcl} \frac{y_0}{x} & si & x \neq 0 \\ 0 & si & x = 0\end{array} \right.$$

Corte especial para $y=0$

para $y=y_0=0$

$f(x, 0) = 0$

$$f(x, 0) = \left\{ \begin{array}{rcl} 0 & si & x \neq 0 \\ 0 & si & x = 0\end{array} \right.$$

En la siguiente animación, puedes ver los cortes para diferentes valores de $y_0$.

https://www.geogebra.org/classic/cmppwyss