Archivo de la categoría: Sin clasificar

45. Material en revisión: Lunes 23 de septiembre

Por Mariana Perez

Ejemplo: Una elipse $\dfrac{x^2}{a^2} + \dfrac{y^2}{b^2} = 1$

$\alpha (t) = (a \cos t, b \sin t )$

$\alpha (t) = \big( x (t), y (t) \big)$

Fórmula para calcular la curvatura $$ \mathcal{K} (t) = \dfrac{ \begin{equation*} \begin{vmatrix} x’ & {x}^{\prime \prime }\\ y’ & {y}^{\prime \prime } \end{vmatrix} \end{equation*} }{\| {\alpha}’ (t) \|^3}$$

$x (t) = a \cos t \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; y (t) = b \sin t$

$x’ (t) = – a \sin t \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; y’ (t) = b \cos t$

${x}^{\prime \prime } (t) = – a \cos t \; \; \; \; \; \; \; \; \; \; \; \; \; \; {y}^{\prime \prime } (t) = – b \sin t$

$\begin{equation*}\begin{vmatrix} x’ & {x}^{\prime \prime } \\ y’ & {y}^{\prime \prime } \end{vmatrix} = \begin{vmatrix} – a \sin t & – a \cos t\\ b \cos t & – b \sin t \end{vmatrix}\end{equation*}$

$\begin{equation*}\begin{vmatrix} x’ & {x}^{\prime \prime }\\ y’ & {y}^{\prime \prime } \end{vmatrix} \end{equation*} = ab \sin^2 t + ab \cos^2 t $

$\begin{equation*}\begin{vmatrix} x’ & {x}^{\prime \prime }\\ y’ & {y}^{\prime \prime } \end{vmatrix} \end{equation*} = ab $

Luego

$\| {\alpha}’ (t) \| = \sqrt{ (- \, a \sin t)^2 + ( b \cos t )^2}$

$\| {\alpha}’ (t) \| = \sqrt{a^2 \sin^2 t + b^2 \cos^2 t }$

$$\mathcal{K} (t) = \dfrac{ab}{\Big( a^2 \sin^2 t + b^2 \cos^2 t \Big)^{\frac{3}{2}}}$$

Si $a > b$ entonces $b^2 \cos^2 t = b^2 ( 1 \, – \, \sin^2 t)$

Entonces $a^2 \sin^2 t + b^2 \cos^2 t = a^2 \sin^2 t + b^2 \, b^2 (1 \, – \, \sin^2 t) = (a^2 \, – \, b^2) \sin^2 t + b^2$

Luego $\| {\alpha}’ (t) \| = (a^2 \, – \, b^2) \sin^2 t + b^2$

Como $0 \leq \sin^2 t \leq 1$ el valor máximo de $\| {\alpha}’ (t) \| = a$ y el mínimo $\| {\alpha}’ (t) \| = b$

Por lo que la $\mathcal{K}$ máxima es $\dfrac{b}{a^2}$ y la $\mathcal{K}$ mínima es $\dfrac{a}{b^2}$

(a) Puntos donde la elipse está más curva $(\pm a, 0)$, son cuando $t = 0,\, \pi,\, 2\pi,\, \Rightarrow \mathcal{K} = \dfrac{a}{b^2}$. Y el radio de curvatura es $\dfrac{b^2}{a}$

(b) Puntos donde la elipse está menos curva $(0, \pm b)$, son cuando $t = \dfrac{\pi}{2},\, \dfrac{3\pi}{2},\, \dotsc \Rightarrow \mathcal{K} = \dfrac{b}{a^2}$. Y el radio de curvatura es $\dfrac{a^2}{b}$

Los puntos anteriores son los vértices de la elipse.

Observación: la curvatura está dada por la derivada del vector tangente unitario $T$ con respecto al parámetro longitud de arco $s$.

$\dfrac{dT}{ds}$, que no es lo mismo que $\dfrac{dT}{dt}$. La relación es $\dfrac{dT}{ds}= \dfrac{dT}{dt} \dfrac{dt}{ds}$

Si la curva es plana

$T (s) = (\cos (\phi (s)), \sin (\phi (s)))$

$\dfrac{dT}{ds} = ( \, – \, \sin (\phi (s)) {\phi}’ (s) , \cos (\phi (s)) {\phi}’ (s))$

$\dfrac{dT}{ds} = {\phi}’ (s) N (s)$

$\mathcal{K} (s) = \dfrac{d \phi}{ds}$

$\Bigg\| \dfrac{dT}{ds}\Bigg\| = \big| \mathcal{K}\big|$

${}$

Para curvas en $\mathbb{R}^3$ tenemos el concepto de contacto con superficies (planos, esferas)

$s \rightarrow \alpha (s) \in \mathbb{R}^3$

Podemos estudiar $f (s) = F \, \circ \, \alpha (s)$

Donde $\alpha (s) = \big( x (s), y (s), z (s) \big)$ y $F : (x, y, z)$ es $F : \mathbb{R}^3 \rightarrow \mathbb{R}$

entonces $ F \big( x (s), y (s), z (s) \big) = f (s)$

si $f (s_0) = 0$ , $f’ (s_0) = 0$ y ${f }^{\prime \prime} (s_0) \neq 0$ enotnces la curva $\alpha$ tiene contacto de orden 2 con la superficie $F^{-1} (0)$ en el punto $\alpha (s_0).$

si $f (s_0) = 0$ , $f’ (s_0) = 0$ , ${f }^{\prime \prime} (s_0) = 0$ y ${f }^{\prime \prime \prime} \neq 0$ enotnces la curva $\alpha$ tiene contacto de orden 3 con la superficie $F^{-1} (0)$ en el punto $\alpha (s_0).$

${}$

Contacto de la curva con la esfera

Sea $\alpha$ una curva parametrizada con rapidez unitaria $ \alpha = \alpha (s).$

Sea $F ( \vec{x}) = \| \vec{x} \, – \, \vec{u} \|^2 \, – \, \| \vec{\alpha}(s_0) \, – \, \vec{u} \|^2$ que cumpla que $F^{-1} (0) $ es la esfera con centro en $\vec{u}$ y que pasa por el punto $\vec{\alpha} (s_0)$

Además

$\vec{x} \, – \, \vec{u}$ es el vector que empieza un $\vec{u}$ y acaba en $\vec{x}.$

$\| \vec{x} \, – \, \vec{u} \|$ es la distancia de $\vec{x}$ a $\vec{u}.$

$\vec{\alpha}(s_0) \, – \, \vec{u}$ es el vector que empieza un $\vec{u}$ y acaba en $\alpha (s_0).$

$\| \vec{\alpha}(s_0) \, – \, \vec{u} \|$ radio de la esfera $ = r$

Ecuación de la esfera

$\| \vec{x} \, – \, \vec{u} \| = r $

$\| \vec{x} \, – \, \vec{u} \|^2 = r^2$

$\| \vec{x} \, – \, \vec{u} \|^2 \, – \, r^2 = 0 $

Luego

$f (s) = \| \vec{\alpha}(s) \, – \, \vec{u} \|^2 \, – \, \| \vec{\alpha}(s_0) \, – \, \vec{u} \|^2$ cumple que $f (s_0) = 0 $

¿Cuáles esferas tienen contacto $\geq 2$?

$f (s_0) = 0 $ y $f’ (s_0) = 0 $

$ f (s) = \langle \alpha (s) \, – \, u , \alpha (s) \, – \, u \rangle \, – \, r^2$

$ f’ (s) = 2 \langle \alpha (s) \, – \, u , {\alpha}’ (s) \rangle $

$ \dfrac{1}{2} f’ (s) = \langle \alpha (s) \, – \, u , {\alpha}’ (s) \rangle = 0 $ si y sólo si $\alpha (s_0) \, – \, u \, \perp \, T (s_0) $ si y solo si $ u \, – \, \alpha (s_0) \, \perp \, T (s_0).$

El plano norma a $T (s_0)$ está generado por el $N (s_0)$ y el $B (s_0)$ entonces, $$u \, – \, \alpha (s_0) = \lambda N (s_0) + \mu B (s_0)$$

Pidamos que $f (s_0) = 0$, $f’ (s_0) = 0$ y ${f}^{\prime \prime} (s_0) = 0$, es decir, contacto $\geq 3$

${f}^{\prime \prime} (s_0) = 0 \iff \dfrac{1}{2} {f}^{\prime \prime} (s_0) = 0$

Como $\dfrac{1}{2} {f’} (s_0) = \langle \alpha \, – \, u , {\alpha}’ \rangle$

Entonces $\dfrac{1}{2} {f’} (s_0) = \langle \alpha \, – \, u , T \rangle$ y $\dfrac{1}{2} {f}^{\prime \prime} (s_0) = \langle {\alpha}’ , T \rangle + \langle \alpha \, – \, u , T’ \rangle$

Entonces $\dfrac{1}{2} {f}^{\prime \prime} (s_0) = \langle T , T \rangle + \langle \alpha \, – \, u , \mathcal{K} N \rangle = 1 + \langle \lambda N (s_0) + \mu B (s_0) , \mathcal{K} N \rangle = 0$

Entonces $ 1 = \mathcal{K} \lambda \langle N (s_0), N (s_0)\rangle + \mu \mathcal{K} \langle B (s_0), N (s_0) \rangle$

Por lo tanto $1 = \lambda \mathcal{K} (s_0) $ es decir que $$ \lambda = \dfrac{1}{\mathcal{K} (s_0)}$$

Ahora pidamos además ${f}^{\prime \prime \prime} (s_0) = 0$, es decir, contacto $\geq 4.$

${f}^{\prime \prime \prime} (s_0) = 0 \iff \dfrac{1}{2} {f}^{\prime \prime \prime} (s_0) = 0$

Como $\dfrac{1}{2} {f}^{\prime \prime } (s_0) = 1 + \langle \alpha \, – \, u , \mathcal{K} N \rangle$

Entonces $\dfrac{1}{2} {f}^{\prime \prime \prime} (s) = \langle {\alpha}’ , \mathcal{K} N \rangle + \langle \alpha \, – \, u , \mathcal{K}’ N \rangle + \langle \alpha \, – \, u , \mathcal{K} N’ \rangle$

Evaluamos en $(s_0)$ y obtenemos que:

$\dfrac{1}{2} {f}^{\prime \prime \prime} (s_0) = \Bigg\langle T (s_0) , \mathcal{K} (s_0) N (s_0) \Bigg\rangle + \Bigg\langle \dfrac{- 1}{\mathcal{K} (s_0)} N (s_0) \, – \, \mu B (s_0) , \mathcal{K}’ (s_0) N (s_0) \Bigg\rangle + \Bigg\langle \dfrac{- 1}{\mathcal{K} (s_0) } N (s_0) \, – \, \mu B (s_0) , \mathcal{K} (s_0) N’ (s_0) \Bigg\rangle$

Entonces que $\dfrac{1}{2} {f}^{\prime \prime \prime} (s_0) = 0$ significa que

$0 = \dfrac{- 1}{\mathcal{K} (s_0)} \mathcal{K}’ (s_0) \, – \, \mu \mathcal{K} (s_0) \Bigg\langle B (s_0) , N’ (s_0) \Bigg\rangle$

Si $N’ (s_0) = – \, \mathcal{K} (s_0) T (s_0) + \tau (s_0) B (s_0)$

Entonces $$ \dfrac{ \mathcal{K}’ (s_0) }{\mathcal{K} (s_0) } = – \, \mu \mathcal{K} (s_0) \Big( B (s_0), \Big\langle \, – \, \mathcal{K} (s_0) T (s_0) + \tau (s_0) B (s_0)\Big\rangle \Big)$$

Por lo tanto $ \dfrac{ \mathcal{K}’ (s_0) }{\mathcal{K} (s_0) } = – \, \mu \mathcal{K} (s_0) \tau (s_0)$

Es decir $$\mu = \dfrac{ \mathcal{K}’ (s_0)}{\mathcal{K}^2 (s_0) \tau (s_0)}$$

Si $ \mathcal{K} (s_0) \neq 0$ y $\tau (s_0) \neq 0$ entonces existe una esfera única que tiene contacto al menos 4 (esfera osculatriz).

Si $ \mathcal{K}’ (s_0) = 0$ y $\tau (s_0) = 0$ pero $\mathcal{K} (s_0) \neq 0$ también existe dicha esfera, pero no es única, ya que $\mu$ es libre.

44. Material en revisión: Contacto entre curvas

Por Mariana Perez

Motivación:

Comparar una curva parametrizada $\alpha$ con una familia de curvas (círculos, rectas, …).

Círculos

$F^{-1} (0)$ para una función $F(x, y) = x^2 + y^2 – r^2$

Rectas

$F^{-1} (0)$ para una función $F(x, y) = ax + by + c$

${}$

Sea $\alpha : \mathcal{I} \rightarrow \mathbb{R}^2$ una curva parametrizada $\alpha (t) = \big( x (t), y (t) \big).$

Sea $F : \mathbb{R}^2 \rightarrow \mathbb{R}$ una función $F (x, y).$

Consideremos un punto $p = \alpha (t_0)$ y supongamos que $p$ está en la curva de nivel cero de $F$, es decir, $F (p) = 0$

Sea $g : \mathcal{I} \rightarrow \mathbb{R}$ la composición $F \circ \alpha$ donde a cada $ t \rightarrow F \big( \alpha (t_0) \big) = F (p) = 0$

Decimos que la curva $\alpha$ y la curva de nivel $F^{-1} (0)$ tienen un contacto de orden $k$ en $p = \alpha (t_0)$ si: $$g (t_0) = 0$$ $$g’ (t_0) = 0$$ $${g}^{\prime \prime} (t_0) = 0$$ $$\vdots$$ $$g^{k-1} (t_0) = 0$$ pero $$g^k (t_0) \neq 0$$

Apliquemos este concepto.

Sea $\vec{u} = (a, b) \in \mathbb{R}^2$ un vector distinto de $\vec{0}.$

$F (\vec{x}) = \big\| \vec{x} \, – \, \vec{u} \big\|^2 \, – \, \big\| \vec{p} \, – \, \vec{u} \big\|^2$

$\vec{p} \in F^{-1} (0)$

$g (s) = F( \alpha (s))$

$g (s) = \big\| \alpha (s) \, – \, \vec{u} \big\|^2 \, – \ \big\| \alpha(s_0) \, – \, \vec{u} \big\|^2$

$g (s_0) = F (p) = 0 $

$g (s) = \langle \alpha \, – \, u, \alpha \, – \, u \rangle $

$g’ (s) = \langle {\alpha}’ , \alpha \, – \, u \rangle \langle \alpha \, – \, u, {\alpha}’ \rangle = 2 \langle \alpha \, – \, u, {\alpha}’ \rangle $

Además $g’ (s_0) = 0 \iff \langle \alpha (s_0) \, – \, u, {\alpha}’ (s_0) \rangle = 0$, es decir, si el vector $\alpha (s_0) \, – \, u$ es ortogonal al vector tangente ${\alpha}’ (s_0) = T (s_0).$

$g (s_0) = 0$ y $g’ (s_0) = 0 \iff $ la curva $\alpha$ y $F^{-1} (0)$ pasan por el punto $p = \alpha (s_0) $ y el círculo $F^{-1} (0)$ es tangente a la curva $\alpha$ en el punto $p$ si y sólo si, $u$ céntro del círciño, está en la recta normal a la curva $\alpha$ en el punto $p = \alpha (s_0).$ Es decir, $$\alpha (s_0) \, – \, u \perp T$$

¿Cómo debe ser $\vec{u}$ para que ${g}^{\prime \prime} (s_0) = 0$? Además de que $ g (s_0) = 0$ y ${g}’ (s_0) = 0$

${g}’ (s) = 2 \langle \alpha (s) \, – \, u, {\alpha}’ (s) \rangle$

${g}^{\prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}’ (s) \rangle + \langle {\alpha} (s) \, – \, u, {\alpha}^{\prime \prime} (s) \rangle \Big]$

Luego

$${g}^{\prime \prime} (s) = 0 \iff \langle {\alpha} (s_0) \, – \, u, {\alpha}^{\prime \prime} (s_0) \rangle + 1 = 0$$

$${g}^{\prime \prime}(s) = 0 \iff \langle {\alpha} (s_0) \, – \, 1, \mathcal{K} N (s_0) \rangle + 1 = 0$$

como ${\alpha} (s_0) \, – \, u \perp T \iff u\, – \, {\alpha} (s_0) = \lambda N (s_0)$ para algún $\lambda \in \mathbb{R}$

$${g}^{\prime \prime} (s) = 0 \iff \langle \, – \, \lambda N, \mathcal{K} N \rangle = 0$$

Despejemos ${\lambda}^*$, entonces

$$ 1 \, – \, {\lambda}^* \mathcal{K} \langle N, N \rangle = 0 $$

$$ 1 \, – \, {\lambda}^* \mathcal{K} = 0 $$

$$ {\lambda }^* = \dfrac{1}{\mathcal{K}}$$

de todos los círculos con centro en la recta normal a $\alpha$ en $p$ que pasan por $p$, el que tiene un orden de contacto mayor con la curva $\alpha$ es el que tiene centro en el punto $$u = \alpha (s_0) + {\lambda}^* N (s_0)$$ $$u = p + \dfrac{1}{\mathcal{K}} N(s_0)$$

es el CÍRCULO OSCULADOR.

Si pedimos $g (s_0) = 0$ nos quedamos con círculos que pasan por el punto $p.$

Si además pedimos que ${g}^{\prime } (s_0) = 0$ nos quedamos con círculos cuyos centros están en la recta normal a $\alpha$ en el punto $p.$

Si también pedimos ${g}^{\prime \prime} (s_0) = 0$ nos quedamos con círculos cuyo centro coincide con el círculo osculador. (esto ocurre si ${\alpha}^{\prime \prime} (s_0) \neq \vec{0}$) Si $\mathcal{K} (s_0) = 0$ no existiría tal círculo.

Si además pedimos que ${g}^{ \prime \prime \prime} (s_0) = 0$ ¿qué sucede?

${g}’ (s) = 2 \langle \alpha (s) \, – \, u, {\alpha}’ (s) \rangle$

${g}^{\prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}’ (s) \rangle + \langle \alpha (s) \, – \, u , {\alpha}^{\prime \prime} (s) \rangle \Big]$

${g}^{\prime \prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}^{\prime \prime} (s) \rangle + \langle \alpha (s) \, – \, u , {\alpha}^{\prime \prime \prime} (s) \rangle \Big]$

Luego ${g}^{\prime \prime \prime} (s) = 0 \iff \langle \alpha (s_0) \, – \, u , {\alpha}^{\prime \prime \prime} (s_0) \rangle = 0 $

Como $u \, – \, \alpha (s_0) = \lambda N (s_0)$

Entonces $\begin{align*} \langle \alpha (s_0) \, – \, u , {\alpha}^{\prime \prime \prime} (s_0) \rangle &= \langle \lambda N (s_0), \mathcal{K}’ (s_0) N (s_0) + \mathcal{K} N’ (s_0) \rangle \\ &= \lambda \mathcal{K}’ (s_0) \\ &= \dfrac{1}{\mathcal{K} (s_0)} \mathcal{K}’ (s_0) \end{align*}$

Entonces tenemos que $ g (s_0) = g’ (s_0) = {g}^{\prime \prime} (s_0) = {g}^{\prime \prime \prime} (s_0) \iff \mathcal{K} (s_0) \neq 0$ contacto de orden $ \geq 4$

${}$

Definición:

Sea $p = \alpha (s_0)$ un punto en una curva $\alpha = \alpha (s_0).$

Decimos que $p$ es un vértice si existe un círculo $\mathcal{C}$ que tiene contacto de orden al menos 4 con la curva $\alpha.$

Vértice Ordinario, si el contacto es de orden 4.

Vértice Degenerado, si el contacto es de orden mayor que 4.

Orden 4 $ \iff g (s_0) = g’ (s_0) = {g}^{\prime \prime} (s_0) = {g}^{\prime \prime \prime} (s_0) = 0.$

${}$

Definición:

Sea $p = \alpha (s_0)$ un punto en una curva. Decimos que $p$ es un punto de inflexión si tiene contacto de orden al menos 3 con la recta tangente.

Punto de inflexión Ordinario, si el contacto es de orden 3.

Punto de inflexión Degenerado, si el contacto es de orden mayor que 3.

43. Miércoles 18 de septiembre

Por Mariana Perez

Fórmulas para curvatura y torsión cuando la curva no está parametrizada por longitud de arco.

(*) Expresar la curvatura y la torsión como determinantes.

(*) Usar la regla de la cadena para derivar composiciones.

CASO $n = 2$ curva plana

Dada $\alpha (t) = \big( x(t), y(t) \big)$ y $t = h (s)$ con $s = $ longitud de arco; entonces $$\gamma (s) = \alpha ( h ( s)) = ( u (s) , v (s) )$$ $${\gamma}’ (s) = ( u’ (s) , v’ (s) )$$

Curvatura de $\gamma$ en el punto $s$ es el número $\mathcal{K}$ para el cual se cumple la ecuación $$ {\gamma}^{\prime \prime} (s) = \mathcal{K} \big( – \, v’ (s), u’ (s) \big)$$

Así definida $\mathcal{K} (s)$ puede ser $\mathcal{K} (s) > 0$, $\mathcal{K} (s) < 0$ o incluso $\mathcal{K} (s) = 0.$

Se sigue cumpliendo que $$\big|\mathcal{K}\big| = \big\| {\gamma}^{\prime \prime} (s) \big\|$$

Si $\gamma (s)$ está dada por longitud de arco, entonces $$\big\| {\gamma}’ (s) \big\| = 1 \iff \langle{\gamma}’ (s) , {\gamma}’ (s) \rangle = 1$$

Derivando $$\begin{align*} \langle{\gamma}^{\prime \prime} (s) , {\gamma}’ (s) \rangle + \langle{\gamma}’ (s) , {\gamma}^{\prime \prime} (s) \rangle &\equiv 0 \\ \langle{\gamma}’ (s) , {\gamma}^{\prime \prime} (s) \rangle &\equiv 0 \end{align*}$$

$$ \therefore {\gamma}^{\prime \prime} (s) \text{ es ortogonal a } {\gamma}’ (s)$$

Luego, ${\gamma}^{\prime \prime} (s)$ está en la recta ortogonal a ${\gamma}’ (s).$

¿Cuál es el signo de $\mathcal{K}(s)$?

Observemos el producto punto de ${\gamma}^{\prime \prime} (s)$ con $\big( -\, v(s), u (s) \big).$

Signo de $\mathcal{K} (s) = $ signo $\Bigl| \begin{smallmatrix} u’ & {u}^{\prime \prime} \\ v’ & {v}^{\prime \prime} \end{smallmatrix} \Bigr|$

Por lo que el signo de $\mathcal{K} (s)$ está dado por el signo del determinante de $\big( {\gamma}’ | {\gamma}^{\prime \prime} \big).$

Luego

$\begin{align*} {u}^{\prime \prime} &= – \, \mathcal{K} v’ \\ {v}^{\prime \prime} &= \mathcal{K} u’ \end{align*}$

Por lo que

$\begin{align*} \Bigl| \begin{smallmatrix} u’ & {u}^{\prime \prime} \\ v’ & {v}^{\prime \prime} \end{smallmatrix} \Bigr| &= \Bigl| \begin{smallmatrix} u’ & – \mathcal{K}{v’} \\ v’ & \mathcal{K} {u’} \end{smallmatrix} \Bigr| \\ &= u’ u’ \mathcal{K} \, – \, v’ v’ \mathcal{K} \\ &= \mathcal{K} \big( (u’)^2 – (v’)^2 \big) \\ &= \mathcal{K}\end{align*}$$

Entonces $$\big| {{\gamma}’} \big| = \big| (u’ , v’) \big| = 1 $$

1° paso: La curvatura se puede ver como

$$ \mathcal{K} (s) = \Bigl| \begin{smallmatrix} u’ (s) & {u}^{\prime \prime} (s) \\ v’ (s) & {v}^{\prime \prime} (s) \end{smallmatrix} \Bigr|$$

2° paso: Ahora consideremos la relación con cambio de variable.

$$u (s) = x \big( h (s) \big) = x (t)$$

Derivando

$u’ (s) = \dfrac{du}{ds} = \dfrac{dx}{dt} \dfrac{dt}{ds} = \dot{x} (t) \dfrac{dt}{ds}$

${u}^{\prime \prime} (s) = \dfrac{d}{ds} \Big( \dfrac{dx}{dt} \dfrac{dt}{ds} \Big) $

${u}^{\prime \prime} (s) = \Big( \dfrac{d}{ds} \dfrac{dx}{dt} \dfrac{dt}{ds} + \dfrac{dx}{dt} \Big( \dfrac{d}{ds} \dfrac{dt}{ds} \Big)$

${u}^{\prime \prime} (s) = \dfrac{d^2x}{dt^2} \dfrac{dt}{ds} \dfrac{dt}{ds} + \dfrac{dx}{dt} \dfrac{d^2t}{ds^2} {u’}’ (s)$

${u}^{\prime \prime} (s) = \ddot{x} (t) \Big( \dfrac{dt}{ds} \Big)^2 + \dot{x} (t) \dfrac{d^2t}{ds^2}$

Entonces la curvatura está dada por:

$\mathcal{K} (s) = \begin{vmatrix} u’ (s) & {u}^{\prime \prime} (s) \\ {} \\ v’ (s) & {v}^{\prime \prime} (s) \end{vmatrix}$

${}$

$\mathcal{K} (s) = \begin{vmatrix} \dfrac{du}{ds} & \dfrac{d^2u}{ds^2} \\ {}\\ \dfrac{dv}{ds} & \dfrac{d^2v}{ds^2} \end{vmatrix}$

${}$

$\mathcal{K} (s) = \begin{vmatrix} \dfrac{dx}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{d^2x}{dt^2} \Big( \dfrac{dt}{ds}\Big)^2 + \dfrac{dx}{dt} \dfrac{d^2t}{ds^2} \\ {} \\ \dfrac{dy}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{d^2y}{dt^2} \Big( \dfrac{dt}{ds}\Big)^2 + \dfrac{dy}{dt} \dfrac{d^2t}{ds^2} \end{vmatrix}$

${}$

$\mathcal{K} (s) = \begin{vmatrix} \dfrac{dx}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{d^2x}{dt^2} \Big( \dfrac{dt}{ds}\Big)^2 \\ {} \\ \dfrac{dy}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{d^2y}{dt^2} \Big( \dfrac{dt}{ds}\Big)^2 \end{vmatrix} + \begin{vmatrix} \dfrac{dx}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{dx}{dt} \dfrac{d^2t}{ds^2} \\ {} \\ \dfrac{dy}{dt} \dfrac{dt}{ds} & {} & {} & \dfrac{dy}{dt} \dfrac{d^2t}{ds^2} \end{vmatrix}$

${}$

$\mathcal{K} (s) =\Big( \dfrac{dt}{ds}\Big)^3 \begin{vmatrix} \dfrac{dx}{dt} & {} & {} & \dfrac{d^2x}{dt^2} \\ {} \\ \dfrac{dy}{dt} & {} & {} & \dfrac{d^2y}{dt^2} \end{vmatrix} + \Big(\dfrac{dt}{ds}\Big) \dfrac{d^2t}{ds^2} \begin{vmatrix} \dfrac{dx}{dt} & {} & {} & \dfrac{dx}{dt} \\ {} \\ \dfrac{dy}{dt} & {} & {} & \dfrac{dy}{dt} \end{vmatrix}$

${}$

$\mathcal{K} (s) =\Big( \dfrac{dt}{ds}\Big)^3 \begin{vmatrix} \dfrac{dx}{dt} & {} & {} & \dfrac{d^2x}{dt^2} \\ {} \\ \dfrac{dy}{dt} & {} & {} & \dfrac{d^2y}{dt^2} \end{vmatrix}$

${}$

Pero $s = \int\|{\alpha}’ \| (t) dt$ entonces $\dfrac{ds}{dt} = \|{\alpha}’ (t) \| = \sqrt{ \Big(\dfrac{dx}{dt}\Big)^2 + \Big(\dfrac{dy}{dt}\Big)^2}$

Por lo tanto

$\mathcal{K} (s) = \dfrac{ \begin{vmatrix} \dfrac{dx}{dt} & {} & {} & \dfrac{d^2x}{dt^2} \\ {} \\ \dfrac{dy}{dt} & {} & {} & \dfrac{d^2y}{dt^2} \end{vmatrix}}{\Bigg(\Big(\dfrac{dx}{dt}\Big)^2 + \Big(\dfrac{dy}{dt}\Big)^2 \Bigg)^{\frac{3}{2}}}$

Luego, cuando $n = 2$ $$\mathcal{K} (t) = \dfrac{\dot{x} \ddot{y} \, – \, \dot{y} \ddot{x}}{\Big( (\dot{x})^2 + (\dot{y})^2 \Big)^{\frac{3}{2}}}$$

${}$

CASO $n = 3$

1° paso: Expresar la curvatura y la torsión en términos de determinantes.

$$T (s) = {\gamma}’ (s)$$ $$N (s) = \dfrac{{\gamma}^{\prime \prime} (s)}{\| {\gamma}^{\prime \prime} (s)\|}$$

Luego $${\gamma}^{\prime \prime} (s) = \mathcal{K} (s) N(s)$$

y $B (s) = T(s) \times N(s)$

entonces ${\gamma}^{\prime } (s) \times {\gamma}^{\prime \prime} (s) = T (s) \times \mathcal{K} (s) N (s)$

${{\gamma}’} (s) \times {\gamma}^{\prime \prime} (s) = \mathcal{K} (s) \big( T (s) \times N (s) \big) = \mathcal{K} (s) B(s)$

$\| {{\gamma}’} (s) \times {\gamma}^{\prime \prime} (s) \| = \mathcal{K}$ con el parámetro longitud de arco, ya que $\| B(s)\| = 1.$

${}$

Cuando no está parametrizada por longitud de arco, $$\gamma (s) = \big( x (s), y (s), z (s)\big)$$ $${\gamma}’ (s) = \Bigg( \dfrac{dx}{ds}, \dfrac{dy}{ds}, \dfrac{dz}{ds}\Bigg)$$ $${\gamma} (s) = \Bigg( \dfrac{d^2x}{ds^2}, \dfrac{d^2y}{ds^2}, \dfrac{d^2z}{ds^2}\Bigg)$$

Entonces $${\gamma}’ (s) \times { \gamma}^{\prime \prime} (s) = \begin{vmatrix} \hat{i} & \hat{j} & \hat{k} \\ {} \\ \dfrac{dx}{ds} & \dfrac{dy}{ds} & \dfrac{dz}{ds} \\ {} \\ \dfrac{d^2x}{ds^2} & \dfrac{d^2y}{ds^2} & \dfrac{d^2z}{ds^2}\end{vmatrix}$$

$${\gamma}’ (s) \times { \gamma}^{\prime \prime} (s) = \begin{vmatrix} \hat{i} & {} & \hat{j} & {} & \hat{k} \\ {} \\ \dfrac{dx}{dt} \dfrac{dt}{ds} & {} & \dfrac{dy}{dt} \dfrac{dt}{ds} & {} &\dfrac{dz}{dt} \dfrac{dt}{ds} \\ {} \\ \dfrac{d^2x}{dt^2}\Big(\dfrac{dt}{ds}\Big)^2 + \dfrac{dx}{dt}\dfrac{d^2t}{ds^2} & {} & \dfrac{d^2y}{dt^2}\Big(\dfrac{dt}{ds}\Big)^2 + \dfrac{dy}{dt}\dfrac{d^2t}{ds^2} & {} & \dfrac{d^2z}{dt^2}\Big(\dfrac{dt}{ds}\Big)^2 + \dfrac{dz}{dt}\dfrac{d^2t}{ds^2} \end{vmatrix}$$

Por lo tanto, para $n = 3$ se tiene que $$\mathcal{K} (t) = \dfrac{\| \dot{\gamma} (t) \times \ddot{\gamma} (t)\|}{ \| \dot{\gamma} (t) \|^3}$$

${}$

Torsión

$$T’ (s) = \mathcal{K} (s) N (s)$$

$$N’ (s) = – \, \mathcal{K} (s) T (s) – \, \tau (s) B (s)$$

$${B \, }’ (s) = \tau (s) N (s)$$

Tenemos que:

${\gamma}’ = T (s)$

${\gamma}^{\prime \prime} = T’ (s) = \mathcal{K} N$

$ {\gamma}^{\prime \prime \prime} = \dfrac{d}{ds}(\mathcal{K}N = \mathcal{K}’ N + \mathcal{K} N’ = \mathcal{K}’ N + \mathcal{K}( – \, \mathcal{K} (s) T (s) – \, \tau (s) B (s)) = \mathcal{K}’ N- \, \mathcal{K}^2 (s) T (s) – \, \mathcal{K} \tau (s) B (s)$

Resolviendo el triple producto escalar de $({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime})$ se tiene que:

$\begin{align*}({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) &= (T, \mathcal{K}N, -\, \mathcal{K}^2T + \mathcal{K}’N \, – \, \mathcal{K} \tau B \\ &= \mathcal{K} (T, N, -\, \mathcal{K}^2 T + \mathcal{K}’ N \, – \, \mathcal{K} \tau B) \\ &= \mathcal{K} \Big(T, N, -\, \mathcal{K}^2 T) + (T, N, \mathcal{K}’ N) + (T, N, -\, \mathcal{K} \tau B) \Big) \\ &= – \, \mathcal{K}^3 (T, N, T) + \mathcal{K} \mathcal{K}’ (T, N, N) \, – \, \mathcal{K}^2 \tau (T, N, B)\end{align*}$

Por lo tanto $$({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) = – \, \mathcal{K}^2 \tau$$

Por lo tanto, para curvas parametrizadas por longitud de arco $$\tau (s) = \dfrac{\, – \, ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) }{\mathcal{K}^2 (s)}$$

Partiendo de $\tau (s) = \dfrac{\, – \,({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) }{\mathcal{K}^2 (s)}$

Buscamos una expresión en términos de $t$ y las derivadas con respecto a $t$.

1° paso:

${\gamma}’ = \dot{\gamma} (t) \dfrac{dt}{ds}$

${\gamma}^{\prime \prime } = \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 + \dot{\gamma} (t) \dfrac{d^2t}{ds^2}$

${\gamma}^{\prime \prime \prime} = \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 + \ddot{\gamma} (t) 2 \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} + \ddot{\gamma} (t) \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} + \dot{\gamma} (t) \dfrac{d^3t}{ds^3}$

Entonces ${\gamma}^{\prime \prime \prime} = \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 + 3 \ddot{\gamma} (t) \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} + \dot{\gamma} (t) \dfrac{d^3t}{ds^3}$

Luego $$ \begin{align*} ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) &= \Big( \dot{\gamma} (t) \dfrac{dt}{ds}, \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 + \dot{\gamma} (t) \dfrac{d^2t}{ds^2}, \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 + 3 \ddot{\gamma} (t) \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} + \dot{\gamma} (t) \dfrac{d^3t}{ds^3}\Big) \\ &= \Bigg( \dot{\gamma} (t) \dfrac{dt}{ds}, \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 , \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 \Bigg) + \Bigg( \dot{\gamma} (t) \dfrac{dt}{ds}, \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 , 3 \ddot{\gamma} (t) \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} \Bigg) + \\ & \Bigg( \dot{\gamma} (t) \dfrac{dt}{ds}, \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 , \dot{\gamma} (t) \dfrac{d^3t}{ds^3}\Big) \Bigg)+ \Bigg( \dot{\gamma} (t) \dfrac{dt}{ds}, \dot{\gamma} (t) \dfrac{d^2t}{ds^2}, \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 + 3 \ddot{\gamma} (t) \dfrac{dt}{ds} \dfrac{d^2t}{ds^2} + \dot{\gamma} (t) \dfrac{d^3t}{ds^3}\Bigg) \end{align*}$$

${}$

Entonces

$\begin{align*} ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) &= \Bigg( \dot{\gamma} (t) \dfrac{dt}{ds}, \ddot{\gamma} (t) \Big( \dfrac{dt}{ds} \Big)^2 , \dddot{\gamma} (t) \Big(\dfrac{dt}{ds}\Big)^3 \Bigg) \\ &= \Bigg(\dfrac{dt}{ds}\Bigg)^6 ({\gamma}’, {{\gamma}’}’, {{{\gamma}’}’}’) \end{align*}$

Por lo tanto $$ ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}){ \|\dot{\gamma}\|^6}$$

Luego $$\tau (s) = \dfrac{-\, ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime})}{\mathcal{K}^2} = \dfrac{\dfrac{ ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) }{ \|\dot{\gamma}\|^6}}{\dfrac{\|\dot{\gamma} \times \ddot{\gamma} \|^2}{\|\dot{\gamma}\|^6}}$$

$$\therefore \tau (s) = \dfrac{-\, ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime})}{\|\dot{\gamma} \times \ddot{\gamma} \|^2}$$

${}$

Forma canónica local

Sea $\gamma (s) = \big( x (s), y (s), z (s)\big)$ podemos desarrollar cada función en series de Taylor. Luego $$\gamma (s) = \gamma (0) + s {\gamma}’ (0) + \dfrac{s^2}{2} {\gamma}^{\prime \prime} (0) + \dfrac{s^3}{6} {\gamma}^{\prime \prime \prime} (0) + \dotsc$$

Sin pérdida de generalidad, $\gamma (0) = \vec{0}$ entonces ${\gamma}’ (0)$

Luego $$e_1 = (1, 0, 0) = T (0)$$ $$e_2 = (0, 1, 0) = N (0)$$ $$e_3 = (0, 0, 1) = B (0)$$

Entonces $\big( x (s), y (s), z (s)\big) = (0, 0, 0) + s (1, 0, 0) + \dfrac{s^2}{2} (0,\mathcal{K}, 0) + \dfrac{s^3}{6} (-\, \mathcal{K}, \mathcal{K}’ , – \, \mathcal{K} \tau) + \dotsc$

Por lo que $$x (s) = s + \dfrac{s^3}{6} \mathcal{K}^2 (0) + Residuo_x (s)$$ $$y (s) = \dfrac{s^2}{2} \mathcal{K} (0) + \dfrac{s^3}{6} {\mathcal{K}}’ (0) + Residuo_y (s)$$ $$z (s) = \dfrac{\mathcal{K} (0) \tau (0)}{6} s^3 + Residuo_z (s)$$

42. Material de prueba: Reparametrizaciones

Por Mariana Perez

Sea $\alpha: (a,b) \subset \mathbb{R} \rightarrow \mathbb{R}^n$ una curva parametrizada, sea $\mathcal{I} = (a,b).$

Sea $h : \mathcal{J} = (c, d) \rightarrow \mathcal{I} = (a, b)$ una función monótona $\mathbb{R} \rightarrow \mathbb{R}$ tal que:

$$h (c, d) = (a, b)$$

Sea $t \in (a, b)$ y sea $\tau \in (c, d).$

Podemos hacer la composición $$\beta : \mathcal{J} \rightarrow \mathbb{R}^n$$

$$\beta = \alpha \circ h$$

$\beta ( \tau ) = \alpha ( h (\tau))$

$t = h (\tau)$

entonces ${\beta \, }^{\prime} (\tau) = \frac{d}{d \tau} (\alpha (h(\tau)) = {\alpha}^{\prime} ( h (\tau)) h^{\prime} (\tau)$

Pueden suceder dos casos:

* $h^{\prime} (\tau ) > 0 \; \forall\, \tau \Rightarrow h $ es creciente, entonces el vector ${\beta \, }^{\prime} (\tau)$ es un mútliplo positivo de ${\alpha}^{\prime} ( h (\tau))$, es decir, apunta en la misma dirección.

* $h^{\prime} (\tau ) < 0 \; \forall\, \tau \Rightarrow h $ es decreciente, entonces el vector ${\beta \, }^{\prime} (\tau)$ es un mútliplo negativo de ${\alpha}^{\prime} ( h (\tau))$, es decir, apunta en la dirección contraria.

EJemplo:

Una hélice $\gamma (t) = (\cos t, \sin t, t)$

${\gamma}^{\prime} (t) = (\, -\,\sin t, \cos t, 1)$

$\|{\gamma}’ (t) \| = \sqrt{( -\,\sin t)^2 + (\cos t)^2 + (1)^2} $

$\|{\gamma}’ (t) \| = \sqrt{2}$ por lo que esta curva está parametrizada con rapidez constante.

Reparametricemos a $\gamma (t)$ con longitud de arco.

Sea $t = h (s)$ tal que $\beta (0) = \gamma (h (s))$ cumpla que $\| {\beta \, }^{\prime} (s) \| = 1$ para toda $s.$

Entonces ${\beta \, }^{\prime} (s) = {\gamma}’ (h (s)) h’ (s)$

$\| {\beta \, }’ (s) \| = \|{\gamma}’ (h (s))\| \, |h’ (s)|$

$\| {\beta \, }’ (s) \| = \sqrt{2} \, |h’ (s)|$

Buscamos $h$ tal que $h’ (s) > 0.$

Entonces $ \sqrt{2} h’ (s) \equiv 1 \Rightarrow h’ (s) \equiv \dfrac{1}{\sqrt{2}}$

Una solución de la ecuación anterior es $h (s) = \dfrac{1}{\sqrt{2}}s$

Entonces $$\beta (s) = \Bigg( \cos \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \sin \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \dfrac{s}{\sqrt{2}} \Bigg)$$

Esta curva recorre la misma hélice pero ahora está parametrizada con rapidez unitaria.

Longitud de arco medida desde el punto $\beta (0) = (1, 0, 0)$

Calculemos la curvatura de la hélice en cada punto.

$\mathcal{K} (s) = \|{\beta \, }^{\prime \prime} (s) \|$

$\beta (s) = \Bigg( \cos \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \sin \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \dfrac{s}{\sqrt{2}} \Bigg)$

${\beta \, }^{\prime} (s) = \Bigg( – \dfrac{1}{\sqrt{2}}\sin \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \dfrac{1}{\sqrt{2}}\cos \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), \dfrac{1}{\sqrt{2}} \Bigg) = T (s)$ unitario.

${\beta \, }^{\prime \prime} (s) = \Bigg( – \dfrac{1}{2}\cos \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), – \, \dfrac{1}{2}\sin \Bigg(\dfrac{s}{\sqrt{2}}\Bigg), 0 \Bigg)$

$\|{\beta \, }^{\prime \prime} (s) \| = \sqrt{\Bigg( – \dfrac{1}{2}\cos \Bigg(\dfrac{s}{\sqrt{2}}\Bigg)\Bigg)^2 + \Bigg( – \, \dfrac{1}{2}\sin \Bigg(\dfrac{s}{\sqrt{2}}\Bigg)\Bigg)^2}$

$\|{\beta \, }^{\prime \prime} (s) \| = \dfrac{1}{2}$

Luego $N (s) = \Bigg( – \, \cos \Bigg( \dfrac{s}{\sqrt{2}}\Bigg) ,\, – \, \sin\Bigg( \dfrac{s}{\sqrt{2}}\Bigg), 0\Bigg)$ que es horizontal y paralelo al plano $xy.$

En el siguiente enlace puedes observar la animación de este ejemplo.

https://www.geogebra.org/classic/tcudugk8

La torsión y el triedro de Frenet – Serret.

Dada una curva $\alpha : \mathcal{I} \subset \mathbb{R} \rightarrow \mathbb{R}^3$ parametrizada por longitud de arco, tenemos el vector tangente $T (s) := {\alpha}’ (s).$

Si ${\alpha}^{\prime \prime} (s) \neq \vec{0}$, tenemos el vector normal $N(s) := \dfrac{{\alpha}^{\prime \prime} (s)}{\| {\alpha}^{\prime \prime} (s)\|}$

Observación: $\dfrac{d}{ds} T(s) = \dfrac{d}{ds} {\alpha}’ (s) = {\alpha}^{\prime \prime} (s) = \| {\alpha}^{\prime \prime} (s) \| N (s).$ Entonces $$T’ (s) = \mathcal{K} (s) = N (s)$$

Con $T$ y $N$ podemos producir otro vector, el vector Binormal $\vec{B} (s)$, donde $$\vec{B} (s) = T(s) \times N(s)$$

¿Cómo cambia $\beta\, (s)$?

$$\begin{align*} {\beta \, }’ (s) &= \Big( T (s) \times N (s) \Big)’ \\ &= T’ (s) \times N (s) + T (s) \times N’ (s) \\ &= \mathcal{K} \cdot N(s) \times N(s) + T (s) \times N’ (s) \\ &= \mathcal{K} + T (s) \times (aT + c B) \\ {\beta \, }’ (s) &= c (T \times B) = c N(s) \end{align*}$$

Definamos la torsion de la curva en el punto $\alpha (s)$ como el número $\tau (s)$ tal que $${B \, }’ (s) = – \, \tau (s) N (s)$$

Tres fórmulas

$$\begin{align*} T’ (s) &= \mathcal{K} (s) N(s) \\ {B \, }’ (s) &= – \, \tau (s) N(s) \\ N’ (s) &= \mathcal{K} (s) T (s) + \tau (s) B (s)\end{align*}$$

La fórmula de $N’ (s)$ se deduce a partir de $ N = B \times T $, ya que derivando esta expresión se tiene que:

$$ \begin{align*}N’ &= (B \times T)’ \\ &= {B \, }’ \times T + B \times T’ \\ &= – \, \tau (N \times T) + B \times (\mathcal{K} N) \\ &= \tau (T \times N) + \mathcal{K} (B \times N) \\ N’ &= \mathcal{K} T + \tau B \end{align*} $$

Propiedades de la integral de Riemann-Stieltjes. Parte 2

Por Lizbeth Fernández Villegas

Introducción

El contenido de esta sección corresponde al libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 30-34.

Continuaremos viendo condiciones bajo las cuales sea posible afirmar la existencia de la integral $\int_{a}^{b}f \, d\alpha.$ Comencemos con la siguiente:

Proposición: Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Si $\, \int_{a}^{b}\textcolor{RoyalBlue}{f} \, d\textcolor{magenta}{\alpha} \,$ existe, entonces también $\, \int_{a}^{b}\textcolor{magenta}{\alpha} \, d\textcolor{RoyalBlue}{f} \,$ existe y además

\begin{align}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df.
\end{align}

Demostración:
Considera $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b] \,$ y sean $\xi_i \in [x_{i-1},x_i], \, i=1,…,n.$ Entonces se siguen las siguientes igualdades:

\begin{align*}
S(P,f,\alpha)&= \sum_{i=1}^{n}f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=1}^{n}f(\xi_i)\alpha(x_{i-1})\\
&= \sum_{i=1}^{n}f(\xi_i)\alpha(x_i) \, – \, \sum_{i=0}^{n-1}f(\xi_{i+1})\alpha(x_i)\\
&= \sum_{i=1}^{n-1}f(\xi_i)\alpha(x_i)+ f(\xi_n)\alpha(x_n)\, – \, \sum_{i=1}^{n-1}f(\xi_{i+1})\alpha(x_i) \, – \, f(\xi_1)\alpha(x_0)\\
&=- \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))) + f(\xi_n)\alpha(b) \, – \, f(\xi_1)\alpha(a).
\end{align*}

Nota que el lado derecho de la igualdad coincide con

$$[f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}$$

donde

$$\textcolor{blue}{T_P}= \sum_{i=1}^{n-1}\alpha(x_i)(f(\xi_{i+1}) \, – \, f(\xi_i))+\alpha(a)(f(\xi_1) \, – \, f(a))+\alpha(b)(f(b) \, – \, f(\xi_n)). $$

Por lo tanto

\begin{align}
S(P,f,\alpha) = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \, \textcolor{blue}{T_P}.
\end{align}

Observa que $\textcolor{blue}{T_P}$ es una suma de Riemann-Stieltjes para $\textcolor{blue}{\int_{a}^{b} \alpha \, df.}$ Tomando el límite cuando $|P| \to 0$ en (2) vemos que $\int_{a}^{b}f \, d\alpha$ existe si y solo si $\int_{a}^{b} \alpha \, df$ existe y que

\begin{align*}
\int_{a}^{b}f \, d\alpha = [f(b)\alpha(b) \, – \, f(a)\alpha(a)] \, – \int_{a}^{b} \alpha \, df,
\end{align*}

que es lo que queríamos demostrar.

Ya que el valor de las sumas de Riemann-Stieltjes depende de los valores $\xi_i$ elegidos, cuando la función $f$ es acotada, podemos delimitar el valor de $f(\xi_i)$ y, por tanto, acotar las sumas como muestra la siguiente:

Definición: Suma inferior y suma superior de Riemann-Stieltjes. Sea $f$ acotada, $\alpha$ una función monótona creciente en $[a,b]$ y $P=\{x_0=a,…,x_n=b\}.$ Definimos los términos:

\begin{align*}
m_i= \underset{x \, \in \, [x_{i-1}, x_i]}{\text{ínf}} \, f(x)
\end{align*}

Representación del ínfimo en un intervalo de $P.$

\begin{align*}
M_i= \underset{x \, \in \, [x_{i-1}, x_i]}{\text{sup}} \, f(x)
\end{align*}

Representación del supremo en un intervalo de $P.$

Las siguientes sumas

\begin{align}
\underline{S}_P = \sum_{i=1}^{n} m_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
\nonumber \\
\overline{S}_P = \sum_{i=1}^{n} M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

reciben el nombre de suma inferior y suma superior de Riemann-Stieltjes, respectivamente.

Dado que $-\infty < m_i \leq M_i < \infty \,$ y $\, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\geq 0, \,$ (pues $\alpha$ es creciente), podemos ver que

$$\underline{S}_P \leq S(P,f,\alpha) \leq \overline{S}_P.$$

Esta forma de definir sumas permite conocer el comportamiento de la función, como sugiere el siguiente:

Lema: Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Se cumplen:

a) Si $Q$ es un refinamiento de $P \in \mathcal{P}_{[a,b]},$ entonces

$$\underline{S}_P \leq \underline{S}_Q \leq \overline{S}_Q \leq \overline{S}_P.$$

b) Si $P_1$ y $P_2$ son dos particiones, entonces
$$\underline{S}_{P_1} \leq \overline{S}_{P_2},$$
es decir, cualquier suma inferior de Riemann-Stieltjes es menor igual que cualquier suma superior de Riemann-Stieltjes.

Demostración:
a) Vamos a demostrar que $\overline{S}_Q \leq \overline{S}_P.$ El argumento para las sumas inferiores es análogo y lo dejaremos como ejercicio.

Sea $P=\{x_0=a,…,x_n=b\} \,$ y $\, P \subset Q.$ Para fines prácticos supongamos que $Q$ tiene apenas un punto más que $P.$ Sea $x^*$ ese punto.
Entonces $x^* \in [x_{j-1},x_j]$ para algún $j \in \{1,…,n\}$

entonces

\begin{align*}
\underset{[x_{j-1},x^*]}{sup} \, f(x) &\leq M_j \, \text{ y} \\
\\
\underset{[x^*,x_j]}{sup} \, f(x) &\leq M_j
\end{align*}

Representación de supremos.

en consecuencia
$$\underset{[x_{j-1},x^*]}{sup} \, f(x) \, \, (\alpha(x^*) \, – \, \alpha(x_{i-1})) + \underset{[x^*,x_j]}{sup} \, f(x) \, \, (\alpha(x_j) \, – \, \alpha(x^*)) \leq M_j (\alpha(x_j) \, – \, \alpha(x_{j-1})). $$

Este razonamiento se puede repetir añadiendo uno a uno cada punto de $\, Q \setminus P \,$ hasta obtener $Q.$ Finalmente,

$$\overline{S}_Q \leq \overline{S}_P.$$

b) Nota que $P_1 \cup P_2$ es un refinamiento tanto de $P_1$ como de $P_2.$ Aplicando a) obtenemos:

$$\underline{S}_{P_1} \leq \underline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_1 \cup P_2} \leq \overline{S}_{P_2}$$

con lo cual terminamos la prueba.

El siguiente enunciado muestra condiciones suficientes para la existencia de la integral de Riemann-Stieltjes.

Proposición: Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ de variación acotada en $[a,b],$ entonces $\int_{a}^{b}$ existe. Más aún

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b]. $$

Demostración:
Para demostrar la existencia recordemos que el teorema de Jordan visto en la entrada Funciones de variación acotada dice que $\alpha, \, $ al ser de variación acotada, puede expresarse como $\alpha = \alpha_1 \, – \, \alpha_2\, $ con $\alpha_1$ y $\alpha_2$ funciones crecientes acotadas en $[a,b].$ Si probamos que existe tanto $\int_{a}^{b}f \, d\alpha_1$ como $\int_{a}^{b}f \, d\alpha_2, \,$ entonces, por lo visto en la entrada anterior link también existe la integral buscada pues

\begin{align}
\nonumber \int_{a}^{b}f \, d\alpha_1 \, – \int_{a}^{b}f \, d\alpha_2 &= \int_{a}^{b}f \, d\alpha_1 \, + \int_{a}^{b}f \, d(-\alpha_2) \\
\nonumber&=\int_{a}^{b}f \, d(\alpha_1- \alpha_2)\\
&=\int_{a}^{b}f \, d\alpha.
\end{align}

Sin pérdida de generalidad, probemos que $\int_{a}^{b}f \, d\alpha_1\, $ existe. Sea $P=\{x_1=a,…,x_n=b\}.$ De acuerdo con la proposición que acabamos de ver

$$\underline{S}_P \leq S(P,f, \alpha_1) \leq \overline{S}_P.$$

A continuación vamos a demostrar que $\underset{|P| \to 0}{lim}\, \underline{S}_P \,$ y $\, \underset{|P| \to 0}{lim}\, \overline{S}_P$ existen y son iguales. La condición es evidente si $\alpha_1$ es constante así que supongamos que no lo es.

Sea $\varepsilon>0.$ Ya que $f$ es uniformemente continua en $[a,b]$ sabemos que existe $\delta>0$ tal que si $|P|< \delta,$ entonces

\begin{align*}
\textcolor{PineGreen}{M_i-m_i < \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)}}.
\end{align*}

Nota que $\alpha_1(b) \, – \, \alpha_1(a)$ es distinto de cero, pues $\alpha_1$ es monótona no constante.

Si $|P|< \delta \,$ se sigue:

\begin{align*}
0 \leq \overline{S}_P \, – \, \underline{S}_P &= \sum_{i=1}^{n}\textcolor{PineGreen}{(M_i\, – \, m_i)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&< \sum_{i=1}^{n}\textcolor{PineGreen}{\left( \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \right)}(\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&= \frac{\varepsilon}{\alpha_1(b) \, – \, \alpha_1(a)} \sum_{i=1}^{n} (\alpha_1(x_i) \, – \, \alpha_1(x_{i-1}))\\
&=\left( \frac{\varepsilon}{\cancel{\alpha_1(b) \, – \, \alpha_1(a)}} \right) \cancel{(\alpha_1(b) \, – \, \alpha_1(a))}\\
&= \varepsilon.
\end{align*}

Por lo tanto
\begin{align}
\underset{|P| \to 0}{lim} \, (\overline{S}_P \, – \, \underline{S}_P) = 0.
\end{align}

A continuación probaremos que existe $\underset{|P| \to 0}{lim} \, \overline{S}_P$ en $\mathbb{R}.$ Si suponemos que no existe entonces, por el criterio de Cauchy visto en la entrada anterior link , existen $\varepsilon >0$ y $(P’_k)_{k \in \mathbb{N}}$ y $(P´´_k)_{k \in \mathbb{N}} \,$ sucesiones de particiones cuyas normas tienden a cero tales que

$$\textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} > \varepsilon}.$$

Por (6) sabemos que para $k$ suficientemente grande

\begin{align*}
&& \overline{S}_{P’_k} \, – \, \underline{S}_{P’_k} &< \frac{\varepsilon}{2} \\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &>-\frac{\varepsilon}{2} \\
&\Rightarrow& \textcolor{purple}{\overline{S}_{P’_k} \, – \, \overline{S}_{P´´_k}}+ \underline{S}_{P’_k} \, – \, \overline{S}_{P’_k} &> \textcolor{purple}{\varepsilon}\, -\frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} &> \frac{\varepsilon}{2}\\
&\Rightarrow& \underline{S}_{P’_k} \, – \, \overline{S}_{P´´_k} &> 0
\end{align*}

lo que contradice el hecho de que $\underline{S}_{P’} \leq \overline{S}_{P´´}$ para cualquier $P’$ y $P´´.$

Por lo tanto $\underset{|P| \to 0}{lim} \, \overline{S}_P$ existe y en consecuencia $\int_{a}^{b}f \, d \alpha_1$ existe. Análogamente, $\int_{a}^{b}f \, d \alpha_2 \,$ existe, por lo tanto $\int_{a}^{b}f \, d \alpha \,$ también existe.

Para terminar la prueba nota que la desigualdad

$$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$

se sigue de una suma de Riemann-Stieltjes similar y haciendo tender el límite a cero. La prueba de este hecho se dejará como ejercicio.

Finalizaremos esta sección con un teorema conocido, pero ahora en la versión con la integral de Riemann-Stieltjes.

Teorema. Del valor medio para la integral de Riemann-Stieltjes. Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ acotada y creciente. Entonces existe $\xi \in [a,b]$ tal que

\begin{align}
\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)).
\end{align}

Demostración:
Dado que $\alpha$ es creciente, se satisface para cualquier $P \in \mathcal{P}_{[a,b]}$

$$\left(\underset{x \, \in \, [a,b]}{\text{mín}} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq S(P,f,\alpha) \leq \left(\underset{x \, \in \, [a,b]}{\text{máx}} f(x)\right)(\alpha(b)\, – \, \alpha(a))$$

El resultado anterior nos permite afirmar que $\int_{a}^{b} f \, d\alpha$ existe, entonces también se cumple

$$\left(\underset{x \, \in \, [a,b]}{\text{mín}} f(x)\right) (\alpha(b)\, – \, \alpha(a)) \leq \int_{a}^{b} f \, d\alpha \leq \left(\underset{x \, \in \, [a,b]}{\text{máx}} f(x)\right) (\alpha(b)\, – \, \alpha(a)),$$

y como $f$ es continua en $[a,b]$ se sigue del teorema del valor intermedio que existe $\xi \in [a,b]$ tal que

$$\int_{a}^{b} f \, d\alpha = f(\xi) \, (\alpha(b)\, – \, \alpha(a)),$$

que es lo que queríamos demostrar.

Así como definimos la integral de Riemann-Stieltjes en intervalos cerrados, también podemos hacerlo en intervalos abiertos $(a,b) \in \mathbb{R}$ de esta forma: Si $[a’,b’] \subset (a,b)$ y existe $\int_{a’}^{b’}f \, d\alpha,$ haciendo $a’ \to a$ y $b’ \to b$ definimos

$$\int_{a}^{b}f \, d\alpha = \underset{a’ \to a \, ; \, b’ \to b}{lim}\int_{a’}^{b’}f \, d\alpha$$

cuando el límite existe. Así mismo

$$\int_{-\infty}^{\infty}f \, d\alpha = \underset{a \to -\infty \, ; \, b \to \infty}{lim}\int_{a}^{b}f \, d\alpha,$$

cuando el límite existe.

Más adelante…

Hasta el momento no es muy evidente la relacion entre la existencia de la integral de Riemann-Stieltjes con los limites de las sumas inferior y superior de Riemann-Stieltjes, pese a que en Cálculo llegan incluso a considerarse equivalentes cuando coinciden. En la próxima entrada veremos bajo qué condiciones el resultado es válido en la integral que estamos estudiando.

Tarea moral

  1. Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Sea $Q$ un refinamiento de $P \in \mathcal{P}_{[a,b]}.$ Demuestra que
    $$\underline{S}_P \leq \underline{S}_Q.$$
  2. Demuestra la desigualdad pendiente
    $$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$
    donde $f$ es continua y $\alpha$ es de variación acotada.
  3. Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Prueba que se cumplen:
    a) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ no es constante en ningún subintervalo de $[a,b]$ muestra que $f$ es acotada en $[a,b].$
    b) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ es creciente, muestra que para cada $P \in \mathcal{P}_{[a,b]}$ tenemos $\underline{S}_P \leq \int_{a}^{b}f \, d\alpha \leq \overline{S}_P.$

Enlaces

  • Análisis Matemático.
  • Enlace a entrada anterior.
  • Enlace a entrada siguiente.