Consideremos un punto $p = \alpha (t_0)$ y supongamos que $p$ está en la curva de nivel cero de $F$, es decir, $F (p) = 0$
Sea $g : \mathcal{I} \rightarrow \mathbb{R}$ la composición $F \circ \alpha$ donde a cada $ t \rightarrow F \big( \alpha (t_0) \big) = F (p) = 0$
Decimos que la curva $\alpha$ y la curva de nivel $F^{-1} (0)$ tienen un contacto de orden $k$ en $p = \alpha (t_0)$ si: $$g (t_0) = 0$$ $$g’ (t_0) = 0$$ $${g}^{\prime \prime} (t_0) = 0$$ $$\vdots$$ $$g^{k-1} (t_0) = 0$$ pero $$g^k (t_0) \neq 0$$
Apliquemos este concepto.
Sea $\vec{u} = (a, b) \in \mathbb{R}^2$ un vector distinto de $\vec{0}.$
$g (s) = \langle \alpha \, – \, u, \alpha \, – \, u \rangle $
$g’ (s) = \langle {\alpha}’ , \alpha \, – \, u \rangle \langle \alpha \, – \, u, {\alpha}’ \rangle = 2 \langle \alpha \, – \, u, {\alpha}’ \rangle $
Además $g’ (s_0) = 0 \iff \langle \alpha (s_0) \, – \, u, {\alpha}’ (s_0) \rangle = 0$, es decir, si el vector $\alpha (s_0) \, – \, u$ es ortogonal al vector tangente ${\alpha}’ (s_0) = T (s_0).$
$g (s_0) = 0$ y $g’ (s_0) = 0 \iff $ la curva $\alpha$ y $F^{-1} (0)$ pasan por el punto $p = \alpha (s_0) $ y el círculo $F^{-1} (0)$ es tangente a la curva $\alpha$ en el punto $p$ si y sólo si, $u$ céntro del círciño, está en la recta normal a la curva $\alpha$ en el punto $p = \alpha (s_0).$ Es decir, $$\alpha (s_0) \, – \, u \perp T$$
¿Cómo debe ser $\vec{u}$ para que ${g}^{\prime \prime} (s_0) = 0$? Además de que $ g (s_0) = 0$ y ${g}’ (s_0) = 0$
${g}’ (s) = 2 \langle \alpha (s) \, – \, u, {\alpha}’ (s) \rangle$
${g}^{\prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}’ (s) \rangle + \langle {\alpha} (s) \, – \, u, {\alpha}^{\prime \prime} (s) \rangle \Big]$
como ${\alpha} (s_0) \, – \, u \perp T \iff u\, – \, {\alpha} (s_0) = \lambda N (s_0)$ para algún $\lambda \in \mathbb{R}$
$${g}^{\prime \prime} (s) = 0 \iff \langle \, – \, \lambda N, \mathcal{K} N \rangle = 0$$
Despejemos ${\lambda}^*$, entonces
$$ 1 \, – \, {\lambda}^* \mathcal{K} \langle N, N \rangle = 0 $$
$$ 1 \, – \, {\lambda}^* \mathcal{K} = 0 $$
$$ {\lambda }^* = \dfrac{1}{\mathcal{K}}$$
de todos los círculos con centro en la recta normal a $\alpha$ en $p$ que pasan por $p$, el que tiene un orden de contacto mayor con la curva $\alpha$ es el que tiene centro en el punto $$u = \alpha (s_0) + {\lambda}^* N (s_0)$$ $$u = p + \dfrac{1}{\mathcal{K}} N(s_0)$$
es el CÍRCULO OSCULADOR.
Si pedimos $g (s_0) = 0$ nos quedamos con círculos que pasan por el punto $p.$
Si además pedimos que ${g}^{\prime } (s_0) = 0$ nos quedamos con círculos cuyos centros están en la recta normal a $\alpha$ en el punto $p.$
Si también pedimos ${g}^{\prime \prime} (s_0) = 0$ nos quedamos con círculos cuyo centro coincide con el círculo osculador. (esto ocurre si ${\alpha}^{\prime \prime} (s_0) \neq \vec{0}$) Si $\mathcal{K} (s_0) = 0$ no existiría tal círculo.
Si además pedimos que ${g}^{ \prime \prime \prime} (s_0) = 0$ ¿qué sucede?
${g}’ (s) = 2 \langle \alpha (s) \, – \, u, {\alpha}’ (s) \rangle$
${g}^{\prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}’ (s) \rangle + \langle \alpha (s) \, – \, u , {\alpha}^{\prime \prime} (s) \rangle \Big]$
${g}^{\prime \prime \prime} (s) = 2 \Big[ \langle {\alpha}’ (s), {\alpha}^{\prime \prime} (s) \rangle + \langle \alpha (s) \, – \, u , {\alpha}^{\prime \prime \prime} (s) \rangle \Big]$
Luego ${g}^{\prime \prime \prime} (s) = 0 \iff \langle \alpha (s_0) \, – \, u , {\alpha}^{\prime \prime \prime} (s_0) \rangle = 0 $
Fórmulas para curvatura y torsión cuando la curva no está parametrizada por longitud de arco.
(*) Expresar la curvatura y la torsión como determinantes.
(*) Usar la regla de la cadena para derivar composiciones.
CASO $n = 2$ curva plana
Dada $\alpha (t) = \big( x(t), y(t) \big)$ y $t = h (s)$ con $s = $ longitud de arco; entonces $$\gamma (s) = \alpha ( h ( s)) = ( u (s) , v (s) )$$ $${\gamma}’ (s) = ( u’ (s) , v’ (s) )$$
Curvatura de $\gamma$ en el punto $s$ es el número $\mathcal{K}$ para el cual se cumple la ecuación $$ {\gamma}^{\prime \prime} (s) = \mathcal{K} \big( – \, v’ (s), u’ (s) \big)$$
Así definida $\mathcal{K} (s)$ puede ser $\mathcal{K} (s) > 0$, $\mathcal{K} (s) < 0$ o incluso $\mathcal{K} (s) = 0.$
Se sigue cumpliendo que $$\big|\mathcal{K}\big| = \big\| {\gamma}^{\prime \prime} (s) \big\|$$
Si $\gamma (s)$ está dada por longitud de arco, entonces $$\big\| {\gamma}’ (s) \big\| = 1 \iff \langle{\gamma}’ (s) , {\gamma}’ (s) \rangle = 1$$
Derivando $$\begin{align*} \langle{\gamma}^{\prime \prime} (s) , {\gamma}’ (s) \rangle + \langle{\gamma}’ (s) , {\gamma}^{\prime \prime} (s) \rangle &\equiv 0 \\ \langle{\gamma}’ (s) , {\gamma}^{\prime \prime} (s) \rangle &\equiv 0 \end{align*}$$
$$ \therefore {\gamma}^{\prime \prime} (s) \text{ es ortogonal a } {\gamma}’ (s)$$
Luego, ${\gamma}^{\prime \prime} (s)$ está en la recta ortogonal a ${\gamma}’ (s).$
¿Cuál es el signo de $\mathcal{K}(s)$?
Observemos el producto punto de ${\gamma}^{\prime \prime} (s)$ con $\big( -\, v(s), u (s) \big).$
Signo de $\mathcal{K} (s) = $ signo $\Bigl| \begin{smallmatrix} u’ & {u}^{\prime \prime} \\ v’ & {v}^{\prime \prime} \end{smallmatrix} \Bigr|$
Por lo que el signo de $\mathcal{K} (s)$ está dado por el signo del determinante de $\big( {\gamma}’ | {\gamma}^{\prime \prime} \big).$
1° paso: Expresar la curvatura y la torsión en términos de determinantes.
$$T (s) = {\gamma}’ (s)$$ $$N (s) = \dfrac{{\gamma}^{\prime \prime} (s)}{\| {\gamma}^{\prime \prime} (s)\|}$$
Luego $${\gamma}^{\prime \prime} (s) = \mathcal{K} (s) N(s)$$
y $B (s) = T(s) \times N(s)$
entonces ${\gamma}^{\prime } (s) \times {\gamma}^{\prime \prime} (s) = T (s) \times \mathcal{K} (s) N (s)$
${{\gamma}’} (s) \times {\gamma}^{\prime \prime} (s) = \mathcal{K} (s) \big( T (s) \times N (s) \big) = \mathcal{K} (s) B(s)$
$\| {{\gamma}’} (s) \times {\gamma}^{\prime \prime} (s) \| = \mathcal{K}$ con el parámetro longitud de arco, ya que $\| B(s)\| = 1.$
${}$
Cuando no está parametrizada por longitud de arco, $$\gamma (s) = \big( x (s), y (s), z (s)\big)$$ $${\gamma}’ (s) = \Bigg( \dfrac{dx}{ds}, \dfrac{dy}{ds}, \dfrac{dz}{ds}\Bigg)$$ $${\gamma} (s) = \Bigg( \dfrac{d^2x}{ds^2}, \dfrac{d^2y}{ds^2}, \dfrac{d^2z}{ds^2}\Bigg)$$
Por lo tanto, para $n = 3$ se tiene que $$\mathcal{K} (t) = \dfrac{\| \dot{\gamma} (t) \times \ddot{\gamma} (t)\|}{ \| \dot{\gamma} (t) \|^3}$$
${}$
Torsión
$$T’ (s) = \mathcal{K} (s) N (s)$$
$$N’ (s) = – \, \mathcal{K} (s) T (s) – \, \tau (s) B (s)$$
$${B \, }’ (s) = \tau (s) N (s)$$
Tenemos que:
${\gamma}’ = T (s)$
${\gamma}^{\prime \prime} = T’ (s) = \mathcal{K} N$
$ {\gamma}^{\prime \prime \prime} = \dfrac{d}{ds}(\mathcal{K}N = \mathcal{K}’ N + \mathcal{K} N’ = \mathcal{K}’ N + \mathcal{K}( – \, \mathcal{K} (s) T (s) – \, \tau (s) B (s)) = \mathcal{K}’ N- \, \mathcal{K}^2 (s) T (s) – \, \mathcal{K} \tau (s) B (s)$
Resolviendo el triple producto escalar de $({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime})$ se tiene que:
$\begin{align*}({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) &= (T, \mathcal{K}N, -\, \mathcal{K}^2T + \mathcal{K}’N \, – \, \mathcal{K} \tau B \\ &= \mathcal{K} (T, N, -\, \mathcal{K}^2 T + \mathcal{K}’ N \, – \, \mathcal{K} \tau B) \\ &= \mathcal{K} \Big(T, N, -\, \mathcal{K}^2 T) + (T, N, \mathcal{K}’ N) + (T, N, -\, \mathcal{K} \tau B) \Big) \\ &= – \, \mathcal{K}^3 (T, N, T) + \mathcal{K} \mathcal{K}’ (T, N, N) \, – \, \mathcal{K}^2 \tau (T, N, B)\end{align*}$
Por lo tanto $$({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) = – \, \mathcal{K}^2 \tau$$
Por lo tanto, para curvas parametrizadas por longitud de arco $$\tau (s) = \dfrac{\, – \, ({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) }{\mathcal{K}^2 (s)}$$
Partiendo de $\tau (s) = \dfrac{\, – \,({\gamma}’, {\gamma}^{\prime \prime}, {\gamma}^{\prime \prime \prime}) }{\mathcal{K}^2 (s)}$
Buscamos una expresión en términos de $t$ y las derivadas con respecto a $t$.
Sea $\gamma (s) = \big( x (s), y (s), z (s)\big)$ podemos desarrollar cada función en series de Taylor. Luego $$\gamma (s) = \gamma (0) + s {\gamma}’ (0) + \dfrac{s^2}{2} {\gamma}^{\prime \prime} (0) + \dfrac{s^3}{6} {\gamma}^{\prime \prime \prime} (0) + \dotsc$$
Sin pérdida de generalidad, $\gamma (0) = \vec{0}$ entonces ${\gamma}’ (0)$
Luego $$e_1 = (1, 0, 0) = T (0)$$ $$e_2 = (0, 1, 0) = N (0)$$ $$e_3 = (0, 0, 1) = B (0)$$
Entonces $\big( x (s), y (s), z (s)\big) = (0, 0, 0) + s (1, 0, 0) + \dfrac{s^2}{2} (0,\mathcal{K}, 0) + \dfrac{s^3}{6} (-\, \mathcal{K}, \mathcal{K}’ , – \, \mathcal{K} \tau) + \dotsc$
Por lo que $$x (s) = s + \dfrac{s^3}{6} \mathcal{K}^2 (0) + Residuo_x (s)$$ $$y (s) = \dfrac{s^2}{2} \mathcal{K} (0) + \dfrac{s^3}{6} {\mathcal{K}}’ (0) + Residuo_y (s)$$ $$z (s) = \dfrac{\mathcal{K} (0) \tau (0)}{6} s^3 + Residuo_z (s)$$
Sea $h : \mathcal{J} = (c, d) \rightarrow \mathcal{I} = (a, b)$ una función monótona $\mathbb{R} \rightarrow \mathbb{R}$ tal que:
$$h (c, d) = (a, b)$$
Sea $t \in (a, b)$ y sea $\tau \in (c, d).$
Podemos hacer la composición $$\beta : \mathcal{J} \rightarrow \mathbb{R}^n$$
$$\beta = \alpha \circ h$$
$\beta ( \tau ) = \alpha ( h (\tau))$
$t = h (\tau)$
entonces ${\beta \, }^{\prime} (\tau) = \frac{d}{d \tau} (\alpha (h(\tau)) = {\alpha}^{\prime} ( h (\tau)) h^{\prime} (\tau)$
Pueden suceder dos casos:
* $h^{\prime} (\tau ) > 0 \; \forall\, \tau \Rightarrow h $ es creciente, entonces el vector ${\beta \, }^{\prime} (\tau)$ es un mútliplo positivo de ${\alpha}^{\prime} ( h (\tau))$, es decir, apunta en la misma dirección.
* $h^{\prime} (\tau ) < 0 \; \forall\, \tau \Rightarrow h $ es decreciente, entonces el vector ${\beta \, }^{\prime} (\tau)$ es un mútliplo negativo de ${\alpha}^{\prime} ( h (\tau))$, es decir, apunta en la dirección contraria.
$\|{\beta \, }^{\prime \prime} (s) \| = \dfrac{1}{2}$
Luego $N (s) = \Bigg( – \, \cos \Bigg( \dfrac{s}{\sqrt{2}}\Bigg) ,\, – \, \sin\Bigg( \dfrac{s}{\sqrt{2}}\Bigg), 0\Bigg)$ que es horizontal y paralelo al plano $xy.$
En el siguiente enlace puedes observar la animación de este ejemplo.
Dada una curva $\alpha : \mathcal{I} \subset \mathbb{R} \rightarrow \mathbb{R}^3$ parametrizada por longitud de arco, tenemos el vector tangente $T (s) := {\alpha}’ (s).$
Si ${\alpha}^{\prime \prime} (s) \neq \vec{0}$, tenemos el vector normal $N(s) := \dfrac{{\alpha}^{\prime \prime} (s)}{\| {\alpha}^{\prime \prime} (s)\|}$
Observación: $\dfrac{d}{ds} T(s) = \dfrac{d}{ds} {\alpha}’ (s) = {\alpha}^{\prime \prime} (s) = \| {\alpha}^{\prime \prime} (s) \| N (s).$ Entonces $$T’ (s) = \mathcal{K} (s) = N (s)$$
Con $T$ y $N$ podemos producir otro vector, el vector Binormal $\vec{B} (s)$, donde $$\vec{B} (s) = T(s) \times N(s)$$
¿Cómo cambia $\beta\, (s)$?
$$\begin{align*} {\beta \, }’ (s) &= \Big( T (s) \times N (s) \Big)’ \\ &= T’ (s) \times N (s) + T (s) \times N’ (s) \\ &= \mathcal{K} \cdot N(s) \times N(s) + T (s) \times N’ (s) \\ &= \mathcal{K} + T (s) \times (aT + c B) \\ {\beta \, }’ (s) &= c (T \times B) = c N(s) \end{align*}$$
Definamos la torsion de la curva en el punto $\alpha (s)$ como el número $\tau (s)$ tal que $${B \, }’ (s) = – \, \tau (s) N (s)$$
Tres fórmulas
$$\begin{align*} T’ (s) &= \mathcal{K} (s) N(s) \\ {B \, }’ (s) &= – \, \tau (s) N(s) \\ N’ (s) &= \mathcal{K} (s) T (s) + \tau (s) B (s)\end{align*}$$
La fórmula de $N’ (s)$ se deduce a partir de $ N = B \times T $, ya que derivando esta expresión se tiene que:
El contenido de esta sección se basa predominantemente en el libro Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 30-34.
Continuaremos viendo condiciones bajo las cuales sea posible afirmar la existencia de la integral $\int_{a}^{b}f \, d\alpha.$ Comencemos con la siguiente:
Proposición: Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Si $\, \int_{a}^{b}\textcolor{RoyalBlue}{f} \, d\textcolor{magenta}{\alpha} \,$ existe, entonces también $\, \int_{a}^{b}\textcolor{magenta}{\alpha} \, d\textcolor{RoyalBlue}{f} \,$ existe y además
Demostración: Considera $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b] \,$ y sean $\xi_i \in [x_{i-1},x_i], \, i=1,…,n.$ Entonces se siguen las siguientes igualdades:
Observa que $\textcolor{blue}{T_P}$ es una suma de Riemann-Stieltjes para $\textcolor{blue}{\int_{a}^{b} \alpha \, df.}$ Tomando el límite cuando $|P| \to 0$ en (2) vemos que $\int_{a}^{b}f \, d\alpha$ existe si y solo si $\int_{a}^{b} \alpha \, df$ existe y que
Ya que el valor de las sumas de Riemann-Stieltjes depende de los valores $\xi_i$ elegidos, cuando la función $f$ es acotada, podemos delimitar el valor de $f(\xi_i)$ y, por tanto, acotar las sumas como muestra la siguiente:
Definición: Suma inferior y suma superior de Riemann-Stieltjes. Sea $f$ acotada, $\alpha$ una función monótona creciente en $[a,b]$ y $P=\{x_0=a,…,x_n=b\}.$ Definimos los términos:
b) Si $P_1$ y $P_2$ son dos particiones, entonces $$\underline{S}_{P_1} \leq \overline{S}_{P_2},$$ es decir, cualquier suma inferior de Riemann-Stieltjes es menor igual que cualquier suma superior de Riemann-Stieltjes.
Demostración: a) Vamos a demostrar que $\overline{S}_Q \leq \overline{S}_P.$ El argumento para las sumas inferiores es análogo y lo dejaremos como ejercicio.
Sea $P=\{x_0=a,…,x_n=b\} \,$ y $\, P \subset Q.$ Para fines prácticos supongamos que $Q$ tiene apenas un punto más que $P.$ Sea $x^*$ ese punto. Entonces $x^* \in [x_{j-1},x_j]$ para algún $j \in \{1,…,n\}$
El siguiente enunciado muestra condiciones suficientes para la existencia de la integral de Riemann-Stieltjes.
Proposición: Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ de variación acotada en $[a,b],$ entonces $\int_{a}^{b}$ existe. Más aún
Demostración: Para demostrar la existencia recordemos que el teorema de Jordan visto en la entrada Funciones de variación acotada dice que $\alpha, \, $ al ser de variación acotada, puede expresarse como $\alpha = \alpha_1 \, – \, \alpha_2\, $ con $\alpha_1$ y $\alpha_2$ funciones crecientes acotadas en $[a,b].$ Si probamos que existe tanto $\int_{a}^{b}f \, d\alpha_1$ como $\int_{a}^{b}f \, d\alpha_2, \,$ entonces, por lo visto en la entrada anterior también existe la integral buscada pues
Sin pérdida de generalidad, probemos que $\int_{a}^{b}f \, d\alpha_1\, $ existe. Sea $P=\{x_1=a,…,x_n=b\}.$ De acuerdo con la proposición que acabamos de ver
A continuación vamos a demostrar que $\underset{|P| \to 0}{lim}\, \underline{S}_P \,$ y $\, \underset{|P| \to 0}{lim}\, \overline{S}_P$ existen y son iguales. La condición es evidente si $\alpha_1$ es constante así que supongamos que no lo es.
Sea $\varepsilon>0.$ Ya que $f$ es uniformemente continua en $[a,b]$ sabemos que existe $\delta>0$ tal que si $|P|< \delta,$ entonces
Por lo tanto \begin{align} \underset{|P| \to 0}{lim} \, (\overline{S}_P \, – \, \underline{S}_P) = 0. \end{align}
A continuación probaremos que existe $\underset{|P| \to 0}{lim} \, \overline{S}_P$ en $\mathbb{R}.$ Si suponemos que no existe entonces, por el criterio de Cauchy visto en la entrada anterior, existen $\varepsilon >0$ y $(P’_k)_{k \in \mathbb{N}}$ y $(P ^{\prime \prime} _k)_{k \in \mathbb{N}} \,$ sucesiones de particiones cuyas normas tienden a cero tales que
lo que contradice el hecho de que $\underline{S}_{P’} \leq \overline{S}_{P^{\prime \prime}}$ para cualquier $P’$ y $P^{\prime \prime}.$
Por lo tanto $\underset{|P| \to 0}{lim} \, \overline{S}_P$ existe y en consecuencia $\int_{a}^{b}f \, d \alpha_1$ existe. Análogamente, $\int_{a}^{b}f \, d \alpha_2 \,$ existe, por lo tanto $\int_{a}^{b}f \, d \alpha \,$ también existe.
se sigue de una suma de Riemann-Stieltjes similar y haciendo tender el límite a cero. La prueba de este hecho se dejará como ejercicio.
Finalizaremos esta sección con un teorema conocido, pero ahora en la versión con la integral de Riemann-Stieltjes.
Teorema. Del valor medio para la integral de Riemann-Stieltjes. Sea $f:[a,b] \to \mathbb{R}$ continua y $\alpha:[a,b] \to \mathbb{R}$ acotada y creciente. Entonces existe $\xi \in [a,b]$ tal que
Así como definimos la integral de Riemann-Stieltjes en intervalos cerrados, también podemos hacerlo en intervalos abiertos $(a,b) \in \mathbb{R}$ de esta forma: Si $[a’,b’] \subset (a,b)$ y existe $\int_{a’}^{b’}f \, d\alpha,$ haciendo $a’ \to a$ y $b’ \to b$ definimos
Hasta el momento no es muy evidente la relacion entre la existencia de la integral de Riemann-Stieltjes con los limites de las sumas inferior y superior de Riemann-Stieltjes, pese a que en Cálculo llegan incluso a considerarse equivalentes cuando coinciden. En la próxima entrada veremos bajo qué condiciones el resultado es válido en la integral que estamos estudiando.
Tarea moral
Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ creciente. Sea $Q$ un refinamiento de $P \in \mathcal{P}_{[a,b]}.$ Demuestra que $$\underline{S}_P \leq \underline{S}_Q.$$
Demuestra la desigualdad pendiente $$\left|\int_{a}^{b}f \, d\alpha \right|\leq \left(\underset{x \in [a,b]}{sup}|f(x)|\right) V[\alpha;a,b] $$ donde $f$ es continua y $\alpha$ es de variación acotada.
Sean $f, \alpha:[a,b] \to \mathbb{R}.$ Prueba que se cumplen: a) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ no es constante en ningún subintervalo de $[a,b]$ muestra que $f$ es acotada en $[a,b].$ b) Si $\int_{a}^{b}f \, d\alpha$ existe y $\alpha$ es creciente, muestra que para cada $P \in \mathcal{P}_{[a,b]}$ tenemos $\underline{S}_P \leq \int_{a}^{b}f \, d\alpha \leq \overline{S}_P.$
Dada $\mathcal{X}$ una variable aleatoria, se conoce como función de distribución de $\mathcal{X}$ a la función $F_{\mathcal{X}}: \mathbb{R} \to \mathbb{R} \,$ definida como: $$F_{\mathcal{X}}(x) := \mathbb{P}(\mathcal{X} \leq x)$$ es decir, la probabilidad de que la variable aleatoria tome valores menores o iguales que $x.$ Satisface lo siguiente:
Donde $f(t)$ es la probabilidad de que $\mathcal{X}$ tome el valor $t$, la cual es distinta de cero solamente para un conjunto a lo más numerable de valores $t.$
Donde $f(t)$ es la probabilidad de que $\mathcal{X}$ tome el valor $t$, la cual es distinta de cero solamente para un conjunto a lo más numerable de valores $t.$
Podríamos preguntarnos si es posible definir una integral que muestre el valor de la función, sin importar el tipo de variable aleatoria.
En los cursos de cálculo se habla del concepto de integral de Riemann de una función $f:[a,b] \to \mathbb{R}, \, a,b \in \mathbb{R}.$ A partir de una partición $P= \{x_0= a,…, x_n = b\}$ se define la suma de Riemann como $$S(P,f) = \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1})$$ donde $\xi_i \in [x_{i-1}, x_i] \,$ y $$\, S(P,f) \to \int_{a}^{b}f(x) \, dx \,$$ cuando $\, n \to \infty.$
La integral de Riemann-Stieltjes generaliza esta idea, modificando los intervalos generados por la partición a través de una función $\alpha:[a,b] \to \mathbb{R}.$
Definición. Suma de Riemann-Stieltjes. Sean $f:[a,b] \to \mathbb{R}, \,$ $\alpha:[a,b] \to \mathbb{R} \,$ funciones y $P= \{x_0=a,…,x_n=b\}$ una partición de $[a,b].$ Definimos la suma de Riemann-Stieltjes de $P$ con respecto a $f$ y $\alpha$ como
Definición. Integral de Riemann-Stieltjes. Sean $f, \, \alpha$ y $P\, $ como en la definición anterior. Si existe el límite en $S(P,f, \alpha)$ cuando $n \to \infty,$ se define y denota a la integral de Riemann-Stieltjes como
Para visualizar las ideas, consideremos los siguientes:
Ejemplos
En cualquier caso, $\alpha:[a,b] \to \mathbb{R}.$
$\alpha(x) = x.$ En este caso coincide con la integral de Riemann. Evidentemente: \begin{align*} \int_{a}^{b}f(x) \, d \alpha := \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(\alpha(x_i) \, – \, \alpha(x_{i-1})) = \underset{n \to \infty}{lim} \, \sum_{i =1}^{n} f(\xi_i)(x_i \, – \, x_{i-1}). \end{align*}
Si $\alpha(x) = F_{\mathcal{X}}(x)$ es la función de distribución de $\mathcal{X},$ entonces la integral de Riemman-Stieltjes es la esperanza de la variable aleatoria $Y=f(\mathcal{X}).$
$\alpha(x) = \lceil x \rceil.$ La función techo, es decir: \begin{align*} \lceil x \rceil = {\text{mín} \,} \{k \in \mathbb{Z} : k \geq x\} \end{align*}
Gráfica de $\alpha(x) = \lceil x \rceil.$
Analicemos más esta última función. Sea $P= \{x_0 = a,…,x_n =b\}$. Entonces para cada $i=0,…,n$
Si suponemos que los intervalos son muy pequeños, podemos pedir que $|P|<1.$ En esta situación dos puntos consecutivos de la partición podrían estar entre dos enteros consecutivos o bien, tener un entero entre ellos. Así tenemos dos casos:
En consecuencia, si $\xi_i \in [x_{i-1}, x_i]$ entonces cada sumando toma los siguientes valores:
En el caso 1. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = 0.$ En el caso 2. $f(\xi_i)(\lceil x_i \rceil \, – \, \lceil x_{i-1} \rceil) = f(\xi_1).$
La siguiente imagen permite visualizar este comportamiento.
Ejemplo de partición en el intervalo $[0,10]$
Calculemos $\int_{0}^{10}1 \, d \, \lceil x \rceil.$
En esta situación, los únicos sumandos significativos serán los que tienen algún entero en $\{1,2,…,10\}.$ Por lo tanto
$\int_{0}^{10}1 \, d \, \lceil x \rceil = \sum_{i=1}^{10} 1 = 10.$
¿Puedes calcular $\int_{0}^{10}f(x) \, d \, \lceil x \rceil,$ para cualquier $f$ continua en $[0,10]?$ Generaliza aún más y calcula $\int_{a}^{b}f(x) \, d \, \lceil x \rceil$ para cualquier intervalo $[a,b].$ $\textcolor{orange}{(\text{Ejercicio como tarea moral).}}$
Hay exactamente $10$ intervalos en una partición con $|P|<1$ donde el sumando no se anula.
En las siguientes entradas veremos que se satisface:
Proposición: Si $f$ es continua en $[a,b]$ y $\alpha$ es monótona, existe $\int_{a}^{b} f(x) \, d \alpha.$
Con la integral de Riemann-Stieltjes es posible identificar las funciones de distribución de variables aleatorias, sin importar si la variable es discreta, continua o una «mezcla» de ambas.
Gráfica de $\alpha.$
Ejemplo
La siguiente expresión refleja el comportamiento de una variable aleatoria que es continua en un «pedazo» y discreta en el resto. \begin{equation*} \alpha(x) = \begin{cases} \frac{1}{\sqrt{2 \pi}}\int_{-\infty}^{x} e ^{-\frac{t^2}{2}} dt \, &\text{ si $x<0$ }\\ \\ 1 \, &\text{ si $x \geq 0$} \end{cases} \end{equation*}
Entonces, si $F_{\mathcal{X}}$ es la función distribución de la variable aleatoria descrita se satisface:
$F_{\mathcal{X}}(b) \, – \, F_{\mathcal{X}}(a) = \text{Probabilidad de que } \mathcal{X} \text{ tome valores en } [a,b] = \int_{a}^{b}1 \, d \alpha.$
La esperanza de una variable aleatoria puede expresarse con una integral de Riemann-Stieltjes
A continuación presentamos una definición de la esperanza con la integral que estamos conociendo y es equivalente a la usada convencionalmente. Para profundizar en la teoría, visitar Probabilidad I: Valor Esperado de una Variable Aleatoria
Definición.Esperanza de $\mathcal{X}.$ Sea $\mathcal{X}$ una variable aleatoria con función de distribución $\alpha(x).$ La esperanza de $\mathcal{X}$ es $$E(\mathcal{X}) = \int_{-\infty}^{\infty}x \, d\alpha.$$
Ejemplos
Sea $\mathcal{X}$ variable aleatoria con distribución binomial, $n=3, \, p= \frac{1}{2}.$ Dado que
Como sugerencia, verifica que en una partición de $[0,3]$ con intervalos muy pequeños $(\delta< 1)$ los únicos sumandos que no se anulan en la suma de Riemann-Stieltjes serán los correspondientes a intervalos que tienen algún entero en $\{0,1,2,3\}.$
Otro ejemplo para terminar esta sección
Ahora supongamos que la función de distribución de una variable aleatoria está dada por:
Observa que todos los intervalos a excepción del último cumplen que \begin{align*} \alpha(x_i) \, – \, \alpha(x_{i-1}) &= \left(\frac{x_i}{2}+\frac{1}{4}\right) \, – \, \left(\frac{x_{i-1}}{2}+\frac{1}{4}\right)\\ &= \frac{x_i \, – \, x_{i-1}}{2} \end{align*}
Representación de una partición en $[0, \frac{1}{2}].$
Evidentemente, la primera parte $\int_{-\infty}^{-\frac{1}{k}}x \, d\alpha \,$ se anula. La otra integral $\int_{-\frac{1}{k}}^{0}x \, d\alpha \,$ se puede calcular con sumas de Riemann-Stieltjes: Si $P=\{x_0= \frac{1}{k},…,x_n=0\}$ es una partición de $[\frac{1}{k},0]$ el único sumando significativo es el último donde $f(\xi_n)(\alpha(x_{0}) \, – \, \alpha(x_{n-1})) \, \to \, 0(\frac{1}{4} \, – \, 0)=0.$
Representación de una partición en $[\frac{1}{k},0].$