Archivo de la categoría: Sin clasificar

Teorema del valor medio para funciones de $\mathbb{R}^{n}\rightarrow \mathbb{R}$

Por Angélica Amellali Mercado Aguilar

Introducción

El Teorema del valor medio es un resultado fundamental del cálculo diferencial. En cálculo de una variable nos dice que en algún punto del intervalo, la pendiente de la tangente a la curva (es, decir la derivada) es igual a la pendiente de la recta secante que une los puntos extremos $(a,f(a))$ y $(b,f(b))$. En esta sección estudiaremos para el caso en más dimensiones.

Recordemos el teorema del valor medio para funciones de $\mathbb{R}\rightarrow \mathbb{R}$

Suponga que $f:[a,b]\rightarrow\mathbb{R}$ es derivable en $(a,b)$ y continua en $[a,b]$ entonces existe $c\in(a,b)$ tal que
$$f'(c)=\frac{f(b)-f(a)}{b-a}$$

En esta sección se presenta el caso en la versión para funciones de $\mathbb{R}^{n}$ en $\mathbb{R}$. De esta manera el caso general se ve de la siguiente manera:

Teorema. Sea $f:A\subset\mathbb{R}^{n} \rightarrow \mathbb{R}$
una función definida en el conjunto abierto $A$ de $\mathbb{R}^{n}$. Si $x_{0},y_{0} \in A$ se pide que el conjunto $A$ sea tal que $[x_0,y_0]=\left\{x_{0}+t(y_{0}-x_{0})~|~t\in[0,1]\right\}\subset A$. Sea $u$ un vector unitario en la dirección del vector $y_{0}-x_{0}$. Si la función $f$ es continua en los puntos del segmento $[x_0,y_0]$ y
tiene derivadas direccionales en la dirección del vector $u$ en los puntos del segmento $(x_0,y_0)$, entonces existe $\theta$ , $0<\theta<1$ tal que $f(x_0+hu)-f(x_0)=\displaystyle\frac{\partial f}{\partial u}(x_0+\theta
hu)h$ donde $h=|y_0-x_0|$.

Una consecuencia del teorema anterior es el teorema
Teorema. Sea $f:A\subset\mathbb{R}^{n} \rightarrow \mathbb{R}$
una función definida en el conjunto abierto $A$ de $\mathbb{R}^{n}$. Si las derivadas parciales $\displaystyle{\frac{\partial f}{\partial x_{i}}~~\forall i=1,..,n}$ son continuas en $x_{0}\in A$ entonces f es diferenciable en $x_{0}\in A$
Vamos a dar una idea de la demostración para el caso n=2

Teorema del Valor Medio para Funciones de $\mathbb{R}^{2}\rightarrow \mathbb{R}$

Teorema. Sea $f:A\subset\mathbb{R}^{2} \rightarrow \mathbb{R}$ una función definida en el conjunto abierto $A$ de $\mathbb{R}^{2}$. Si $x_{0},y_{0} \in A$ se pide que el conjunto $A$ sea tal que $[x_0,y_0]=\left\{x_{0}+t(y_{0}-x_{0})~|~t\in[0,1]\right\}\subset A$. Sea $u$ un vector unitario en la dirección del vector $y_{0}-x_{0}$. Si la función
$f$ es continua en los puntos del segmento $[x_0,y_0]$ y tiene derivadas direccionales en la dirección del vector $u$ en los puntos del segmento $(x_0,y_0)$, entonces existe
$\theta$ \, $0<\theta<1$ tal que $f(x_0+hu)-f(x_0)=\displaystyle\frac{\partial f}{\partial u}(x_0+\theta hu)h$ donde $h=|y_0-x_0|$.

Demostración. Considere la función $\phi:[0,h]\rightarrow
\mathbb{R}$ dada por $\phi(t)=f(x_0+tu)$ ciertamente
la función $\phi$ es continua en $[0,h]$ pues $f$ lo es en $[x_0,y_0]$. Ademas

[\begin{array}{ll}
\phi'(t) & =\displaystyle\lim_{h \rightarrow 0}
\frac{\phi(t+h)-\phi(t)}{h} \\
\, & = \displaystyle\lim_{h \rightarrow 0}
\frac{f(x_0+(t+h)u)-f(x_0+tu)}{h} \\
\, & = \displaystyle\lim_{h \rightarrow 0}
\frac{f(x_0+tu+hu)-f(x_0+tu)}{h} \\
\, & = \displaystyle\frac{\partial f}{\partial
u}(x_0+tu)
\end{array}]

de modo que para $t \in (0,h)$, $\phi'(t)$ existe y es la derivada direccional de $f$ en $x_0+tu \in (x_0,y_0)$ en la dirección del vector $u$. Aplicando entonces el teorema del valor medio a la función $\phi$, concluimos que existe un múmero $\theta \in (0,1)$ que da $\phi(h)-\phi(0)=\phi'(\theta h)h$\ es decir de modo que $$f(x_0+hu)-f(x_0)=\frac{\partial f}{\partial u}(x_0+\theta hu)h$$

Ahora para la verisón del teorema 3

Teorema 5. Sea $f:A\subset\mathbb{R}^{2} \rightarrow \mathbb{R}$
una función definida en el conjunto abierto $A$ de $\mathbb{R}^{n}$. Si las derivadas parciales $\displaystyle{\frac{\partial f}{\partial x},~~\frac{\partial f}{\partial y}}$ son continuas en $(x_{0},y_{0})\in A$ entonces f es diferenciable en $(x_{0},y_{0}\in A$

Demostración. Vamos a probar que $$f((x_{0},y_{0})+(h_{1},h_{2}))=f(x_{0},y_{0})+\frac{\partial f}{\partial x}(x_{0},y_{0})h_{1}+\frac{\partial f}{\partial y}(x_{0},y_{0})h_{2}+r(h_{1},h_{2})$$donde $$\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{r(h_{1},h_{2})}{|(h_{1},h_{2})|}=0$$

para ello tenemos que
$$r(h_{1},h_{2})=f((x_{0},y_{0})+(h_{1},h_{2}))-f(x_{0},y_{0})-\frac{\partial f}{\partial x}(x_{0},y_{0})h_{1}-\frac{\partial f}{\partial y}(x_{0},y_{0})h_{2}$$
sumando un cero adecuado
$$r(h_{1},h_{2})=f((x_{0},y_{0})+(h_{1},h_{2}))-\textcolor{Red}{f(x_{0},y_{0}+h_{2})}+\textcolor{Red}{f(x_{0},y_{0}+h_{2})}-f(x_{0},y_{0})-\frac{\partial f}{\partial x}(x_{0},y_{0})h_{1}-\frac{\partial f}{\partial y}(x_{0},y_{0})h_{2}$$
trabajaremos

$$f((x_{0},y_{0})+(h_{1},h_{2}))-\textcolor{Red}{f(x_{0},y_{0}+h_{2})}$$Considerando la función $\varphi(x)=f(x,y_{0}+h_{2})$ por lo tanto tenemos que $$\varphi'(x)=\lim_{h_{1}\rightarrow0}\frac{\varphi(x+h_{1})-\varphi(x)}{h_{1}}=\lim_{h_{1}\rightarrow0}\frac{f(x+h_{1},y_{0}+h_{2})-f(x,y_{0}+h_{2})}{h_{1}}$$
este limite existe y nos dice que $\varphi$ es es continua en este caso en el intervalo $[x_{0},x_{0}+h_{1}]$. Por lo tanto aplicando el TVM en dicho intervalo se obtiene
$$\varphi(x_{0}+h_{1})-\varphi(x_{0})=\varphi'(x_{0}+\theta_{1} h_{1})h_{1}~p.a.~\theta_{1}\in(0,1)$$
es decir
$$f((x_{0}+h_{1},y_{0}+h_{2})-\textcolor{Red}{f(x_{0},y_{0}+h_{2})}=\frac{\partial f}{\partial x}(x_{0}+\theta_{1} h_{1},y_{0}+h_{2})h_{1}$$
Analogamente

$$\textcolor{Red}{f(x_{0},y_{0}+h_{2})}-f(x_{0},y_{0})$$Considerando la función $\varphi(y)=f(x_{0},y)$ por lo tanto tenemos que $$\varphi'(y)=\lim_{h_{2}\rightarrow0}\frac{\varphi(x_{0},y_{0}+h_{2})-\varphi(y_{0}+h_{2})}{h_{2}}=\lim_{h_{2}\rightarrow0}\frac{f(x_{0},y_{0}+h_{2})-f(y_{0}+h_{2})}{h_{2}}$$
este limite existe y nos dice que $\varphi$ es es continua en este caso en el intervalo $[y_{0},y_{0}+h_{2}]$. Por lo tanto aplicando el TVM en dicho intervalo se obtiene
$$\varphi(y_{0}+h_{2})-\varphi(y_{0})=\varphi'(y_{0}+\theta_{2} h_{2})h_{2}~p.a.~\theta_{2}\in(0,1)$$
es decir
$$f((x_{0},y_{0}+h_{2})-\textcolor{Red}{f(x_{0},y_{0})}=\frac{\partial f}{\partial y}(x_{0},y_{0}+\theta_{2}h_{2})h_{2}$$

Sustituimos en
$$r(h_{1},h_{2})=f((x_{0},y_{0})+(h_{1},h_{2}))-\textcolor{Red}{f(x_{0},y_{0}+h_{2})}+\textcolor{Red}{f(x_{0},y_{0}+h_{2})}-f(x_{0},y_{0})-\frac{\partial f}{\partial x}(x_{0},y_{0})h_{1}-\frac{\partial f}{\partial y}(x_{0},y_{0})h_{2}$$y obtenemos
$$r(h_{1},h_{2})=\frac{\partial f}{\partial x}(x_{0}+\theta_{1} h_{1},y_{0}+h_{2})h_{1}-\frac{\partial f}{\partial x}(x_{0},y_{0})h_{1}+\frac{\partial f}{\partial y}(x_{0},y_{0}+\theta_{2}h_{2})h_{2}-\frac{\partial f}{\partial y}(x_{0},y_{0})h_{2}$$

es decir
$$r(h_{1},h_{2})=\left(\frac{\partial f}{\partial x}(x_{0}+\theta_{1} h_{1},y_{0}+h_{2})-\frac{\partial f}{\partial x}(x_{0},y_{0})\right)h_{1}+\left(\frac{\partial f}{\partial y}(x_{0},y_{0}+\theta_{2}h_{2})-\frac{\partial f}{\partial y}(x_{0},y_{0})\right)h_{2}$$
por lo tanto
$$\frac{r(h_{1},h_{2})}{|(h_{1},h_{2})|}=\left(\frac{\partial f}{\partial x}(x_{0}+\theta_{1} h_{1},y_{0}+h_{2})-\frac{\partial f}{\partial x}(x_{0},y_{0})\right)\frac{h_{1}}{|(h_{1},h_{2})|}+\left(\frac{\partial f}{\partial y}(x_{0},y_{0}+\theta_{2}h_{2})-\frac{\partial f}{\partial y}(x_{0},y_{0})\right)\frac{h_{2}}{|(h_{1},h_{2})|}$$
ahora bien si $\displaystyle{|(h_{1},h_{2})|\rightarrow(0,0)}$ se tiene
$$\left(\frac{\partial f}{\partial x}(x_{0}+\theta_{1} h_{1},y_{0}+h_{2})-\frac{\partial f}{\partial x}(x_{0},y_{0})\right)\rightarrow0$$
y
$$\frac{h_{1}}{|(h_{1},h_{2})|}<1$$
Analogamente
$$\left(\frac{\partial f}{\partial y}(x_{0},y_{0}+\theta_{2}h_{2})-\frac{\partial f}{\partial y}(x_{0},y_{0})\right)\rightarrow0$$
y
$$\frac{h_{2}}{|(h_{1},h_{2})|}<1$$
en consecuencia
$$\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{r(h_{1},h_{2})}{|(h_{1},h_{2})|}=0$$por lo tanto f es diferenciable en $(x_{0},y_{0})$

Más adelante

Estudiremos la definición del vector gradiente, el cual, contiene las derivadas parciales de una función real y veremos su importancia en relación a una dirección (vector) dado para analizar el crecimiento de una función.

Tarea Moral

Mostrar que la siguiente función es diferenciable en cada punto de su dominio.

1.- $f(x,y)= \displaystyle{\dfrac{2xy}{(x^2+y^2)^2}}$

2.-$f(x,y)=\dfrac{x}{y}+\dfrac{y}{x}$

3.-$f(r,\theta)=\dfrac{1}{2}rsen2\theta$, $r>0$

4.-$f(x,y)=\dfrac{xy}{\sqrt{x^2+y^2}}$

5.-$f(x,y)=\dfrac{x^2y}{x^4+y^2}$

37. Material de prueba: Parametrización de elipses e hipérbolas

Por Mariana Perez

Elipse

La elipse : $$\dfrac{x^2}{a^2} + \dfrac{y^2}{b^2} = 1$$

se puede parametrizar como

$$\left\{ x = a \cos \theta \atop y = b \sin \theta \right.$$

ya que si elevamos al cuadrado ambas ecuaciones obtenemos que $$\left\{ x^2 = a^2 \cos^2 \theta \atop y^2 = b^2 \sin^2 \theta \right.$$ luego, despejando y sumando miembro a miembro observamos que $$\dfrac{x^2}{a^2} + \dfrac{y^2}{b^2} = \cos^2 \theta + \sin^2 \theta = 1$$ que es la ecuación de la elipse.

En esta imagen puedes observar una animación de la parametrización.

Hipérbola

La hipérbola: $$x^2 – y^2 = 1$$

se puede parametrizar como

$$\left\{ x = \sec \theta \atop y = \tan \theta \right.$$

ya que si elevamos al cuadrado cada ecuación tenemos que $$\left\{ x^2 = \sec^2 \theta \atop y^2 = \tan^2 \theta \right.$$ luego, restándolas vemos que $$ x^2 – y^2 = \sec^2 \theta – \tan^2 \theta = \dfrac{1}{\cos^2 \theta} – \dfrac{\sin^2 \theta}{\cos^2 \theta} = \dfrac{1 – \sin^2 \theta}{\cos^2 \theta} = \dfrac{\cos^2 \theta}{\cos^2 \theta} = 1 $$ obtenemos la ecuación de la hipérbola.

Otra manera de parametrizar la hipérbola es considerando

$$\left\{ x = \cosh \theta = \dfrac{e^t + e^{-t}}{2} \atop y = \sinh \theta = \dfrac{e^t – e^{-t}}{2}\right.$$

$$ x^2 – y^2 = \cosh^2 \theta – \sinh^2 \theta = 1$$

En la siguiente imagen puedes observar una animación de la hipérbola.

Longitud de arco

Consideramos una curva parametrizada $$\alpha : [a, b] \subset \mathbb{R} \rightarrow \mathbb{R}^2$$ $$\alpha (t) =(x(t), y(t))$$

Sean $P = \alpha (a)$

y $Q = \alpha (b)$

¿Cuál es la longitud de arco desde $P$ hasta $Q$?

  • Aproximemos la longitud de la curva como suma de segmentos de recta.

$\sum\limits_{i = 1}^n \|\alpha (t_i) – \alpha (t_{i-1}) \|$ con la partición $ a = t_0 < t_1 < \dots < t_n = b$

Nos preguntamos si hay un teorema del valor medio. Es decir, existe $\rho \in (a, b)$ tal que $$f(\rho) = \dfrac{f(b) – f(a)}{b – a}$$

Entonces existe $\rho \in (a, b)$ tal que $$\overrightarrow{\alpha}(\rho) = \dfrac{\overrightarrow{\alpha}(b) – \overrightarrow{\alpha}(a)}{b – a} $$

Si así fuera, entonces $$\| {\alpha}'(\rho) \| = \dfrac{\| \overrightarrow{\alpha}(b) – \overrightarrow{\alpha}(a) \|}{b – a} $$

$\sum\limits_{i = 1}^n \|\alpha (t_i) – \alpha (t_{i-1}) \|=\sum\limits_1^n \|\alpha (t_i) – \alpha (t_{i-1}) \|\dfrac{t_i – t_{i-1}}{t_i – t_{i-1}} $

$=\sum\limits_{i = 1}^n \|{\alpha}’ (\xi_i) \| (t_i – t_{i-1})$

Por lo anterior definimos la longitud de arco desde $P$ hasta $Q$ como

$$ \int\limits_a^b \| {\alpha}'(t) \| dt $$

CASO CIRCUNFERENCIA

Para $\omega = 1.$

$x (t) = A \cos (t) + h$

$y (t) = A \sin (t) + k$

Derivando

$x’ (t) = – A \sin (t) \Longrightarrow (x’)^2 (t) = A^2 \sin^2 (t)$

$y’ (t) = A \cos (t) \Longrightarrow (y’)^2 (t) = A^2 \cos^2 (t) $

Sumando ambas igualdades

$(x’)^2 + (y’)^2 = A^2$ por lo que $\| {\alpha}'(t) \| = A.$

Si $P = \alpha (\theta_0)$ y $Q = \alpha (\theta_1)$, entonces

$$ \int\limits_{\theta_0}^{\theta_1} A \, dt = A (\theta_1 – \, \theta_0) = \text{radio } \Delta \theta $$

Una parametrización de una curva en coordenadas polares

Sea $r = f (\theta) $

Donde $\theta = \omega t$ y $ r = f( \omega t)$, que en coordenadas polares es:

$x (t) = f (\omega t) \cos (\omega t)$

$y (t) = f (\omega t) \sin (\omega t)$

Si $\omega = 1$ entonces $\overrightarrow{\alpha} (t) = (x(t), y(t)) = x (t) \vec{e_1} + y (t) \vec{e_2} = r (t) \overrightarrow{\beta} (t)$, donde $\beta (t) = (\cos \theta (t), \sin \theta (t))$

En este caso, ¿cómo calculamos la velocidad?

$x’ (t) = \dfrac{d}{dt} (f(\omega t) \cos (\omega t)) = \omega f'(\omega t) \cos (\omega t) – \sin (\omega t) f(\omega t) \omega$

$y’ (t) = \dfrac{d}{dt} (f(\omega t) \sin (\omega t)) = \omega f'(\omega t) \sin (\omega t) + \cos (\omega t) f (\omega t) \omega$

Luego,

$(x’, y’) = ( \omega f'(\omega t) \cos (\omega t) – \sin (\omega t) f(\omega t) \omega , \omega f'(\omega t) \sin (\omega t) + \cos (\omega t) f(\omega t) \omega )$

$(x’, y’) = \omega f'(\omega t) (\cos (\omega t) , \sin (\omega t) + \omega f(\omega t) ( -\sin (\omega t) , \cos (\omega t)$

$\overrightarrow{\alpha}’ (t) = r’ (t) \overrightarrow{\beta} (t) + r (t) \overrightarrow{\beta}’ (t)$

$\beta$, $\beta’$ son una base de $\mathbb{R}^2$ en la que podemos extresar ${\alpha}’$.

$\vec{e_1}$, $\vec{e_2}$ son otra base de $\mathbb{R}^2$ en la que también podemos extresar ${\alpha}’$.

Luego, $\alpha’ (t) = x’ (t) \vec{e_1} + y’ (t) \vec{e_2} = r’ (t) \overrightarrow{\beta} (t) + r (t) \overrightarrow{\beta}’ (t)$

36. Material de prueba: Curvas parametrizadas y movimiento circular uniforme

Por Mariana Perez

Dada una circunferencia de radio $r > 0$ con centro en $(h, k)$, posición inicial $(x_0, y_0)$ y velocidad inicial $(x’_0, y’_0)$, analizamos diferentes casos para poder calcular su frecuencia, velocidad angular, periodo, amplitud y fase.

Caso sencillo

Radio $r = 1$

Centro $(h, k) = (0, 0)$

Posición inicial $(x_0, y_0) = (1, 0)$

Velocidad inicial $(x’_0, y’_0) = (0, 1)$

Entonces $\left\{ x(t) = \cos (t) \atop y(t) = \sin (t) \right.$

Tenemos que la rapidez unitaria es $\| {\alpha}’ (t)\| = 1.$

Si el periodo es $2\pi$ entonces, para toda $t$:

$\left\{ x(t + 2\pi) = x (t) \atop y(t + 2\pi) = y (t) \right.$

Por lo que $\vec{\alpha} (t) = \vec{\alpha} (t + 2\pi).$

¿Cómo serian las ecuaciones si el movimiento fuera de $\textcolor{Blue}{periodo \; 1}$?

$\left\{ x(t) = \cos (2\pi t) \atop y(t) = \sin (2\pi t) \right.$

Entonces para $t = 0$ la posición es $ (1, 0)$; y para $ t = 1$ la posición también es $(1, 0).$

Luego, la rapidez de $\left\{ x(t) = \cos (2\pi t) \atop y(t) = \sin (2\pi t) \right.$ es

$\left\{ x’ (t) = -2 \sin (2\pi t) \atop y’ (t) = 2 \cos (2\pi t) \right.$

Por lo que $\|(x’ (t), y'(t)) \| = \sqrt{(2 \pi)^2 (\cos^2 (2\pi t) + \sin^2 (2 \pi t))}$,

es decir que la rapidez es: $$\|(x’ (t), y'(t)) \| = 2 \pi $$

Para periodos $T > 0$

$\left\{ x(t) = \cos \left( \frac{2\pi t}{T} \right) \atop y(t) = \sin \left( \frac{2\pi t}{T} \right) \right.$

Entonces para $t = 0$ la posición es $ (1, 0)$; y para $ t = T$ la posición también es $(1, 0).$

¿Cómo serían las ecuaciones si recorremos la circunferencia en el sentido horario, con periodo $T = 2\pi$?

Entonces $\left\{ x(t) = \cos (t) \atop y(t) = – \sin (t) \right.$

Por lo que $(x'(0), y'(0)) = (0, -1).$

Si ahora cambiamos la posición inicial, digamos que $ \vec{p_0} = (x_0, y_0).$

Dado el punto $(x_0, y_0)$, existe un ángulo $\theta$ tal que:

$\left\{ x_0 = \cos (\theta_0) \atop y_0 = \sin (\theta_0) \right.$

Si $(x_0, y_0) = (\frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}}) \Rightarrow \theta_0 = 45° = \frac{\pi}{4}$

Si $(x_0, y_0) = (\frac{1}{2}, \frac{\sqrt{3}}{2}) \Rightarrow \theta_0 = 60° = \frac{\pi}{3}$

Luego, para toda $t$ se tiene que:

$\left\{ x(t) = \cos (t + \theta_0) \atop y(t) = \sin (t + \theta_0) \right.$

Cumple que $(x(0), y(0)) = (\cos \theta_0, \sin \theta_0) = (x_0, y_0)$, es decir, en el instante $t_0 = 0$ la posición inicial es $(x_0, y_0).$

Si hubiéramos escrito

$\left\{ x(t) = \cos (t – \theta_0) \atop y(t) = \sin (t – \theta_0) \right.$

Entonces $\left\{ x(\theta_0) = 1 \atop y(\theta_0) = 0 \right.$ es decir, en el instante $t_0 = \theta_0$ la posición es $(1, 0).$

Observación:

Si escribimos $\left\{ x(t) = \cos ( – t) = cos (t) \atop y(t) = \sin ( – t) = – \sin (t) \right.$

entonces estamos recorriendo la circunferencia en sentido horario.

Ahora estudiemos el siguiente caso:

$\left\{ x(t) = \cos (w t ) \atop y(t) = \sin (w t ) \right.$

El periodo es $\frac{2 \pi}{T} = \omega \Rightarrow T = \frac{2 \pi}{\omega}.$

Otro caso:

Si tenemos las ecuaciones $\left\{ x(t) = A \cos (w t ) \atop y(t) = A \sin (w t ) \right.$

y $A = 2$ entonces las ecuaciones

$\left\{ x(t) = 2 \cos (w t ) \atop y(t) = 2 \sin (w t ) \right.$

representan una circunferencia de radio 2. $A$ se denomina amplitud.

Caso centro $(h, k)$

Si el centro está en el punto $(h, k)$, entonces:

$$\left\{ x(t) = A \cos (w t ) + h \atop y(t) = A \sin (w t ) + k \right.$$

En las siguientes ventanas puedes observar una animación de la parametrización. En este caso la curva $\alpha (t) = \Big( 2 \cos (t) , 2 \sin (t) \Big)$

39. Material de prueba: Dos definiciones equivalentes de longitud de arco.

Por Mariana Perez

Teorema

Si $\alpha : [a, b] \subset \mathbb{R} \rightarrow \mathbb{R} $ es de clase $\mathcal{C}^1$, entonces la función que a cada $t \rightarrow \|{\alpha}’ (t)\|$ es continua, es de $ [a, b] \subset \mathbb{R} \rightarrow \mathbb{R}$ y podemos integrar, es decir, existe $$\int_{a}^{b} \|{\alpha}’ (t)\| dt$$

y $\mathcal{L} (\alpha) = \int_{a}^{b} \|{\alpha}’ (t)\| dt.$

Demostración:

$\mathcal{L} (\alpha) := \{ \mathcal{L} (C) \mid \mathcal{L} (C) = \sum\limits_{i = 1}^{n} \| \alpha (t_i) \, – \, \alpha(t_{i-1})\| \}$

En $\mathbb{R}^2$, $$\alpha (t) = ( x (t), y (t))$$

$$\alpha (t_i) = ( x (t_i), y (t_i))$$

$$\alpha (t_{i-1}) = ( x (t_{i-1}), y (t_{i-1}))$$

Luego $$\alpha (t_i) \, – \, \alpha (t_{i-1}) = ( x (t_i)\, – \, x (t_{i-1}), y (t_i) \, – \, y (t_{i-1}))$$

Entonces $$\Big\|\alpha (t_i) \, – \, \alpha (t_{i-1}) \Big\|= \sqrt {( x (t_i)\, – \, x (t_{i-1}))^2 + (y (t_i) \, – \, y (t_{i-1}))^2}$$

Entonces $$\sum\limits_{i = 1}^n \Big\|\alpha (t_i) \, – \, \alpha (t_{i-1}) \Big\|= \sum\limits_{i = 1}^n \sqrt {( x (t_i)\, – \, x (t_{i-1}))^2 + (y (t_i) \, – \, y (t_{i-1}))^2}$$

Existen $\xi_i \in (t_{i-1}, t_i)$ tales que $$\dfrac{x(t_i) \, – \, x(t_{i-1})}{t_i \, – \, t_{i-1}} = x’ (\xi) $$

Entonces $$x(t_i) \, – \, x(t_{i-1}) = x’ (\xi) (t_i \, – \, t_{i-1}) $$

De manera análoga, existen $\eta_i \in (t_{i-1}, t_i)$ tales que: $$y(t_i) \, – \, y(t_{i-1}) = y’ (\eta) (t_i \, – \, t_{i-1}) $$

Entonces $$\sum\limits_{i = 1}^n \Big\|\alpha (t_i) \, – \, \alpha (t_{i-1}) \Big\|= \sum\limits_{i = 1}^n \sqrt {( x’ (\xi_i))^2 (\Delta t_i)^2 + (y’ (\eta_i))^2 (\Delta t_i)^2}$$

con $\Delta t_i = t_i \, – \, t_{i-1}$ tenemos que el segundo miembro de la igualdad es:

$$\sum\limits_{i = 1}^n \sqrt {( x’ (\xi_i))^2 (\Delta t_i)^2 + (y’ (\eta_i))^2 (\Delta t_i)^2} = \sum\limits_{i = 1}^n \sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } (\Delta t_i)^2 $$

mientras que en el primer miembro obtenemos:

$$ \sum\limits_{i = 1}^n \Big\|\alpha (t_i) \, – \, \alpha (t_{i-1}) \Big\|= \int_a^b \Big\|{\alpha}’ (t) \Big\| dt $$

es el límite cuando la norma de la partición tiende a cero, de sumas de Riemann de la forma $$\sum\limits_{i = 1}^n \Big\|{\alpha}’ (\xi_i) \Big\| \Delta t_i$$

donde $\Big\|{\alpha}’ (\xi_i) \Big\| = \sqrt {( x’ (\xi_i))^2 + (y’ (\xi_i))^2 }$

Tenemos $\sum\limits_{i = 1}^n \sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } (\Delta t_i)$

Consideremos una función $F : [a, b] \times [a, b] \subset \mathbb{R}^2 \rightarrow \mathbb{R}$, donde $$F (s, t) = \sqrt {( x’ (s))^2 + (y’ (s))^2 }$$

Como $x’$ y $y’$ son continuas, tenemos que $F$ es continua en un conjunto compacto $ [a, b] \times [a, b] = K$ por lo que podemos concluir que $F$ es uniformemente continua.

Entonces, para todo $\epsilon > 0$ existe $\delta > 0$ tal que para toda pareja de puntos $p, q \in [a, b] \times [a, b] $

si $ \Big\| p – q \Big\| < \delta \Rightarrow \Big| F(p) – F(q) \Big| < \epsilon.$

Tomemos la norma de la partición $\mathcal{P}$ menor que $\delta$, es decir $t_i \, – \, t_{i-1} < \delta$

Como $\vec{p} = (\xi_i, \eta_i)$ y $\vec{q} = (\xi_i, \xi_i)$

Si $ \Big\| \vec{p} \, – \, \vec{q} \Big\| = \Big| \eta_i \, – \, \xi_i \Big| < \delta \Longrightarrow \Big| F(\vec{p}) \, – \, F(\vec{q}) \Big| < \epsilon$

Luego

$$ \Bigg| \sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } \, – \, \sqrt {( x’ (\xi_i))^2 + (y’ (\xi_i))^2 }\Bigg| < \epsilon$$

Multiplicando por $(t_i \, – \, t_{i-1})$

$$ \Bigg| \left(\sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } \, – \, \sqrt {( x’ (\xi_i))^2 + (y’ (\xi_i))^2 }\right) \Bigg|(t_i \, – \, t_{i-1}) < \epsilon (t_i \, – \, t_{i-1})$$

Sumamos

$$ \sum\limits_{i = 1}^n \Bigg| \left(\sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } \, – \, \sqrt {( x’ (\xi_i))^2 + (y’ (\xi_i))^2 }\right) \Bigg|(t_i \, – \, t_{i-1}) < \epsilon \sum\limits_{i = 1}^n (t_i \, – \, t_{i-1})$$

Entonces

$$\epsilon \sum\limits_{i = 1}^n (t_i \, – \, t_{i-1}) = \epsilon (b – a) $$

Por otro lado:

$$\Big| \mathcal{L}(C) \, – \, \mathcal{S}(f, \mathcal{P}) \Big| = \sum\limits_{i = 1}^n \Bigg| \left(\sqrt {( x’ (\xi_i))^2 + (y’ (\eta_i))^2 } \, – \, \sqrt {( x’ (\xi_i))^2 + (y’ (\xi_i))^2 }\right) \Bigg|(t_i \, – \, t_{i-1}) < \epsilon (b – a)$$

donde $f(t) = \sqrt {( x’ (t))^2 + (y’ (t))^2 }$

Luego $ \Big| \mathcal{L}(C) \, – \, \mathcal{S}(f, \mathcal{P}) \Big| < \epsilon (b – a)$

$\mathcal{L}(\alpha) = sup\{ \mathcal{L}(C)\}$ , donde $C$ es la trayectoria poligonal.

Entonces $\int_a^b \Big\|{\alpha}’ (t) \Big\| dt = \lim\limits_{\|\mathcal{P}\| \to 0} \mathcal{S} (f, \mathcal{P})$

Para todo $\epsilon > 0$ existe $c$ tal que $|\mathcal{L}(\alpha) \, – \, \mathcal{L}(C)| < \dfrac{\epsilon}{2}$

Para todo $\epsilon > 0$ existe $\mathcal{P}$ tal que

$ \Big| \mathcal{S}(f, \mathcal{P}) \, – \, \int_a^b \Big\|{\alpha}’ (t) \Big\| dt \Big| < \dfrac{\epsilon}{2}$

Existe una sucesión de curvas poligonales $\{ C_k\}_{k \in \mathbb{N}}$ tal que $\lim\limits_{k \to \infty} \mathcal{L}(C_k) = \mathcal{L}(\alpha)$

$ \lim\limits_{k \to \infty} \mathcal{S}(f , \mathcal{P}_k) = \int\limits_a^b \Big\|{\alpha}’ (t) \Big\| dt $ donde $\mathcal{P}_k$ son particiones de $[a, b].$

Afirmación:

$\Big| \mathcal{L}(C) \, – \, \mathcal{S}(f, \mathcal{P}_k) \Big| \rightarrow 0$ cuando $k \rightarrow \infty$

$$\therefore \mathcal{L}(\alpha) = \int\limits_a^b \Big\| {\alpha}'(t) \Big\| dt \; _{\blacksquare}$$

Y para terminar, dos resultados fuertes de la integral de Riemann-Stieltjes

Por Lizbeth Fernández Villegas

$\textit{MATERIAL EN REVISIÓN}$

Introducción

El contenido de esta sección se basa predominantemente en el libro
Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015, págs 34-37.

En la entrada anterior vimos que para cualesquiera $P_1, P_2 \in \mathcal{P}_{[a,b]}$ se cumple que $\underline{S}_{P_1} \leq \overline{S}_{P_2},$ entonces

\begin{align}
-\infty < \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \leq \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} < \infty.
\end{align}

Esto también ocurre con la integral de Riemann que se estudia en los cursos de Cálculo, donde además, cuando se da la igualdad $\, \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \, $ se toma el valor del límite como el valor de la integral. (Ver Cálculo Diferencial e Integral II: Definición de la integral definida).

Nota que nosotros no hemos definido así la integral de Riemann-Stieltjes, sino tomando particiones cuyas normas tienden a cero. Aunque la intuición nos dice que particiones de intervalos muy pequeños se aproximan demasiado al valor de la integral, esto no siempre ocurre. Específicamente, incluso cuando se cumple que $\, \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \,$ en el caso de las sumas inferior y superior de Riemann-Stieltjes, la integral podría no existir. Veamos un ejemplo.

Sean $f:[a,b] \to \mathbb{R}\,$ y $\, \alpha:[a,b] \to \mathbb{R}$ definidas como

\begin{equation*}
f(x) = \begin{cases}
0 &\text{ si } &-1 \leq x <0 \\
1 &\text{ si } &0 \leq x \leq 1.
\end{cases}
\end{equation*}

\begin{equation*}
\alpha (x) = \begin{cases}
0 &\text{ si } &-1 \leq x \leq 0 \\
1 &\text{ si } &0 < x \leq 1 .
\end{cases}
\end{equation*}

Observa que $f$ y $\alpha$ tienen un punto de discontinuidad común que provoca que $\int_{-1}^{1}f \, d\alpha$ no exista. En efecto, si $P= \{x_0=-1,…,x_n =1\}$ es una partición en la que $x_{j-1} < 0 < x_j$ para algún $j \in \{1,…,n\}$
se puede ver que $S(P,f,\alpha)= f(\xi_j)$ con $\xi_j \in [x_{j-1}, x_j],$ (queda como ejercicio) y así

$$S(P,f,\alpha)= 0\, \text{ o }\, S(P,f,\alpha)= 1$$
sin importar qué tan pequeños sean los intervalos de la partición, por lo que no existe $\underset{|P| \to 0}{lim} \, S(P,f,\alpha).$

Pese a lo anterior, es sencillo verificar que
$$ \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = 1.$$

La siguiente proposición muestra hipótesis en las que la integral de Riemann-Stieltjes y los límites de las sumas sí coinciden.

Proposición. Sea $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ monótona creciente. Si $\int_{a}^{b}f \, d\alpha$ existe, entonces

$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, \text{ y } \, \underset{|P| \to 0}{lim} \, \overline{S}_P$$

existen y

$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, = \, \underset{|P| \to 0}{lim} \, \overline{S}_P = \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = \int_{a}^{b}f \, d\alpha.$$

Demostración:
En el caso no trivial, supongamos que $\alpha$ no es constante en $[a,b].$

Sea $I = \int_{a}^{b}f \, d\alpha.$ Entonces dada $\varepsilon >0$ existe $\delta>0$ tal que si $|P|< \delta$ entonces $|I \, – \, S(P,f,\alpha)|< \varepsilon.$

Supongamos que $P= \{x_0 = a,…, x_n =b\}$ con $|P|< \delta.$ Tomemos $\xi_i, \, \eta_i \in [x_{i-1},x_i], \, i=1,…,n, \,$ tales que

\begin{align}
0 \leq M_i \, – \, f(\xi_i) &< \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)} \, \, \text{ y } \\
0 \leq f(\eta_i) \, – \, m_i &< \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}
\end{align}

Sean

\begin{align}
S’_P&= \sum_{i=1}^{n}f(\xi_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, \, \text{ y } \\
S^{\prime \prime}_P&= \sum_{i=1}^{n}f(\eta_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))
\end{align}

entonces

\begin{align}
|I \, – \, S’_P|&< \varepsilon \, \, \text{ y}\\
|I \, – \, S^{\prime \prime}_P|&< \varepsilon.
\end{align}

Por otro lado, por (2),

\begin{align}
\nonumber 0 \leq \overline{S}_P \, – \, S’_P &= \sum_{i=1}^{n}M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \sum_{i=1}^{n}f(\xi_i) \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
\nonumber &= \sum_{i=1}^{n}[M_i \, – \, f(\xi_i)] \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &< \sum_{i=1}^{n}\frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &= \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, \sum_{i=1}^{n} (\alpha(x_i) \, – \, \alpha(x_{i-1})) \\
\nonumber &= \frac{\varepsilon}{\alpha(b) \, – \, \alpha(a)}\, (\alpha(b) \, – \, \alpha(a)) \\
&= \varepsilon.
\end{align}

Análogamente

\begin{align}
0 \leq S^{\prime \prime}_P \, – \, \underline{S}_P < \varepsilon.
\end{align}

De (6), (8) y la desigualdad del triángulo se sigue

$$|\overline{S}_P \, – \, I|\leq |\overline{S}_P\, – \, S’_P|+|S’_P \, – \, I|< \varepsilon + \varepsilon = 2 \varepsilon,$$

mientras que de (7), (9) y la desigualdad del triángulo tenemos

$$|\underline{S}_P \, – \, I|\leq |\underline{S}_P\, – \, S^{\prime \prime}_P|+|S^{\prime \prime}_P \, – \, I|< \varepsilon + \varepsilon = 2 \varepsilon,$$

por lo tanto

$$\underset{|P|\to 0}{lim}\, \overline{S}_P = I = \underset{|P|\to 0}{lim}\, \underline{S}_P .$$

Dado que

$$\underline{S}_P \leq \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \leq \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} \leq \overline{S}_P$$

entonces también

$$\underset{|P|\to 0}{lim}\, \underline{S}_P =\underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = \underset{|P|\to 0}{lim}\, \overline{S}_P$$

terminando así la prueba.

Para finalizar, veamos la siguiente:

Proposición. Sean $f:[a,b] \to \mathbb{R}$ acotada y $\alpha:[a,b] \to \mathbb{R}$ monótona creciente y continua, entonces

a)
$$\underset{|P| \to 0}{lim} \, \underline{S}_P \, \text{ y } \, \underset{|P| \to 0}{lim} \, \overline{S}_P$$

existen y se cumplen las siguientes igualdades:

\begin{align}
\underset{|P| \to 0}{lim} \, \underline{S}_P &= \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} \\
\underset{|P| \to 0}{lim} \, \overline{S}_P &= \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P}.
\end{align}

b) Si además $\underset{P \in \mathcal{P}_{[a,b]}}{sup} \, \underline{S}_P = \underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P$ entonces

$$\int_{a}^{b}f \, d\alpha$$

existe y

$$\underset{P \in \mathcal{P}_{[a,b]}}{sup} \, \underline{S}_P = \int_{a}^{b}f \, d\alpha= \underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P.$$

Demostración:
a) Será suficiente probar (10) y (11). Presentamos la demostración de (11). La igualdad faltante es análoga y se dejará como ejercicio al lector.

Para simplificar la notación, hagamos

$$\underset{P \in \mathcal{P}_{[a,b]}}{inf} \, \overline{S}_P := \overline{S}.$$

Nota que (11) se cumple si y solo si dado $\varepsilon>0$ existe $\delta>0$ tal que si $|P|< \delta$ entonces

\begin{align}
\nonumber &&|\overline{S}_P \, – \, \overline{S}| &< \varepsilon\\
\nonumber &\iff& \overline{S}_P \, – \, \overline{S} &< \varepsilon\\
&\iff& \overline{S}_P &< \overline{S} + \varepsilon
\end{align}

Tomemos $\hat{P}=\{\hat{x_0}=a,…,\hat{x_n}=b\}$ una partición de $[a,b]$ tal que

$$\overline{S}_{\hat{P}}<\overline{S}+ \frac{\varepsilon}{2}.$$

y sea
\begin{align}
\textcolor{RoyalBlue}{M= \underset{x \, \in \, [a,b]}{sup} \, |f(x)|.}
\end{align}

Ya que $\alpha$ es uniformemente continua en $[a,b],$ existe $\eta>0$ tal que si $|x \, – \, x’|< \eta$ entonces

\begin{align}
\textcolor{magenta}{|\alpha(x) \, – \, \alpha(x’)| < \frac{\varepsilon}{4(n+1)M}}.
\end{align}

Ahora tomemos $P=\{x_0=a,…,x_m=b\}$ partición de $[a,b]$ tal que $|P|< \eta$ y
$$|P|< \underset{i \in \{1,…,n\}}{min}\, (\hat{x_i}\, – \, \hat{x}_{i-1}).$$

Vamos a mostrar que $\overline{S}_P$ cumple (12).

Nota que

\begin{align}
\overline{S}_P &= \sum_{i=1}^{m}M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))\\
&= \sum’ + {\sum}^{\prime \prime}
\end{align}

donde $\sum’$ representa a los sumandos cuyos intervalos no tienen puntos de $\hat{P}\,$ y $\, \sum^{\prime \prime}$ representa a los que sí. Observa que, por como fueron elegidas $P$ y $\hat{P},$ cada intervalo generado por $P$ tiene a lo más un punto de $\hat{P},$ así

\begin{align}
\overline{S}_{P \cup \hat{P}} = \sum’ + {\sum}^{\prime \prime \prime}
\end{align}

donde $\sum^{\prime \prime \prime}$ resulta de reemplazar cada sumando en $\sum^{\prime \prime}$ que es de la forma

$$M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1}))$$

por la expresión

$$\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) ) $$

donde $\hat{x}_j$ es el punto de $\hat{P}$ en $(x_{i-1}, x_i).$

Por lo tanto de (16) y (17) tenemos
$$\overline{S}_P \, – \, \overline{S}_{P \cup \hat{P}} = {\sum}^{\prime \prime} \, – \, {\sum}^{\prime \prime \prime}.$$

Observa que se satisface al menos una de las siguientes igualdades:

\begin{align}
M_i &= \underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, \text{ o bien} \\
M_i &= \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x)
\end{align}

Si se cumple (18) entonces

\begin{align}
\nonumber M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \, [\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) )] = \\
=\textcolor{RoyalBlue}{\left( M_i \, – \, \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \right)} \, \textcolor{magenta}{(\alpha(x_i) \, – \, \alpha(\hat{x}_j) )}
\end{align}

Pero si se cumple (19) se sigue que

\begin{align}
\nonumber M_i \, (\alpha(x_i) \, – \, \alpha(x_{i-1})) \, – \, [\underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \, (\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1})) + \underset{x \, \in \, [\hat{x}_j, x_{i},]}{sup}f(x) \, (\alpha(x_i) \, – \, \alpha(\hat{x}_j) )] = \\
=\textcolor{RoyalBlue}{\left(M_i \, – \, \underset{x \, \in \, [x_{i-1},\hat{x}_j]}{sup}f(x) \right)} \, \textcolor{magenta}{(\alpha(\hat{x}_j) \, – \, \alpha(x_{i-1}) )}
\end{align}

En cualquier caso, de (13) y (14) la diferencia es a lo más
$$\frac{\textcolor{RoyalBlue}{2M}\textcolor{magenta}{\varepsilon}}{\textcolor{magenta}{4(n+1)M}} = \frac{\varepsilon}{2(n+1)}$$

Entonces.

$$\overline{S}_P \, – \, \overline{S}_{P \cup \hat{P}} \leq \frac{\varepsilon(n+1)}{2(n+1)} = \frac{\varepsilon}{2}.$$

Más aún

$$\overline{S}_{P \cup \hat{P}} \leq \overline{S}_\hat{P} < \overline{S}+\frac{\varepsilon}{2}$$

con lo cual queda demostrada la proposición.

b) Dado que para cualquier $P \in \mathcal{P}_{[a,b]}$

$$\underline{S}_P \leq S(P,f,\alpha) \leq \overline{S}_P$$
entonces haciendo $|P| \to 0$ concluimos:

$$\underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \int_{a}^{b}f \, d\alpha = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P}.$$

Más adelante…

¡Gracias por acompañarnos en la exposición de este curso! Si deseas continuar, puedes consultar el contenido correspondiente a Análisis Matemático II. La comunidad sigue creciendo y ya trabaja creando notas con ejercicios que motiven el aprendizaje. Pronto te las compartiremos.

Tarea moral

  1. En el ejemplo descrito al inicio, demuestra que
    a)
    $$S(P,f,\alpha)= f(\xi_j)$$
    con $\xi_j \in [x_{j-1}, x_j]$ donde $[x_{j-1}, x_j]$ es el intervalo de la partición que tiene al cero.
    Prueba también que para todo $\delta>0$ existe una partición $P$ con $|P|< \delta$ tal que
    $S(P,f,\alpha)= 0$ o $S(P,f,\alpha)= 1$
    dependiendo el punto $\xi_j$ elegido. Concluye que no existe $\underset{|P| \to 0}{lim} \, S(P,f,\alpha).$
    b) Verifica que
    $$ \underset{P \in \mathcal{P}_{[a,b]}}{sup \, \underline{S}_P} = \underset{P \in \mathcal{P}_{[a,b]}}{inf \, \overline{S}_P} = 1.$$
  2. Demuestra la igualdad (10).

Bibliografía

  • Wheeden, R.L., Zygmund, A., Measure and Integral. An Introduccion to Real Analysis. (2da ed.). New York: Marcel Dekker, 2015. Págs: 34-37.

Enlaces