Archivo de la etiqueta: integral

Cálculo Diferencial e Integral II: Definición de la integral definida

Por Moisés Morales Déciga

Introducción

En la entrada anterior se introdujo el problema de calcular el área que se encuentra en una región delimitada por ciertas líneas verticales, el eje $x$ y la gráfica de una función. Hablamos de cómo aproximar esta área cuando la función es «bien portada», pero aún no hemos dicho a qué se refiere esto. En esta entrada haremos una formalización de este concepto mediante la definición de integral definida.

La intuición que puedes tener a lo largo de la entrada es que para poder hablar de que una función sea integrable en cierto intervalo, intuitivamente necesitamos que las sumas de Riemann convergan a un valor conforme hacemos las celdas tender a cero en longitud. Esto diría que sin importar cómo hagamos la partición, las sumas de Riemann deben converger a un mismo valor conforme la partición se hace más y más fina. En particular, necesitaremos que las sumas superiores e inferiores cumplan esto. Como en ellas entendemos bien qué pasa con los refinamientos, entonces nos conviene más dar la definición en términos de ellas. Es lo más conveniente y, en particular, implica lo anterior.

Integral definida de Riemann

La definición clave que estudiaremos es la siguiente.

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $\mathbf{P}$ el conjunto de las particiones de $[a,b]$. Definimos

\begin{align*}
\underline{S}(f) & = \sup \lbrace \underline{S(f,P)} \ | P \in \mathbf{P} \rbrace\\
\overline{S}(f) &= \inf \lbrace \overline{S(f,P)} \ | P \in \mathbf{P} \rbrace,
\end{align*}

es decir al supremo de las sumas inferiores y al ínfimo de las sumas superiores sobre todas las particiones posibles de $[a,b]$. Diremos que existe la integral definida de Riemann para $f$ en el intervalo $[a,b]$ si

$$ \underline{S(f)} = \overline{S(f)}.$$

En este caso, a este valor en común lo denotamos por $$\int \limits_{a}^{b} f(x) dx.$$

En otras palabras, para que $f$ sea integrable, necesitamos que el ínfimo de las sumas superiores sea igual al supremo de las sumas inferiores. A veces también decimos que $f$ es Riemann integrable en $[a,b]$ o, si el contexto es claro, simplemente que es integrable.

No todas las funciones son Riemann integrables. Hacia el final de esta unidad daremos ejemplos de funciones que no lo son. Sin embargo, por ahora nos enfocaremos en ver algunos ejemplos que sí son Riemann integrables y probar propiedades de la integral definida en los casos en los que sí exista.

Ejemplo de integral definida

Veamos un ejemplo sencillo de cómo se verifica la definición de integral definida.

Ejemplo. Tomemos la función $f:[0,1]\to \mathbb{R}$ dada por $f(x)=x$. Veamos que dicha función es integrable en el intervalo $[0,1]$. Para ello, demos la partición $P_n$ homogénea del intervalo $[0,1]$ en celdas de longitud $1/n$, con $n$ un entero positivo. Si hacemos esto, las celdas de la partición son

$$[0,1/n],[1/n,2/n],\ldots[(n-1)/n,1].$$

Los supremos de los valores de $f$ en dicho intervalo son

$$1/n, 2/n, \ldots, 1,$$

y los ínfimos son

$$0,1/n, \ldots, (n-1)/n.$$

De este modo, para esta partición la suma superior sería

\begin{align*}
\overline{S} (f,P_n) &= \frac{1}{n}\left(\frac{1}{n}+\frac{2}{n}+\ldots+\frac{n}{n}\right)\\
&=\frac{1}{n^2}(1+2+\ldots+n)\\
&=\frac{n(n+1)}{2n^2}\\
&=\frac{1}{2}+\frac{1}{2n}.
\end{align*}

y la suma inferior sería

\begin{align*}
\underline{S} (f,P_n) &= \frac{1}{n}\left(\frac{0}{n}+\frac{2}{n}+\ldots+\frac{n-1}{n}\right)\\
&=\frac{1}{n^2}(0+1+2+\ldots+(n-1))\\
&=\frac{(n-1)n}{2n^2}\\
&=\frac{1}{2}-\frac{1}{2n}.
\end{align*}

La sucesión de números $\frac{1}{2}+\frac{1}{2n}$ se acerca tanto como queramos a $\frac{1}{2}$ por arriba. Como el ínfimo $\overline{S}(f)$ que estamos buscando es cota inferior de todas las sumas inferiores, en particular es de estas que vienen de particiones homogéneas. Así, $\overline{S}(f)\leq \frac{1}{2}$. Pero además, por una proposición de la entrada anterior sabemos que cualquier suma inferior es cota inferior de todas las sumas inferiores. Como $\overline{S}(f)$ es la mayor cota inferior, tenemos que $\overline{S}(f)\geq \frac{1}{2}-\frac{1}{2n}$ para todo $n$, y entonces $\overline{S}(f)\geq \frac{1}{2}$. Todo esto nos permite concluir que $\overline{S}(f)=\frac{1}{2}$.

De manera totalmente análoga (que te sugerimos argumentar cuidadosamente), se tiene que $\underline{S}(f)=\frac{1}{2}$. Concluimos entonces que $f$ es integrable en $[0,1]$ y que $$\int_0^1 f(x)\, dx = \frac{1}{2}.$$

$\triangle$

Aunque este ejemplo tuvo un intervalo y una función muy sencillas, se volvió algo elaborado justificar la parte de los ínfimos y supremos. Es por ello que nos conviene enunciar y demostrar algunos resultados sobre funciones integrables que nos permitirán determinar la integrabilidad con más comodidad.

Integral definida mediante particiones homogéneas y la condición de Riemann

Lo primero que haremos es demostrar que para que una función sea integrable, nos basta estudiar a las particiones homogéneas.

Teorema. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P_n$ la partición homogéneas del intervalo $[a,b]$ en $n$ partes. Supongamos que se da la siguiente igualdad de límites:

$$\lim_{n\to \infty} \overline{S}(f,P_n) = \lim_{n\to \infty} \underline{S}(f,P_n).$$

Entonces, la integral existe y es igual a ese límite en común.

Demostración. $\Leftarrow)$ La demostración sigue argumentos muy parecidos al ejercicio que presentamos como ejemplo arriba. Supongamos que los límites para las particiones homogéneas existen y son iguales a $L$. Estudiemos $\overline{S}(f)$. Por ser ínfimo de todas las sumas superiores, tendríamos en particular para las particiones homogéneas que $$\overline{S}(f)\leq \overline{S}(f,P_n),$$

para todo entero positivo $n$. Haciendo tender $n$ a infinito, obtenemos $\overline{S}(f) \leq L$. Por otro lado, sabemos que cualquier suma inferior es cota inferior de cualquier suma superior, en particular, cada $\underline{S}(f,P_n)$ es una de estas cotas inferiores. Como $\overline{S}(f)$ es la mayor de las cotas inferiores, tendríamos que $$\overline{S}(f)\geq \underline{S}(f,P_n).$$

Haciendo tender $n$ a infinito, obtenemos $\overline{S}(f)\geq L$. Así, $\overline{S}(f)=L$. Un argumento análogo demuestra que $\underline{S}(f)=L$, y por lo tanto la función es integrable en $[a,b]$.

$\square$

Un siguiente resultado importante es la condición de Riemann, que nos dice que para que una función sea integrable, nos basta encontrar una partición en donde la suma superior y la inferior estén tan cerca como querramos. A esto se le conoce como la condición de Riemann.

Teorema. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Se tiene que $f$ es integrable en $[a,b]$ si y sólo si para todo $\epsilon >0$ existe una partición $P_\epsilon$ tal que:

$$\overline{S}(f,P_\epsilon) \ – \ \underline{S}(f,P_\epsilon) < \epsilon .$$

Demostración. $\Rightarrow )$ Sea $f$ integrable. Debemos mostrar que para cada $\epsilon>0$ existe una partición $P_\epsilon$ tal que $$\overline{S}(f,P_\epsilon) \ – \ \underline{S}(f,P_\epsilon) < \epsilon.$$

Para ello, tomemos $\epsilon^*=\epsilon/2$. Como $\overline{S}(f)$ es ínfimo de las sumas superiores, entonces $\overline{S}(f)+\epsilon^\ast$ ya no es cota inferior para dichas sumas superiores, por lo que existe una partición $P$ tal que $\overline{S}(f,P) < \overline{S}(f)+\epsilon^*$. Así mismo, existe una partición $P’$ tal que $\underline{S}(f,P’) > \underline{S}-\epsilon^*$. Si $P_\epsilon$ es un refinamiento mutuo de $P$ y $P’$, tendríamos entonces que

\begin{align*}
\overline{S}(f,P_\epsilon)&<\overline{S}(f,P)<\overline{S}(f)+\epsilon^*\\
\underline{S}(f,P_\epsilon)&>\underline{S}(f,Q)>\underline{S}(f)-\epsilon^*.
\end{align*}

Multiplicando la segunda igualdad por $-1$ y sumando ambas, obtenemos entonces que

\begin{align*}
\overline{S}(f,P_\epsilon) \ – \ \underline{S}(f,P_\epsilon) &< \overline{S}(f) + \epsilon^* \ – \ \underline{S}(f) + \epsilon^* \\
&= 2 \epsilon^* \\
&= \epsilon .
\end{align*}

Aquí usamos que $\overline{S}(f)=\underline{S}(f)$ por ser $f$ integrable.

$\Leftarrow)$ Supongamos ahora que para todo $\epsilon$ se puede encontrar la partición $P_\epsilon$ que satisface $\overline{S}(f,P_\epsilon) \ – \ \underline{S}(f,P_\epsilon) < \epsilon$. Veremos que a partir de esto se puede probar que $ \overline{S}(f) = \underline{S}(f) .$

Por ser $\overline{S}(f)$ el ínfimo de todas las sumas superiores, se tiene que

$$\overline{S}(f,P_\epsilon) > \overline{S}(f) .$$

$$ \underline{S}(f,P_\epsilon) < \underline{S}(f) \Longrightarrow – \underline{S}(f,P_\epsilon) > – \underline{S}(f) .$$

$$\Longrightarrow \epsilon > \overline{S}(f,P_\epsilon) \ – \ \underline{S}(f,P_\epsilon) > \overline{S}(f) \ – \ \underline{S}(f) .$$

Y $\epsilon$ es tan pequeño como lo queramos, por lo tanto.

$$ \overline{S}(f) = \underline{S}(f) .$$

$\square$

Ejemplos de integral definida con los resultados que probamos

Veamos algunos ejemplos de cómo utilizar los resultados que acabamos de mostrar para demostrar que ciertas integrales definidas existen, y para encontrar su valor.

Ejemplo. Calculemos la integral de la función $f(x)=x$ en el intervalo $[3,4]$

Usaremos la técnica de los límites de las particiones homogéneas. Estudiaremos con detalle el caso de las sumas superiores y dejaremos el de las inferiores como ejercicio. Si la partición $P_n$ del intervalo $[a,b]$ es homogénea y en $n$ partes, las celdas tienen longitud $\frac{b-a}{n}$ y entonces son:

$$\left[a,a+\frac{b-a}{n}\right], \left[a+\frac{b-a}{n}, a+2\frac{b-a}{n}\right], \ldots, \left[a+(n-1)\frac{b-a}{n},b\right].$$

La función $f(x)=x$ es creciente, y entonces los máximos se alcanzan al final de cada intervalo. Así, para el intervalo $[3,4]$ tenemos:

\begin{align*}
\overline{S}(f,P_n)&=\sum_{i=1}^{n} f \left( 3+i \cdot \frac{4-1}{n} \right) \frac{4-3}{n}\\
&=\sum_{i=1}^{n} \left(3+ \frac{i}{n}\right) \frac{1}{n}\\
&=\sum_{i=1}^{n} \left(\frac{3}{n}+ \frac{i}{n^2}\right)\\
&=\sum_{i=1}^{n} \left(\frac{3}{n}\right) + \sum_{i=1}^{n} \left(\frac{i}{n^2}\right)\\
&=\frac{3}{n} \cdot n + \frac{1}{n^2} \sum_{i=1}^n i\\
&=3 + \frac{n(n+1)}{2n^2} \\
&=3 + \frac{1}{2} + \frac{1}{2n}\\
&=\frac{7}{2}+\frac{1}{2n}.
\end{align*}

De este modo,

$$\lim_{n\to\infty} \overline{S}(f,P_n) = \lim_{n\to\infty} \left(\frac{7}{2} + \frac{1}{2n}\right) = \frac{7}{2}.$$

Por tu cuenta, revisa que que también se cumple lo siguiente

$$\lim_{n\to\infty} \underline{S}(f,P_n) = \frac{7}{2}.$$

Así, por la proposición que mostarmos arriba, tenemos que la integral en el intervalo $[3,4]$ existe y por lo tanto:

$$ \int \limits_{3}^{4} x \, dx = \frac{7}{2}.$$

$\triangle$

Ejemplo. Ahora calculemos la integral de la función $f(x)=-x^2 + 3$ en el intervalo $[1,3]$ . Al hacer una figura, obtenemos la siguiente gráfica.

Observa que en este caso tenemos 2 áreas: del eje $x$ y otra por debajo del eje $x$. Todo lo que hemos hecho funciona tanto para funciones positivas, como negativas. Pero obtendremos algo interesante de la conclusión de este problema.

Para ver que la integral existe, usaremos nuevamente la técnica de las particiones homogéneas. Ahora haremos las sumas inferiores. Como la función es decreciente, los valores más chicos aparecen al final de cada intervalo. Tenemos entonces que:

\begin{align*}
\underline{S}(f,P)&=\sum_{i=1}^{n} \left( – \ \left( 1+i\cdot \left(\frac{3-1}{n}\right) \right)^2+3 \right) \left(\frac{3-1}{n} \right) \\
&=\sum_{i=1}^{n} \left(- \ \left(1+i\cdot \left(\frac{2}{n}\right)\right)^2+3\right) \left(\frac{2}{n}\right)\\
&=\sum_{i=1}^{n} \left( – \ \left(1+ \frac{4i}{n} + \frac{4 i^2}{n^2}\right)+3\right) \left(\frac{2}{n}\right)\\
&=\sum_{i=1}^{n} \left(\frac{ 4}{n} – \frac{8i} {n^2} – \frac{8 i^2}{n^3}\right)\\
&=\frac{4}{n} \sum_{i=1}^{n} – \frac{8}{n^2} \sum_{i=1}^{n} i – \frac{8}{n^3}\sum_{i=1}^{n} i^2\\
&=\frac{4}{n} \cdot n – \frac{8}{n^2} \frac{n(n+1)}{2} – \frac{8}{n^3} \frac{n(n+1)(2n+1)}{6} \\
&=4 \ – \ \frac{8n^2}{2n^2} \ – \ \frac{8n}{2n^2} \ – \ \frac{8 \cdot 2n^3}{6n^3} \ – \ \frac{8 \cdot 3n^2}{6n^3} \ – \ \frac{8n}{6n^3} \\
&= – \ \frac{8}{3} \ – \ \frac{8n}{2n^2} \ – \ \frac{8 \cdot 3n^2}{6n^3} \ – \ \frac{8n}{6n^3} .
\end{align*}

Así, $$\lim_{n\to\infty} \underline{S}(f,P)=-\frac{8}{3}.$$

Se puede mostrar que el límite de las sumas superiores para las particiones homogéneas también es $-\frac{8}{3}$ (verifícalo), así que la integral buscada tiene este valor. De esta forma,

$$ \int \limits_{1}^{3} -x^2 +3 \, dx = – 8/3 .$$

$\triangle$

¿Áreas negativas?

Se comentó que la integral se utiliza para el cálculo de áreas bajo la curva, entonces, ¿Por qué el resultado del ejemplo anterior es negativo? ¿Hay áreas negativas? Intuitivamente, no debería haber áreas negativas. Sin embargo, el procedimiento que usamos para definir a la integral definida sí nos puede dar números negativos. Puedes pensarlo como sigue: el área que estamos calculando va del eje $x$ a la gráfica de la función $f$. Si esa gráfica está por debajo, entonces estámos yendo en dirección negativa. En el último ejemplo hay tanto una región por encima del eje $x$, como una por debajo. El número que nos salió es la diferencia de ambas áreas: el área por arriba del eje $x$, menos el área por debajo del eje $x$. Como el resultado que obtuvimos fue negativo, entonces el área por debajo del eje $x$ era mayor en magnitud.

Esta es una propiedad un poco antintuitiva, pero es importante preservarla. El cálculo de áreas es sólo una de las aplicaciones que tiene la integral. En otras aplicaciones, es importante que la integral mida qué tanto estuvimos por encima del eje $x$ y qué tanto estuvimos por debajo.

¿Y si queremos realmente entender la suma de las dos áreas de la figura y no la resta? En ese caso, tendremos que hacer una figura para entender cómo hacer las cuentas. Si hay área que está por debajo del eje $x$, deberemos agregar un signo $-$ para contarla correctamente como área positiva. Pero entonces tendremos que partir nuestro intervalo de integración en varios intervalos de acuerdo a cuándo la gráfica de $f$ cruza al eje $x$.

Con esto en mente, retomemos el ejemplo anterior.

Ejemplo. Encontremos el área en valor absoluto que genera la función $f(x)=-x^2 + 3$ en el intervalo $[1,3]$.

Lo primeo que haremos es obtener el punto donde la función cruza al eje $x$. Para ello, se requiere que $-x^2+3=0$, que en dicho intervalo sucede en $x=\sqrt{3}$.

Una vez encontrado el punto raíz o la raíz de la función, ahora podemos partir el área absoluta que nos interesa en dos intervalos: el $[1,\sqrt{3}]$ y el $[\sqrt{3},3]$.

Pensando en que queremos calcular el área absoluta, necesitamos dividir la formula que se planteó anteriormente en los intervalos correspondientes, y en el intervalo $[\sqrt{3},3]$ será necesario agregar un signo menos para que el área que se calcula como negativa, ahora se cuente de manera positiva. De esta manera, tendríamos:

$$ F_1^3 = \int \limits_{1}^{\sqrt 3} -x^2 +3 \, dx \ – \ \int \limits_{\sqrt 3}^{3} -x^2 +3 \, dx .$$

Ahora queda replicar el proceso que vimos en la suma anterior con estos 2 nuevos intervalos y juntarlos considerando el cambio de signo. Desarrollando los cálculos, se encuentra que el área generada por la función es de:

$$F_1^ 3= 4 \sqrt 3 \ – \ \frac{8}{3}.$$

$\triangle$

Nota. En este ejemplo partimos el intervalo en dos subintervalos, pero el intervalo puede quedar partido tantas veces como la función $f$ lo requiera, de acuerdo a la cantidad de veces que se cruza el eje $x$.

Más adelante…

En esta entrada dimos la definición formal de que una función sea integrable en cierto intervalo. O mejor dicho, que sea Riemann integrable. En cursos más avanzados de matemáticas se definen y estudian otras nociones de integrabilidad, pero por ahora esta es la que nos interesa. Para que la integral de Riemann exista, necesitamos que coindidan el ínfimo de las sumas superiores y el supremo de las sumas inferiores de la función dada. En ese caso, el valor de la integral es ese valor en común.

Ya dada la definición, dimos algunos resultados que nos ayudarán a determinar cuándo una función es integrable. En siguientes entradas daremos más propiedades que nos ayudarán entender mejor la integrabilidad y la integral. Varias entradas despuésse hablará de las integrales indefinidas y del teorema fundamental del cálculo, que daran pie a numerosas técnicas de integración.

Lo último que hicimos en esta entrada es notar que hay casos en donde el valor de la integral que se encuentra es negativo. Esto contradice un poco nuestra intuición de que la integral es un área. Sin embargo, ya platicamos qué hacer en este caso si queremos realmente el «área positiva». Seguiremos explorando esta idea de integrales negativas un poco más adelante. Por ahora, lo que puedes hacer es identificar los intervalos en los que la función tiene determinado signo.

Tarea moral

  1. Completa las cuentas que quedaron pendientes en cada uno de los ejercicios.
  2. Expresa la siguiente expresión como una integral en el intervalo $[0,\pi]$. $$\lim_{n \rightarrow \infty} \sum_{i=1}^n (x_i^3 + x_i ~ sin (x_i)) \triangle x .$$
  3. Encuentra el área delimitada por la curva $f(x)=x^2 +2 $ y el eje $x$ en el intervalo $[1,4]$.

4. Encuentra el valor del área delimitada por la gráfica de la función$f(x)= x^3-6x$ en el intervalo $[0,3]$, que es la zona sombreada. Realiza las cuentas tanto con áreas absolutas, tanto con áreas con signo.

5. Encuentra el área de la función $f(x)=\sqrt {1-x^2}$ en el intervalo $[0,1]$.

Entradas relacionadas

Cálculo Diferencial e Integral II: Motivación de la integral y sumas de Riemann

Por Moisés Morales Déciga

Introducción

La principal motivación y aplicación de la integral es el cálculo de áreas. En esta entrada hablaremos de cómo aproximar áreas mediante sumas de Riemann. Para introducir este concepto, recordemos que en la entrada pasada se ilustró el método de exhaución. Vimos que es un acercamiento geométrico al cálculo del área del círculo mediante polígonos inscritos o circunscritos. Intuitivamente, conforme aumentamos el número de lados de estos polígonos, el área generada por ellos se aproximaba cada vez mejor al área del círculo.

Sin embargo, en las aplicaciones no sólo queremos calcular el área de círculos, sino de muchos tipos diferentes de figuras. Idealmente, nos gustaría poder calcular el área de muchas figuras u objetos, siempre y cuando éstos se puedan describir.

La forma de describirlos en este curso será mediante funciones. Por lo tanto, buscaremos encontrar una función cuya gráfica se parezca al contorno del objeto (o bien cuyo contorno pueda ser descrito por más de una función). Esta gráfica será una curva que define una región. Hablaremos de cómo definir el área de esta región de manera que coincida con nuestra intuición.

En esta entrada empezaremos con algunas definiciones generales e ideas de aproximación basadas en el método exhaustivo.

Área bajo la curva

El origen analítico de la integral se origina al asociar áreas con funciones.

Tomemos dos reales $a$ y $b$ con $a<b$. Tomemos una función $f:\mathbb{R}\to \mathbb{R}$ que, para fijar las ideas correctamente por ahora, supondremos que es positiva en todo el intervalo $[a,b]$. Supongamos que delimitamos una región en el plano cartesiano de la siguiente manera.

  • Por la izquierda con la línea vertical $x = a$.
  • Por la derecha con la línea vertical $x=b$.
  • Por abajo con el eje $x$.
  • Por arriba con la gráfica de cierta función $f(x)$.

Entonces, la magnitud del espacio que se encuentra acotado por estas curvas se le conoce como el «área bajo la curva» o más específicamente, el «área bajo la curva de $f(x)$ en el intervalo $[a,b]$.» Usaremos la notación $F_a^b$ para referirnos a esta magnitud. En el transcurso de toda esta entrada supondremos que tenemos un ejemplo «bien portado» en el que sí tiene sentido hablar de dicha área $F_a^b$ (recuerda que las funciones pueden tener comportamientos muy raros). Será importante definir qué quiere decir exactamente «bien portado», pero eso lo haremos un poco más adelante.

Ejemplo. En la siguiente figura, la curva verde es la gráfica de la función $f(x)$. La región que nos interesa está bajo esta gráfica, entre las verticales en $a$ y $b$, y sobre el eje $x$. Su magnitud $F_{a}^b$ es el área bajo la curva que nos interesa.

$\triangle$

Particiones, celdas y rectángulos

Una vez definida la región a la que se le va a calcular el área, buscaremos hacer una aproximación a esa área mediante la suma de áreas de rectángulos. Estos pueden ser inscritos (que quedan por dentro o por debajo de la función) o circunscritos (que quedan por afuera o por encima de la función). La razón por la cual usamos rectángulos es que son figuras cuya área se calcula de manera muy sencilla: el área $A$ es su base $b$ por su altura $a$.

Para definir los rectángulos que usaremos para aproximar el área, será necesario hacer una partición $P$ del intervalo $[a,b]$ del eje $x$ en una cierta cantidad de partes (que llamaremos celdas), no necesariamente todas ellas de la misma longitud. Estas partes serán las bases de los rectángulos que usaremos. Comencemos a formalizar estos conceptos.

Definición. Sean $a$ y $b$ números reales con $a\leq b$. Sea $f:\mathbb{R}\to \mathbb{R}$ una función. Sea $n\geq 0$ un entero. Una partición (en $n$ partes) del intervalo $[a,b]$ será una elección de números reales $x_0\leq x_1 \leq \ldots\leq x_n$ con $x_0=a$ y $x_n=b$. A cada subintervalo de la forma $[x_{i-1},x_i]$ para $1\leq i\leq n$ le llamaremos una celda de la partición.

A una partición la escribiremos usualmente poniendo sus elementos en orden, de la siguiente manera:

$$P =\lbrace{x_0, x_1, x_2,…, x_{n-1}, x_n}\rbrace.$$

Definición. Dada la celda $[x_{i-1},x_i]$ para $1\leq i\leq n$ de una partición, su longitud será $x_i-x_{i-1}$ y la denotaremos por $\Delta x_i$. Así,

$$\Delta x_i= x_i \ – \ x_{i-1}, \quad (i=1,2,…,n).$$

Definición. Si las celdas de una partición tienen todas la misma longitud, diremos que es una partición homogénea. Si no, es decir, si hay celdas de longitudes distintas, diremos que es una partición no homogénea.

Al tomar una partición del intervalo $[a,b]$, podemos dibujar líneas verticales en cada punto de la partición. El área $F_a^b$ que nos interesa queda dividida en regiones o franjas como en la siguiente figura.

La función es en verde, la partición está en azul.

Intuición de las sumas superiores e inferiores

El área de cada una de las franjas que hicimos la podemos aproximar (al estilo del método exhaustivo) mediante rectángulos. Sin embargo, dado que la gráfica de la función no es exactamente horizontal, la suma de ciertos rectángulos que usemos para aproximar el área podría no ser exactamente el área bajo la curva. ¿Qué podríamos hacer para tener un poco más de control sobre cómo es el área de cada rectángulo con respecto al área de cada franja? Podemos usar como base las longitudes de las celdas y como altura podemos usar el máximo o mínimo de la función $f(x)$ en cada intervalo. Esto es un caso particular de lo que más adelante llamaremos sumas de Riemann.

La siguiente figura muestra rectángulos desde el eje $x$ hasta la altura morada (que es el mínimo de la función en cada celda) y rectángulos desde el eje $x$ hasta la altura roja (que es el máximo de la función en cada celda).

Cuando tomamos los mínimos en cada celda y consideramos el área de los rectángulos morados, la suma de cada rectángulo será menor que cada franja, y por lo tanto la suma total de áreas de estos rectángulos será menor que el área bajo la curva que queremos.

Por otro lado, si tomamos los máximos de cada celda, tenemos los rectángulos rojos, que análogamente a lo dicho arriba, tienen suma de área total mayor al área bajo la curva buscada. Intuitivamente, hemos acotado el área buscada entre dos áreas que sí sabemos calcular.

Formalización de sumas superiores e inferiores

Introduciremos un poco de notación para hablar de sumas superiores e inferiores. Primero, le queremos dar un símbolo al ínfimo y al supremo de las evaluaciones de la función que nos interesa en cada celda.

Definición. Dada una partición $P=\{x_0,\ldots,x_n\}$ del intervalo $[a,b]$ y una función acotada $f:\mathbb{R}\to \mathbb{R}$:

  • Al ínfimo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $m_i$. En símbolos: $$m_i = \inf \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$
  • Al supremo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $M_i$. En símbolos: $$M_i = \sup \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$

Te recomendamos recordar la teoría de ínfimos y supremos de Cálculo I, que puedes consultar en el siguiente enlace: Supremo e ínfimo. Como nota, observa que en este punto estamos suponiendo muy poco de $f$, simplemente que es acotada.

La siguiente definición formaliza la idea de «aproximar el área por abajo».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma inferior $\underline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\underline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $m_i$ es el ínfimo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$m_1(x_1 – x_0) + m_2(x_2 – x_1) + . . . + m_n(x_n – x_{n-1}).$$

Esto es precisamente la suma de áreas de varios rectángulos que, por tomar la altura como el ínfimo en cada celda, quedan todos ellos por debajo de la gráfica de la función, como en la siguiente figura.

Suma Inferior.

La siguiente definición formaliza la idea de «aproximar el área por arriba».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma superior $\overline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\overline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $M_i$ es el supremo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$M_1(x_1 – x_0) + M_2(x_2 – x_1) + . . . + M_n(x_n – x_{n-1}).$$

Ahora tenemos la suma de áreas de varios rectángulos que quedan por encima de la gráfica de la función, como se muestra a continuación:

Suma Superior.

Si regresamos a pensar que la función $f$ es «bien portada» como para que el área $F_a^b$ tenga sentido, entonces las sumas superiores e inferiores nos ayudan a acotar dicha área. En efecto, notemos que para cualquier $i=1,\ldots,n$, tenemos que

$$m_i \leq f(x) \leq M_, \quad \text{para } x\in [x_{i-1},x_i].$$

De aquí, el área en cada franja queda acotada entre el área de dos rectángulos y sumando en todas las celdas tendríamos que

$$ \underline{S} \leq F_a^b \leq \overline{S} \quad .$$

Es decir, la suma inferior es menor o igual que el valor de la integral y la suma superior es mayor o igual que la integral. Un poco más adelante formalizaremos esto, cuándo hablemos apropiadamente de las funciones «bien portadas».

Refinamientos de una partición

Si hacemos una partición con más puntos, habrá más celdas dentro del intervalo y por lo tanto, la cantidad de rectángulos aumenta. Intuitivamente, nuestras aproximaciones deberían acercarse más al área buscada. En efecto, más adelante veremos que esto es así. Por ello, es importante introducir la siguiente definición formal.

Definición. Sea $P$ una partición del intervalo $[a,b]$. Un refinamiento de $P$ es otra partición $Q$ de $[a,b]$ tal que $P \subseteq Q$.

Al momento de pedir que la partición $P$ esté contenida en $Q$, aseguramos que todos los puntos de la partición generados en $P$ se encuentran en $Q$, y por lo tanto que cada celdas de $Q$ sean subconjunto de alguna celda de $P$.

Intuitivamente, las aproximaciones que hagamos con la partición $Q$ deben de ser entonces mejores que las que hagamos con la partición $P$. Si cierta suma de áreas de rectángulos hechas con $Q$ es $S_Q$ y esa suma de áres hechas con $P$ es $S_P$ suena razonable que:

$$ \left|F_a^b – S_Q\right| \leq \left|F_a^b – S_P \right|.$$

Sin embargo, nos estamos adelantando un poco. Lo que sí podemos mostrar formalmente por ahora es el siguiente resultado auxiliar.

Lema. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Si $P$ y $Q$ son particiones de $[a,b]$ y $Q$ es refinamiento de $P$, entonces $$\underline{S} (f,P) \leq \underline{S} (f,Q) \quad \text{y} \quad \overline{S} (f,Q) \leq \overline{S} (f,P)$$

Demostración. Por definición, $P$ y $Q$ son subconjuntos finitos de $[a,b]$, y $P\subseteq Q$, así que se puede llegar de $P$ a $Q$ agregando elementos de $[a,b]$ uno por uno. Bastará entonces ver que las desigualdades de arriba se cumplen cuando $Q$ tiene exactamente un elemento más que $P$, digamos $Q=P\cup \{y\}$. Tomemos $P=\{x_0,\ldots,x_n\}$. El real $y$ cae dentro de alguna celda de $P$, digamos en la celda $[x_{j-1},x_j]$.

Estudiemos qué suecede con las sumas inferiores. La suma inferior con respecto a $P$ es \begin{align*}
\underline{S}_P &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

Para la suma inferior con respecto a $Q$, la celda $[x_{j-1},x_j]$ queda partida en dos celdas $[x_{j-1},y]$ y $[y,x_j]$. Los ínfimos respectivos $r$ y $s$ de la función $f$ en estas dos celdas cumplen $r\geq m_j$ y $s\geq m_j$, pues estamos tomando el ínfimo sobre conjuntos más chicos. Así, la suma inferior con respecto a $Q$ cumple:

\begin{align*}
\underline{S}(f,Q) &= \sum_{i=1}^{j-1} m_i\Delta x_i + r (y-x_{j-1}) + s (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&\leq \sum_{i=1}^{j-1} m_i\Delta x_i + m_j (y-x_{j-1}) + m_j (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&=\sum_{i=1}^{j-1} m_i\Delta x_i + m_j (x_j-x_{j-1})+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&= \sum_{i=1}^{n} m_i\Delta x_i\\
&= \underline{S}(f,P).
\end{align*}

Esto termina la demostración para las sumas inferiores. El caso de las sumas superiores es análogo.

$\square$

En palabras, el lema anterior dice que la suma inferior con la partición $P$ es menor que la suma inferior con la partición $Q$ y la suma superior con la partición $P$ es mayor que la suma superior con la partición $Q$.

Otra aplicación muy importante de los refinamientos es que nos ayudan a demostrar que cualquier suma superior siempre es mayor que cualquier suma inferior, sin importar la partición que tomemos en una y en otra.

Proposición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sean $P$ y $Q$ particiones de $[a,b]$. Entonces,

$$\underline{S}(f,P) \leq \overline{S}(f,Q).$$

La idea de la demostración es sencilla. Para cualesquiera dos particiones $P$ y $Q$ podemos encontrar una partición $R$ que es un refinamiento de ambas (¿cómo la encontrarías?). Ya teniendo dicha partición, tenemos la cadena de desigualdades:

$$\underline{S} (f,P) \leq \underline{S} (f,R) \leq \overline{S} (f,R) \leq \overline{S} (f,Q).$$

Dar la partición $R$ de manera explícita y los detalles de cómo justificar la cadena de desigualdades anterior queda como parte de los ejercicios de esta entrada.

Sumas de Riemann y regla del punto medio

Ya vimos cómo hacer aproximaciones con rectángulos inferiores y cómo hacer aproximaciones con rectángulos superiores. Pero, como te imaginarás, los rectángulos podríamos tomarlos bajo otro criterio. Por ejemplo, podemos hacer rectángulos tomando un punto cualquiera $\xi_i$ dentro de cada celda $[x_{i-1},x_i]$ de una partición.

Ahora la aproximación quedaría de la siguiente manera:

\begin{align*}
F_n &= \sum_{i=1}^n f(\xi_i) \Delta x_i\\
&= \sum_{i=1}^n f(\xi_i) (x_i-x_{i-1})\\
&=f(\xi_1)(x_1 \ – \ x_0) + f(\xi_2)(x_2 \ – \ x_1) + . . . + f(\xi_n)(x_n \ – \ x_{n-1})
\end{align*}

A las expresiones de este estilo se les conoce como sumas de Riemann.

Una manera de dar de manera explícita algunos valores $\xi_i$ es tomando los puntos medios en cada celda, como en la siguiente figura.

Este método nos dará otra manera de aproximar el área que buscamos. Si de nuevo refinamos la partición y usamos los puntos medios, tendremos otro procedimiento exhaustivo para aproximar el área. Pero igual podríamos tomar otra, y otra, y otra manera de aproximar el área. ¿Será que todas estas aproximaciones nos llevan a la misma área? Es parte de lo que tendremos que entender formalmente más adelante. Sin embargo, por ahora haremos algunos ejemplos concretos de las ideas que hemos discutido hasta ahora.

Ejemplo de sumas de Riemann superiores, inferiores y de punto medio

Ejemplo. Tomamos la función $f:[2,8]\to \mathbb{R}$ dada por $f(x)=x+2$. Tomemos la partición homogénea $P=\{2,3,4,5,6,7,8\}$, en donde cada celda tiene longitud $1$. Encontremos la suma superior, la inferior y la que se obtiene mediante la regla del punto medio.

Partición con n=6

Para la suma inferior, tenemos el siguiente conjunto de ínfimos (en este caso, mínimos) de las celdas generadas:

$$m= \lbrace {4, 5, 6, 7, 8, 9}\rbrace .$$

De este modo, la suma inferior es

$$\underline{S}(f,P) = 4\cdot(3-2) + 5 \cdot (4-3) + 6 \cdot (5-4) + 7 \cdot (6-5) + 8 \cdot (7-6) + 9 \cdot (8-7) = 39.$$

En el caso de la suma superior, los supremos (en este caso, máximos) son

$$M= \lbrace {5, 6, 7, 8, 9, 10}\rbrace.$$

Desarrollemos la suma superior:

$$\overline{S}(f,P) = 5 \cdot (3-2) + 6 \cdot (4-3) + 7 \cdot (5-4) + 8 \cdot (6-5) + 9 \cdot (7-6) + 10 \cdot (8-7) = 45.$$

Finalmente, para la regla del punto medio, tenemos que los valores de la función evaluada en el punto medio de cada intervalo son:

$$\xi= \lbrace {4.5, 5.5, 6.5, 7.5, 8.5, 9.5}\rbrace .$$

Desarrollando la suma, obtenemos

$$S= 4.5 \cdot (3-2) + 5.5 \cdot (4-3) + 6.5 \cdot (5-4) + 7.5 \cdot (6-5) + 8.5 \cdot (7-6) + 9.5 \cdot (8-7) = 42.$$

$\triangle$

Más adelante…

En esta entrada empezamos a motivar cómo el área bajo una curva puede ser aproximada mediante rectángulos. Sin embargo, supusimos que nuestra curva estaba dada por una función «bien portada» la cuál sí hace un área apropiada. Esto no necesariamente pasará siempre, pues si la función tiene una gráfica muy complicada, entonces no podremos hablar apropiadamente del área debajo de ella.

De hecho, lo que hicimos en esta entrada nos ayudará a dar formalidad a exactamente qué quiere decir que la función sea «bien portada». La idea de particiones nos servirá para definir el área justo cuando cualquier proceso de aproximar «suficientemente bien» nos lleve al mismo límite. Tomaremos entonces la intuición desarrollada de las sumas inferiores, superiores e incluso las de la regla del punto medio, para introducir la definición de integral definida de la siguiente entrada.

Tarea moral

  1. Aproxima el área bajo la curva de las siguientes funciones en el intervalo dado, usando una partición homogénea con cinco celdas en el intervalo dado. En cada caso, realiza la cuenta con las sumas inferiores, las sumas superiores y con la regla del punto medio.
    • $f(x) = x^2$ en el intervalo $[0,1]$.
    • $f(x)=2x-3$ en el intervalo $[0,2]$.
    • $f(x)=x e^x$ en el intervalo $[2,3]$ (puedes usar calculadora para aproximar las respuestas)
  2. En esta entrada sólo hemos hablado de cómo encontrar el área entre la gráfica de una función positiva y el eje $x$ (dados dos límites verticales). ¿Qué tendríamos que hacer si la función es negativa?
  3. Ahora imaginemos que queremos encontrar el área que se encuentra entre la gráfica de dos funciones. Por ejemplo, imagina que queremos aproximar con las ideas de esta entrada el área entre las gráficas de las siguientes dos funciones, desde la línea vertical $x=0$ hasta el primer punto de intersección que tienen.

$f(x)= sin(x^3) + 2x$

$g(x)=cos(x^2)+3x^2-2$

Puedes ver estas funciones en la figura. Para realizar la aproximación, haz lo siguiente.

  • Encuntra el punto $c$ tal que $f(c)=g(c)$, es decir, en qué ubicación horizontal se cruzan las gráficas.
  • Haz una partición homogénea en 10 partes del intervalo $[0,c]$. ¿Qué longitud tiene cada celda?
  • Crea rectángulos usando como altura la distancia máxima entre las curvas en cada celda. ¿Cuánto queda la suma de áreas de rectángulos? ¿Y si usas la distancia mínima entre las curvas en cada celda?
  1. En el texto se da la demostración de que en un refinamiento, la suma inferior se vuelve más grande. Completa los detalles para ver el resultado análogo de que en un refinamiento la suma superior se vuelve más pequeña. ¿Qué propiedades del supremo estás utilizando?
  2. Completa los detalles de la proposición de que cualquier suma superior es mayor a cualquier suma inferior, aunque estemos hablando de particiones diferentes.
  3. La gráfica de la función $f(x)=\sqrt{1-x^2}$ es un semicírculo que va de $-1$ a $1$. Usa una partición homogénea en $10$ celdas del intervalo $[-1,1]$ y la regla del punto medio para dar una aproximación al área de este semicírculo. Entonces, ¿cuál sería una aproximación al área del círculo de radio $1$? De aquí, ¿cuál sería una aproximación para $\pi$?

Entradas relacionadas

Cálculo Diferencial e Integral II: Método de sustitución o cambio de variable

Por Miguel Ángel Rodríguez García

Introducción

En las unidades anteriores, se dieron las bases para la integración de funciones, así como, la integración de funciones con rigurosidad matemática. En esta unidad se estudiaran varias técnicas de integración para determinar integrales sin demasiada rigurosidad matemática y aunque no se estudiaran todas las técnicas de integración se verán las más relevantes.

Método de sustitución o cambio de variable

La integración por sustitución o cambio de variable, que como bien se menciona, es una técnica de integración que necesita uno o más cambios de variables adecuados en el integrando, de tal forma que la integral sea más sencilla de resolver. Comenzamos enunciando el teorema siguiente, la integración por sustitución.

Teorema: Método de sustitución

Sea $g$ una función derivable y con derivada continua, sea $f$ una función continua en un intervalo. Supón además que $F$ es una antiderivada de $f$ entonces:

$$\int_{a}^{b}f(g(x)) \cdot g'(x)dx=\int_{g(a)}^{g(b)}f(u)du= F(g(x)){\bigg|}_{ a }^{ b } $$

Demostración:

Por hipótesis, $F$ es primitiva de $f$, entonces por el segundo teorema fundamental del Cálculo [ Hipervinculo: Calculo II-Segundo Calculo fundamental del calculo] tenemos que:

$$\int_{g(a)}^{g(b)}f(u)du = F(g(b))-F(g(a)) \tag{1}$$

Por otro lado, dado que $f$ es continua, entonces tiene una antiderivada $F$, la función compuesta $f\circ g$ está definida, ya que $g$ es una función, como $g$ es diferenciable, tenemos que, por la regla de la cadena y la definición de antiderivada obtenemos que:

$$\frac { d }{ dx } (F(g(x))=F'(g(x))\cdot g'(x)=f(g(x))\cdot g'(x) \tag{2}$$

Integramos de $a$ hasta $b$, nos fijamos en el lado derecho e izquierdo de la ecuación $(2)$ como sigue:

$$\int_{a}^{b} \frac { d }{ dx } (F(g(x))dx=\int_{a}^{b} f(g(x)) \cdot g'(x) dx $$

Utilizamos nuevamente el teorema fundamental del Cálculo, obteniendo lo siguiente:

$$\int _{ a }^{ b }{ f(g(x)) \cdot g'(x)dx=F(g(b))-F(g(a)) } \tag{3}$$

Observamos las ecuaciones $(1)$ y $(3)$, vemos que se obtuvo la igualdad deseada, por lo que:

$$\int _{ a }^{ b }{ f(g(x)) \cdot g'(x)=F(g(b))-F(g(a)) } = \int_{g(a)}^{g(b)}f(u)du$$

$\square$

Puede quedar no muy claro el cómo utilizar este teorema, por lo que a continuación se ejemplificara con varios ejercicios el método de sustitución.

Ejemplos:

  • $\int { { ({ x }^{ 2 }+1) }^{ 2 }(2x)dx }$

Se hace un cambio de variable para resolver esta integral, cabe destacar que el símbolo para el cambio de variable puede ser cualquiera que guste, por ejemplo cualquier letra del alfabeto o incluso una carita feliz, en la literatura es común utilizar los símbolos de $u$ y $v$ para tales cambios de variable.

Para resolver esta integral, proponemos a $u = {x}^{2}+1$, por lo que, al derivar, se obtiene: $du = 2x dx$, así, al sustituir estas variables, el integrando queda de la siguiente forma:

$$\int u^{2}du$$

Vemos que al hacer el cambio de variable la integral es más sencilla, ya que sabemos que en general cualquier polinomio de grado $n$ se integra como:

$$\int { { x }^{ n }dx } =\frac { { x }^{ n+1 } }{ n } +C$$

Donde $C$ es la constante de integración, siguiendo con el ejercicio:

$$\int { { u }^{ 2 }du= \frac { { u }^{ 3 } }{ 3 } +C } $$

Volviendo a la variable original $x$, la resolución de la integral es:

$$\int { { ({ x }^{ 2 }+1) }^{ 2 }(2x)dx } = \frac { { ({ x }^{ 2 }+1) }^{ 3 } }{ 3 } +C $$

Obsérvese que este integral se puede resolver también multiplicando los factores y utilizar la linealidad de la integral, pero esto es un poco más laborioso. Así vemos que este método nos ayuda a resolver integrales fácilmente.

  • $\int { \frac { 2x-9 }{ \sqrt { { x }^{ 2 }-9x+1 } } } dx$

A simple vista esta integral puede ser complicada y necesitar de otros métodos, pero veamos que no es necesario.

Proponemos como cambio de variable: $u={ x }^{ 2 }-9x+1$, la derivada es: $du=(2x-9)dx$, por lo que la integral se reescribe como:

$$\int { \frac { du }{ \sqrt { u } } }=\int { { u }^{ -1/2 }du }$$

Esta integral se resuelve como:

$$\int { { u }^{ -1/2 }du }=\frac { { u }^{ -1/2+1 } }{ -\frac{1}{2}+1 } +C={ 2u }^{ 1/2 }+C$$

Volviendo a la variable original, el resultado es:

$$\int { \frac { 2x-9 }{ \sqrt { { x }^{ 2 }-9x+1 } } } dx=2\sqrt { { x }^{ 2 }-9x+1 } +C$$

  • $\int { \frac { x+1 }{ { x }^{ 2 }+2x } dx }$

Proponemos como cambio de variable: $u={x}^{2}+2x \Rightarrow du=(2x+2)dx=2(x+1)dx$

Vemos en el integrando que solo está el término $x+1$, por lo que en la relación de la diferencia de $u$, al ser una igualdad, pasamos el $2$ dividiendo como sigue:

$$\Rightarrow \frac { du }{ 2 } =\left(x+1 \right) dx$$

Por lo que reescribimos la integral y la resolvemos:

$$\int \frac { 1 }{ u } \frac{du}{2}=\frac { 1 }{ 2 } ln\left| u \right| +C$$

Volviendo a la variable original, se obtiene que la resolución de la integral es:

$$\int { \frac { x+1 }{ { x }^{ 2 }+2x } dx }=\frac { 1 }{ 2 } ln\left| { x }^{ 2 }+2x \right| +C $$

  • $\int _{ 1 }^{ 3 }{ \frac { { e }^{ 3/x } }{ { x }^{ 2 } } dx }$

Vemos en este caso que tenemos una integral definida. Proponemos como cambio de variable: $$u=\frac { 3 }{ x } \Rightarrow du=-3{ x }^{ -2 }dx$$

Al hacer un cambio de variable en las integrales con límites de integración, se tiene que cambiar los límites de integración como sigue: Si $x=1 \Rightarrow u=3$, si $x=3 \Rightarrow u=1$, así la integral se reescribe como:

$$\int _{ 3 }^{ 1 }{\left ( -\frac { 1 }{ 3 }\right ) { e }^{ u }du }$$

Resolviendo esta integral, sabemos que al cambiar los límites de integración se cambia el signo de la integral [ Hipervinculo: Calculo II-Tema que contiene el cambio de signo al cambiar los límites de integración], entonces tenemos que:

$$\int _{ 1 }^{ 3 }{ \frac { 1 }{ 3 } { e }^{ u }du}={ \left[ \frac { 1 }{ 3 } { e }^{ u }du \right] }{\bigg|}_{ 1 }^{ 3 }=\frac { 1 }{ 3 } \left( { e }^{ 3 }-{ e } \right)$$

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Resuelve las siguientes integrales utilizando el método de sustitución:

  1. $$\int \sqrt { 2x+1 }dx$$
  2. $$\int 3{ x }^{ 2 }\sqrt { { x }^{ 3 }-2 } dx$$
  3. $$\int \frac { { x }^{ 2 }+x+1 }{ { x }^{ 2 }+1 } dx $$ Hint: Hacer la división de polinomios.
  4. $$\int _{ -2 }^{ 3 } x \cos { {( x }^{ 2 }+3)}dx$$
  5. $$\int _{ 0 }^{ \pi /4 } \sqrt { 1+\cos(4x)} dx$$ Hint: Utilizar la identidad ${ \cos }^{2 }(\theta) =\frac { 1+\cos { (2\theta) } }{ 2 }$ y utilizar un cambio de variable.

Más adelante…

Como se mencionó anteriormente, esta técnica de integración facilita resolver algunas integrales utilizando uno o más cambios de variables apropiados para poder resolver la integral como se vio en esta sección, pero en otros casos no se pueden resolver integrales solo utilizando el cambio de variable, en la siguiente sección veremos otro método de integración llamado integración por partes.

Entradas relacionadas

Álgebra Lineal I: Subespacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial $V$ que también es un espacio vectorial con las mismas operaciones de $V$.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Un subespacio vectorial de $V$, o simplemente un subespacio de $V$, es un subconjunto no vacío $W$ de $V$ cerrado bajo las operaciones de suma vectorial y multiplicación escalar de $V$. En otras palabras, $W$ es un subespacio de $V$ si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera $u$ y $v$ elementos de $W$, se cumple que $u+v$ está en $W$.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar $c$ en $F$ y vector $v$ en $W$ se cumple que $cv$ está en $W$.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo $F$ y nos fijamos el espacio vectorial $F[x]$ de polinomios, entonces para cualquier entero $n$ el subconjunto $F_n[x]$ de $F[x]$ de polinomios de grado a lo más $n$ es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, $F_n[x]$ es un subespacio de $F[x]$. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si $W$ es un subespacio de un espacio vectorial $V$, entonces $W$ debe tener al vector $0$ de $V$ (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que $W$ es no vacío, así que tiene por lo menos un elemento $v$. Si tomamos al $0$ de $F$ y usamos la propiedad (2) de subespacio con $0$ y $v$ obtenemos que $0v=0$ está en $W$.
  2. Si $W$ es un subespacio de un espacio vectorial $V$ y $v$ está en $W$, entonces $-v$ también. Esto se debe a que por la propiedad (2) de subespacio tenemos que $(-1)v=-v$ está en $W$.
  3. Si $V$ es un espacio vectorial sobre $F$ y $W$ es un subespacio de $V$, entonces $W$ también es un espacio vectorial sobre $F$ con las mismas operaciones que $V$. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de $V$ y por lo tanto también para los de $W$ (pues es un subconjunto).
  4. Si $W_1$ y $W_2$ son dos subespacios de un espacio vectorial $V$, entonces la intersección $W_1\cap W_2$ también lo es.

$\square$

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector $0$, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que $\mathcal{C}[0,1]$, el conjunto de funciones continuas de $[0,1]$ a $\mathbb{R}$, es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto $V$ de funciones de $[0,1]$ a los reales es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación escalar. El conjunto $\mathcal{C}[0,1]$ es un subconjunto de $V$.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, $\mathcal{C}[0,1]$ es un subespacio de $V$.

Por la observación (3) de la discusión previa, obtenemos que $\mathcal{C}[0,1]$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

$\square$

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea $V$ un espacio vectorial sobre el campo $F$ y $W$ un subconjunto de $V$. Los siguientes enunciados son equivalentes.

  1. $W$ es un subespacio de $V$ de acuerdo a nuestra definición.
  2. Para cualesquiera vectores $u$ y $v$ en $W$ y escalares $a$ y $b$ en $F$, se tiene que $au+bv$ está en $W$.
  3. Para cualesquiera vectores $u$ y $v$ en $W$ y cualquier escalar $c$ en $F$ se tiene que $cu+v$ está en $W$.

Demostración. (1) implica (2). Supongamos que $W$ es un subespacio de $V$. Tomemos vectores $u,v$ en $W$ y escalares $a,b$ en $F$. Como $W$ es cerrado bajo producto escalar, se tiene que $au$ está en $W$. De manera similar, $bv$ está en $W$. Como $W$ es cerrado bajo sumas, se tiene que $au+bv$ está en $W$.

(2) implica (3). Supongamos que $W$ satisface (2) y tomemos $u,v$ en $W$ y cualquier escalar $c$ en $F$. Tomando $a=c$ y $b=1$ en (2), tenemos que $cu+1v=cu+v$ está en $W$.

(3) implica (1). Supongamos que $W$ satisface (3). Hay que ver que $W$ es cerrado bajo sumas y producto escalar. Si tomamos $u$ y $v$ en $W$ y al escalar $c=1$ de $F$, por (3) obtenemos que $cu+v=1u+v=u+v$ está en $W$, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar $c$ y al vector $w=0$, entonces por (3) se tiene que $cu+w=cu+0=cu$ está en $W$. Esto muestra la cerradura bajo producto escalar.

$\square$

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que $W$ es un subespacio.

Problema. Considera $V$ el espacio vectorial de matrices en $M_n(F)$. Muestra que el subconjunto $W$ de matrices simétricas forman un subespacio de $V$.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea $c$ un escalar en $F$ y sean $A$ y $B$ matrices en $W$, es decir, tales que $^tA=A$ y $^tB = B$. Debemos mostrar que $cA+B$ está en $W$, es decir, que $^t(cA+B)=cA+B$. Usando propiedades de la transpuesta y la hipótesis sobre $A$ y $B$ tenemos que: $$^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.$$ Con esto termina la demostración.

$\square$

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto $W$. Para cada uno de los casos, piensa por qué la suma de dos elementos de $W$ es de nuevo un elemento de $W$ y por qué el producto de un escalar por un elemento de $W$ es un elemento de $W$. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos $M_2(\mathbb{R})$, el subconjunto $W$ de matrices que cumplen que la suma de entradas en su diagonal principal es igual a $0$ es un subespacio.
  • En el espacio vectorial $F^4$, el subconjunto $W$ de vectores cuya primera y tercer entrada son iguales a $0$ forman un subespacio.
  • Las funciones acotadas del intervalo $[-3, 3]$ a $\mathbb{R}$ forman un subconjunto $W$ que es un subespacio de las funciones del intervalo $[-3,3]$ a $\mathbb{R}$.
  • El subconjunto $W$ de vectores $(x,y,z)$ de $\mathbb{R}^3$ tales que $$\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}$$ es un subespacio de $\mathbb{R}^3$.
  • Si tomamos $W=\mathbb{R}_3[x]$, entonces este es un subespacio de $\mathbb{R}_4[x]$.
  • Si tomamos $W=\mathbb{R}_4[x]$, entonces este es un subespacio de $\mathbb{R}_5[x]$.
  • El subconjunto $W$ de funciones diferenciables de $[0,10]$ a $\mathbb{R}$ tales que su derivada evaluada en $7$ es igual a $0$ es un subespacio del espacio de funciones continuas de $[0,10]$ a $\mathbb{R}$.
  • Las matrices triangulares superiores de $M_n(F)$ forman un subespacio $W$ del espacio $M_n(F)$. Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto $W=\{(x,y,z): x^2+y^2+z^2=1\}$ no es un subespacio de $\mathbb{R}^3$. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, $W$ debería tener a $(0,0,0)$ para ser subespacio. Pero $0^2+0^2+0^2=0\neq 1$. Así, $(0,0,0)$ no está en $W$ y por lo tanto $W$ no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que $(1,0,0)$ está en $W$, pero $2(1,0,0)=(2,0,0)$ no.
  • El subconjunto $W=\{(0,0), (1,2), (-1,2)\}$ de $\mathbb{R}^2$ no es un subespacio, pues $(1,2)$ está en $W$. Tomando $u=(1,2)$ y $v=(1,2)$, vemos que $W$ no es cerrado bajo sumas pues $(1,2)+(1,2)=(2,4)$ no está en $W$.
  • Las matrices del subconjunto $GL_n(F)$ de $M_n(F)$, es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz $O_n$ no es invertible, así que no está en $GL_n(F)$.
  • El subconjunto $W$ de funciones $f:[-3,3]\to \mathbb{R}$ diferenciables tales que su derivada en $0$ es igual a $2$ no es un subespacio de las funciones continuas de $[-3,3]$ a $\mathbb{R}$. Hay muchas formas de verlo. Podemos darnos cuenta que $f(x)=x^2+2x$ es una de las funciones en $W$ pues $f'(x)=2x+2$ y $f'(0)=2$. Sin embargo, $3f$ no está en $W$.
  • El subconjunto $W$ de polinomios de $\mathbb{R}[x]$ con coeficientes no negativos no es un subespacio de $\mathbb{R}[x]$. El polinomio $0$ sí está en $W$ y la suma de cualesquiera dos elementos de $W$ está en $W$. Sin embargo, falla la multiplicación escalar pues $x$ está en $W$, pero $(-1)x=-x$ no.
  • La unión del eje $X$, el eje $Y$ y el eje $Z$ de $\mathbb{R}^3$ es un subconjunto $W$ de $\mathbb{R}^3$ que no es un subespacio. Cualquier producto escalar queda dentro de $W$, pero la suma no es cerrada.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para «combinarlos» y obtener más subespacios. Una operación muy importante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector $0$. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que los siguientes conjuntos $W$ son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(w,x,y,z)$ de $\mathbb{C}^4$ tales que $w+x+y+z=0$.
    • La colección $W$ de funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $\int_0^1 f(x) \, dx = 0$ es un subespacio del espacio de funciones de $[0,1]$ a $\mathbb{R}$.
    • $W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\}$ es un subespacio de las matrices en $M_2(\mathbb{R})$.
  • Demuestra que los siguientes conjuntos $W$ no son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(x,y)$ de $\mathbb{R}^2$ tales que $xy\geq 0$ no es un subespacio de $\mathbb{R}^2$.
    • El subconjunto $W$ de matrices en $M_{3,2}(F)$ cuyo producto de todas las entradas es igual a $0$ no es un subespacio de $M_{3,2}$
    • Cuando $W$ es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más $3$, es imposible que sea un subespacio de $\mathbb{C}_3[x]$.
  • Sea $V$ un espacio vectorial y $n$ un entero positivo. Demuestra que si $W_1, W_2, \ldots, W_n$ son subespacios de $V$, entonces la intersección $$W_1 \cap W_2 \cap \ldots \cap W_n$$ también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si $V$ es un espacio vectorial, $W$ es un subespacio de $V$ y $U$ es un subespacio de $W$, entonces $U$ es un subespacio de $V$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de $V$ es una base en la cual cada par de vectores tiene producto interior $0$. Es ortonormal si además cada elemento es de norma $1$. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de $V$, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal con este producto interior, entonces para cualquier vector $v$, la coordenada de $v$ con respecto a $e_i$ es $\langle v, e_i \rangle$.

Demostración. Expresemos a $v$ en la base $B$ como $$v=\alpha_1e_1+\ldots+\alpha_n e_n.$$

Tomemos $j$ en $1,2,\ldots,n$. Usando la linealidad del producto interior, tenemos que
\begin{align*}
\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\
&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.
\end{align*}

Como $B$ es base ortonormal, tenemos que en el lado derecho $\langle e_j,e_j\rangle = 1$ y que si $i\neq j$ entonces $\langle e_i, e_j\rangle=0$. De esta forma, el lado derecho de la expresión es $\alpha_j$, de donde concluimos que $$\langle v, e_j \rangle = \alpha_j,$$ como queríamos.

$\square$

Definición. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal, a $$v=\sum_{i=1}^n \langle v, e_i \rangle e_i$$ le llamamos la descomposición de Fourier de $v$ con respecto a $B$.

Ejemplo. Trabajemos en el espacio vectorial $V=\mathbb{R}_2[x]$ de polinomios reales de grado a lo más $2$. Ya mostramos anteriormente (con más generalidad) que $$\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)$$ es un producto interior en $V$.

Los polinomios $\frac{1}{\sqrt{3}}$, $\frac{x}{\sqrt{2}}$ y $\frac{3x^2-2}{\sqrt{6}}$ forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica $\{1,x,x^2\}$ en términos de esta base ortonormal? Los primeros dos son sencillos:
\begin{align}
1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\
x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}.
\end{align}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

\begin{align*}
\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\
\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\
\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.
\end{align*}

De este modo, $$x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.$$

$\triangle$

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortogonal con este producto interior, entonces para cualquier vector $$v=\alpha_1e_1+\ldots+\alpha_ne_n,$$ tenemos que $$\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.$$

En particular, si $B$ es una base ortonormal, entonces $$\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.$$

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
\begin{align*}
\norm{v}^2 &= \langle v,v \rangle\\
&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.
\end{align*}

Como $B$ es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que $i=j$, es decir,
\begin{align*}
\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\
&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\
\end{align*}

como queríamos mostrar.

Si $B$ es base ortonormal, cada $\norm{e_i}^2$ es $1$, y por el teorema anterior, $\alpha_i=\langle v, e_i\rangle$. Esto prueba la última afirmación.

$\square$

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a $x^2$ en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
\begin{align*}
\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\
&=\frac{4}{3}+\frac{4}{6}\\
&=2.
\end{align*}

De esta forma, $\norm{x^2}=\sqrt{2}$. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de $x^2$ con la definición.

$\triangle$

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en $V=\mathbb{R}_n[x]$, que habíamos elegido $n+1$ reales distintos $x_0,\ldots,x_n$, y que a partir de ellos definimos $$\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).$$ Mostramos que $\langle \cdot , \cdot \rangle$ es un producto interior y que para $j=0,\ldots,n$ los polinomios $$L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}$$ forman una base ortonormal de $V$.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio $P$ de grado a lo más $n+1$ con coeficientes reales satisface que $$P=\sum_{i=0}^n \langle P, L_i \rangle L_i,$$ lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para $P$ un polinomio con coeficientes en los reales de grado a lo más $n$ y $x_0,x_1,\ldots,x_n$ reales distintos, tenemos que $$P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).$$

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado $n$ en cualquier real $x$ conociendo sus valores en $n+1$ reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx$$ define un producto interior en el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$.

En ese ejemplo, definimos \begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*} y $C_0(x)=\frac{1}{\sqrt{2\pi}}$, y mostramos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ era un conjunto ortonormal.

No se puede mostrar que $\mathcal{F}$ sea una base ortonormal, pues el espacio $V$ es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia $\mathcal{F}$ es buena aproximando a elementos de $V$, es decir a funciones continuas y periódicas de periodo $2\pi$. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia $\mathcal{F}$ a una familia más pequeña:

$$\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}$$

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la $n$-ésima serie parcial de Fourier de una función $f$ en $V$ a la expresión $$S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.$$ Haciendo las cuentas, se puede mostrar que $$S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),$$ en donde para $k\geq 1$ tenemos $$a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx$$ y $$b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.$$

A los números $a_k$ y $b_k$ se les conoce como los $k$-ésimos coeficientes de Fourier. Aunque $\mathcal{F}$ no sea una base para $V$, sí es buena «aproximando» a elementos de $V$. Por ejemplo, un resultado lindo de Dirichlet dice que si $f$ y su derivada son continuas, entonces $$\lim_{n\to \infty} S_n(f)(x) = f(x).$$ Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora $W_n$ el subespacio de $V$ generado por $\mathcal{F}_n$. Tomemos una función $f$ cualquiera en $V$. La $n$-ésima serie de Fourier de $f$ es un elemento de $W_n$. De hecho, es precisamente la proyección de $f$ en $W_n$. Por esta razón, $$\norm{f_n}^2\leq \norm{f}^2<\infty$$

Podemos calcular la norma de $f_n$, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) $W_n$. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

$$\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.$$

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie $$\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).$$ Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.$$

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando $n\to \infty$. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.$$

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de $x^2$ con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es $\sqrt{2}$.
  • Con la misma base ortonormal $B$ de ese ejemplo, calcula las coordenadas y la norma del polinomio $1+x+x^2$.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en $\mathbb{R}^n$ y con la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»