Archivo de la etiqueta: integral

Cálculo Diferencial e Integral II: Motivación de la integral y sumas de Riemann

Por Moisés Morales Déciga

Introducción

La principal motivación y aplicación de la integral es el cálculo de áreas. En esta entrada hablaremos de cómo aproximar áreas mediante sumas de Riemann. Para introducir este concepto, recordemos que en la entrada pasada se ilustró el método de exhaución. Vimos que es un acercamiento geométrico al cálculo del área del círculo mediante polígonos inscritos o circunscritos. Intuitivamente, conforme aumentamos el número de lados de estos polígonos, el área generada por ellos se aproximaba cada vez mejor al área del círculo.

Sin embargo, en las aplicaciones no sólo queremos calcular el área de círculos, sino de muchos tipos diferentes de figuras. Idealmente, nos gustaría poder calcular el área de muchas figuras u objetos, siempre y cuando éstos se puedan describir.

La forma de describirlos en este curso será mediante funciones. Por lo tanto, buscaremos encontrar una función cuya gráfica se parezca al contorno del objeto (o bien cuyo contorno pueda ser descrito por más de una función). Esta gráfica será una curva que define una región. Hablaremos de cómo definir el área de esta región de manera que coincida con nuestra intuición.

En esta entrada empezaremos con algunas definiciones generales e ideas de aproximación basadas en el método exhaustivo.

Área bajo la curva

El origen analítico de la integral se origina al asociar áreas con funciones.

Tomemos dos reales $a$ y $b$ con $a<b$. Tomemos una función $f:\mathbb{R}\to \mathbb{R}$ que, para fijar las ideas correctamente por ahora, supondremos que es positiva en todo el intervalo $[a,b]$. Supongamos que delimitamos una región en el plano cartesiano de la siguiente manera.

  • Por la izquierda con la línea vertical $x = a$.
  • Por la derecha con la línea vertical $x=b$.
  • Por abajo con el eje $x$.
  • Por arriba con la gráfica de cierta función $f(x)$.

Entonces, la magnitud del espacio que se encuentra acotado por estas curvas se le conoce como el «área bajo la curva» o más específicamente, el «área bajo la curva de $f(x)$ en el intervalo $[a,b]$.» Usaremos la notación $F_a^b$ para referirnos a esta magnitud. En el transcurso de toda esta entrada supondremos que tenemos un ejemplo «bien portado» en el que sí tiene sentido hablar de dicha área $F_a^b$ (recuerda que las funciones pueden tener comportamientos muy raros). Será importante definir qué quiere decir exactamente «bien portado», pero eso lo haremos un poco más adelante.

Ejemplo. En la siguiente figura, la curva verde es la gráfica de la función $f(x)$. La región que nos interesa está bajo esta gráfica, entre las verticales en $a$ y $b$, y sobre el eje $x$. Su magnitud $F_{a}^b$ es el área bajo la curva que nos interesa.

$\triangle$

Particiones, celdas y rectángulos

Una vez definida la región a la que se le va a calcular el área, buscaremos hacer una aproximación a esa área mediante la suma de áreas de rectángulos. Estos pueden ser inscritos (que quedan por dentro o por debajo de la función) o circunscritos (que quedan por afuera o por encima de la función). La razón por la cual usamos rectángulos es que son figuras cuya área se calcula de manera muy sencilla: el área $A$ es su base $b$ por su altura $a$.

Para definir los rectángulos que usaremos para aproximar el área, será necesario hacer una partición $P$ del intervalo $[a,b]$ del eje $x$ en una cierta cantidad de partes (que llamaremos celdas), no necesariamente todas ellas de la misma longitud. Estas partes serán las bases de los rectángulos que usaremos. Comencemos a formalizar estos conceptos.

Definición. Sean $a$ y $b$ números reales con $a\leq b$. Sea $f:\mathbb{R}\to \mathbb{R}$ una función. Sea $n\geq 0$ un entero. Una partición (en $n$ partes) del intervalo $[a,b]$ será una elección de números reales $x_0\leq x_1 \leq \ldots\leq x_n$ con $x_0=a$ y $x_n=b$. A cada subintervalo de la forma $[x_{i-1},x_i]$ para $1\leq i\leq n$ le llamaremos una celda de la partición.

A una partición la escribiremos usualmente poniendo sus elementos en orden, de la siguiente manera:

$$P =\lbrace{x_0, x_1, x_2,…, x_{n-1}, x_n}\rbrace.$$

Definición. Dada la celda $[x_{i-1},x_i]$ para $1\leq i\leq n$ de una partición, su longitud será $x_i-x_{i-1}$ y la denotaremos por $\Delta x_i$. Así,

$$\Delta x_i= x_i \ – \ x_{i-1}, \quad (i=1,2,…,n).$$

Definición. Si las celdas de una partición tienen todas la misma longitud, diremos que es una partición homogénea. Si no, es decir, si hay celdas de longitudes distintas, diremos que es una partición no homogénea.

Al tomar una partición del intervalo $[a,b]$, podemos dibujar líneas verticales en cada punto de la partición. El área $F_a^b$ que nos interesa queda dividida en regiones o franjas como en la siguiente figura.

La función es en verde, la partición está en azul.

Intuición de las sumas superiores e inferiores

El área de cada una de las franjas que hicimos la podemos aproximar (al estilo del método exhaustivo) mediante rectángulos. Sin embargo, dado que la gráfica de la función no es exactamente horizontal, la suma de ciertos rectángulos que usemos para aproximar el área podría no ser exactamente el área bajo la curva. ¿Qué podríamos hacer para tener un poco más de control sobre cómo es el área de cada rectángulo con respecto al área de cada franja? Podemos usar como base las longitudes de las celdas y como altura podemos usar el máximo o mínimo de la función $f(x)$ en cada intervalo. Esto es un caso particular de lo que más adelante llamaremos sumas de Riemann.

La siguiente figura muestra rectángulos desde el eje $x$ hasta la altura morada (que es el mínimo de la función en cada celda) y rectángulos desde el eje $x$ hasta la altura roja (que es el máximo de la función en cada celda).

Cuando tomamos los mínimos en cada celda y consideramos el área de los rectángulos morados, la suma de cada rectángulo será menor que cada franja, y por lo tanto la suma total de áreas de estos rectángulos será menor que el área bajo la curva que queremos.

Por otro lado, si tomamos los máximos de cada celda, tenemos los rectángulos rojos, que análogamente a lo dicho arriba, tienen suma de área total mayor al área bajo la curva buscada. Intuitivamente, hemos acotado el área buscada entre dos áreas que sí sabemos calcular.

Formalización de sumas superiores e inferiores

Introduciremos un poco de notación para hablar de sumas superiores e inferiores. Primero, le queremos dar un símbolo al ínfimo y al supremo de las evaluaciones de la función que nos interesa en cada celda.

Definición. Dada una partición $P=\{x_0,\ldots,x_n\}$ del intervalo $[a,b]$ y una función acotada $f:\mathbb{R}\to \mathbb{R}$:

  • Al ínfimo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $m_i$. En símbolos: $$m_i = \inf \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$
  • Al supremo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $M_i$. En símbolos: $$M_i = \sup \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$

Te recomendamos recordar la teoría de ínfimos y supremos de Cálculo I, que puedes consultar en el siguiente enlace: Supremo e ínfimo. Como nota, observa que en este punto estamos suponiendo muy poco de $f$, simplemente que es acotada.

La siguiente definición formaliza la idea de «aproximar el área por abajo».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma inferior $\underline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\underline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $m_i$ es el ínfimo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$m_1(x_1 – x_0) + m_2(x_2 – x_1) + . . . + m_n(x_n – x_{n-1}).$$

Esto es precisamente la suma de áreas de varios rectángulos que, por tomar la altura como el ínfimo en cada celda, quedan todos ellos por debajo de la gráfica de la función, como en la siguiente figura.

Suma Inferior.

La siguiente definición formaliza la idea de «aproximar el área por arriba».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma superior $\overline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\overline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $M_i$ es el supremo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$M_1(x_1 – x_0) + M_2(x_2 – x_1) + . . . + M_n(x_n – x_{n-1}).$$

Ahora tenemos la suma de áreas de varios rectángulos que quedan por encima de la gráfica de la función, como se muestra a continuación:

Suma Superior.

Si regresamos a pensar que la función $f$ es «bien portada» como para que el área $F_a^b$ tenga sentido, entonces las sumas superiores e inferiores nos ayudan a acotar dicha área. En efecto, notemos que para cualquier $i=1,\ldots,n$, tenemos que

$$m_i \leq f(x) \leq M_, \quad \text{para } x\in [x_{i-1},x_i].$$

De aquí, el área en cada franja queda acotada entre el área de dos rectángulos y sumando en todas las celdas tendríamos que

$$ \underline{S} \leq F_a^b \leq \overline{S} \quad .$$

Es decir, la suma inferior es menor o igual que el valor de la integral y la suma superior es mayor o igual que la integral. Un poco más adelante formalizaremos esto, cuándo hablemos apropiadamente de las funciones «bien portadas».

Refinamientos de una partición

Si hacemos una partición con más puntos, habrá más celdas dentro del intervalo y por lo tanto, la cantidad de rectángulos aumenta. Intuitivamente, nuestras aproximaciones deberían acercarse más al área buscada. En efecto, más adelante veremos que esto es así. Por ello, es importante introducir la siguiente definición formal.

Definición. Sea $P$ una partición del intervalo $[a,b]$. Un refinamiento de $P$ es otra partición $Q$ de $[a,b]$ tal que $P \subseteq Q$.

Al momento de pedir que la partición $P$ esté contenida en $Q$, aseguramos que todos los puntos de la partición generados en $P$ se encuentran en $Q$, y por lo tanto que cada celdas de $Q$ sean subconjunto de alguna celda de $P$.

Intuitivamente, las aproximaciones que hagamos con la partición $Q$ deben de ser entonces mejores que las que hagamos con la partición $P$. Si cierta suma de áreas de rectángulos hechas con $Q$ es $S_Q$ y esa suma de áres hechas con $P$ es $S_P$ suena razonable que:

$$ \left|F_a^b – S_Q\right| \leq \left|F_a^b – S_P \right|.$$

Sin embargo, nos estamos adelantando un poco. Lo que sí podemos mostrar formalmente por ahora es el siguiente resultado auxiliar.

Lema. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Si $P$ y $Q$ son particiones de $[a,b]$ y $Q$ es refinamiento de $P$, entonces $$\underline{S} (f,P) \leq \underline{S} (f,Q) \quad \text{y} \quad \overline{S} (f,Q) \leq \overline{S} (f,P)$$

Demostración. Por definición, $P$ y $Q$ son subconjuntos finitos de $[a,b]$, y $P\subseteq Q$, así que se puede llegar de $P$ a $Q$ agregando elementos de $[a,b]$ uno por uno. Bastará entonces ver que las desigualdades de arriba se cumplen cuando $Q$ tiene exactamente un elemento más que $P$, digamos $Q=P\cup \{y\}$. Tomemos $P=\{x_0,\ldots,x_n\}$. El real $y$ cae dentro de alguna celda de $P$, digamos en la celda $[x_{j-1},x_j]$.

Estudiemos qué suecede con las sumas inferiores. La suma inferior con respecto a $P$ es \begin{align*}
\underline{S}_P &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

Para la suma inferior con respecto a $Q$, la celda $[x_{j-1},x_j]$ queda partida en dos celdas $[x_{j-1},y]$ y $[y,x_j]$. Los ínfimos respectivos $r$ y $s$ de la función $f$ en estas dos celdas cumplen $r\geq m_j$ y $s\geq m_j$, pues estamos tomando el ínfimo sobre conjuntos más chicos. Así, la suma inferior con respecto a $Q$ cumple:

\begin{align*}
\underline{S}(f,Q) &= \sum_{i=1}^{j-1} m_i\Delta x_i + r (y-x_{j-1}) + s (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&\leq \sum_{i=1}^{j-1} m_i\Delta x_i + m_j (y-x_{j-1}) + m_j (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&=\sum_{i=1}^{j-1} m_i\Delta x_i + m_j (x_j-x_{j-1})+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&= \sum_{i=1}^{n} m_i\Delta x_i\\
&= \underline{S}(f,P).
\end{align*}

Esto termina la demostración para las sumas inferiores. El caso de las sumas superiores es análogo.

$\square$

En palabras, el lema anterior dice que la suma inferior con la partición $P$ es menor que la suma inferior con la partición $Q$ y la suma superior con la partición $P$ es mayor que la suma superior con la partición $Q$.

Otra aplicación muy importante de los refinamientos es que nos ayudan a demostrar que cualquier suma superior siempre es mayor que cualquier suma inferior, sin importar la partición que tomemos en una y en otra.

Proposición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sean $P$ y $Q$ particiones de $[a,b]$. Entonces,

$$\underline{S}(f,P) \leq \overline{S}(f,Q).$$

La idea de la demostración es sencilla. Para cualesquiera dos particiones $P$ y $Q$ podemos encontrar una partición $R$ que es un refinamiento de ambas (¿cómo la encontrarías?). Ya teniendo dicha partición, tenemos la cadena de desigualdades:

$$\underline{S} (f,P) \leq \underline{S} (f,R) \leq \overline{S} (f,R) \leq \overline{S} (f,Q).$$

Dar la partición $R$ de manera explícita y los detalles de cómo justificar la cadena de desigualdades anterior queda como parte de los ejercicios de esta entrada.

Sumas de Riemann y regla del punto medio

Ya vimos cómo hacer aproximaciones con rectángulos inferiores y cómo hacer aproximaciones con rectángulos superiores. Pero, como te imaginarás, los rectángulos podríamos tomarlos bajo otro criterio. Por ejemplo, podemos hacer rectángulos tomando un punto cualquiera $\xi_i$ dentro de cada celda $[x_{i-1},x_i]$ de una partición.

Ahora la aproximación quedaría de la siguiente manera:

\begin{align*}
F_n &= \sum_{i=1}^n f(\xi_i) \Delta x_i\\
&= \sum_{i=1}^n f(\xi_i) (x_i-x_{i-1})\\
&=f(\xi_1)(x_1 \ – \ x_0) + f(\xi_2)(x_2 \ – \ x_1) + . . . + f(\xi_n)(x_n \ – \ x_{n-1})
\end{align*}

A las expresiones de este estilo se les conoce como sumas de Riemann.

Una manera de dar de manera explícita algunos valores $\xi_i$ es tomando los puntos medios en cada celda, como en la siguiente figura.

Este método nos dará otra manera de aproximar el área que buscamos. Si de nuevo refinamos la partición y usamos los puntos medios, tendremos otro procedimiento exhaustivo para aproximar el área. Pero igual podríamos tomar otra, y otra, y otra manera de aproximar el área. ¿Será que todas estas aproximaciones nos llevan a la misma área? Es parte de lo que tendremos que entender formalmente más adelante. Sin embargo, por ahora haremos algunos ejemplos concretos de las ideas que hemos discutido hasta ahora.

Ejemplo de sumas de Riemann superiores, inferiores y de punto medio

Ejemplo. Tomamos la función $f:[2,8]\to \mathbb{R}$ dada por $f(x)=x+2$. Tomemos la partición homogénea $P=\{2,3,4,5,6,7,8\}$, en donde cada celda tiene longitud $1$. Encontremos la suma superior, la inferior y la que se obtiene mediante la regla del punto medio.

Partición con n=6

Para la suma inferior, tenemos el siguiente conjunto de ínfimos (en este caso, mínimos) de las celdas generadas:

$$m= \lbrace {4, 5, 6, 7, 8, 9}\rbrace .$$

De este modo, la suma inferior es

$$\underline{S}(f,P) = 4\cdot(3-2) + 5 \cdot (4-3) + 6 \cdot (5-4) + 7 \cdot (6-5) + 8 \cdot (7-6) + 9 \cdot (8-7) = 39.$$

En el caso de la suma superior, los supremos (en este caso, máximos) son

$$M= \lbrace {5, 6, 7, 8, 9, 10}\rbrace.$$

Desarrollemos la suma superior:

$$\overline{S}(f,P) = 5 \cdot (3-2) + 6 \cdot (4-3) + 7 \cdot (5-4) + 8 \cdot (6-5) + 9 \cdot (7-6) + 10 \cdot (8-7) = 45.$$

Finalmente, para la regla del punto medio, tenemos que los valores de la función evaluada en el punto medio de cada intervalo son:

$$\xi= \lbrace {4.5, 5.5, 6.5, 7.5, 8.5, 9.5}\rbrace .$$

Desarrollando la suma, obtenemos

$$S= 4.5 \cdot (3-2) + 5.5 \cdot (4-3) + 6.5 \cdot (5-4) + 7.5 \cdot (6-5) + 8.5 \cdot (7-6) + 9.5 \cdot (8-7) = 42.$$

$\triangle$

Más adelante…

En esta entrada empezamos a motivar cómo el área bajo una curva puede ser aproximada mediante rectángulos. Sin embargo, supusimos que nuestra curva estaba dada por una función «bien portada» la cuál sí hace un área apropiada. Esto no necesariamente pasará siempre, pues si la función tiene una gráfica muy complicada, entonces no podremos hablar apropiadamente del área debajo de ella.

De hecho, lo que hicimos en esta entrada nos ayudará a dar formalidad a exactamente qué quiere decir que la función sea «bien portada». La idea de particiones nos servirá para definir el área justo cuando cualquier proceso de aproximar «suficientemente bien» nos lleve al mismo límite. Tomaremos entonces la intuición desarrollada de las sumas inferiores, superiores e incluso las de la regla del punto medio, para introducir la definición de integral definida de la siguiente entrada.

Tarea moral

  1. Aproxima el área bajo la curva de las siguientes funciones en el intervalo dado, usando una partición homogénea con cinco celdas en el intervalo dado. En cada caso, realiza la cuenta con las sumas inferiores, las sumas superiores y con la regla del punto medio.
    • $f(x) = x^2$ en el intervalo $[0,1]$.
    • $f(x)=2x-3$ en el intervalo $[0,2]$.
    • $f(x)=x e^x$ en el intervalo $[2,3]$ (puedes usar calculadora para aproximar las respuestas)
  2. En esta entrada sólo hemos hablado de cómo encontrar el área entre la gráfica de una función positiva y el eje $x$ (dados dos límites verticales). ¿Qué tendríamos que hacer si la función es negativa?
  3. Ahora imaginemos que queremos encontrar el área que se encuentra entre la gráfica de dos funciones. Por ejemplo, imagina que queremos aproximar con las ideas de esta entrada el área entre las gráficas de las siguientes dos funciones, desde la línea vertical $x=0$ hasta el primer punto de intersección que tienen.

$f(x)= sin(x^3) + 2x$

$g(x)=cos(x^2)+3x^2-2$

Puedes ver estas funciones en la figura. Para realizar la aproximación, haz lo siguiente.

  • Encuntra el punto $c$ tal que $f(c)=g(c)$, es decir, en qué ubicación horizontal se cruzan las gráficas.
  • Haz una partición homogénea en 10 partes del intervalo $[0,c]$. ¿Qué longitud tiene cada celda?
  • Crea rectángulos usando como altura la distancia máxima entre las curvas en cada celda. ¿Cuánto queda la suma de áreas de rectángulos? ¿Y si usas la distancia mínima entre las curvas en cada celda?
  1. En el texto se da la demostración de que en un refinamiento, la suma inferior se vuelve más grande. Completa los detalles para ver el resultado análogo de que en un refinamiento la suma superior se vuelve más pequeña. ¿Qué propiedades del supremo estás utilizando?
  2. Completa los detalles de la proposición de que cualquier suma superior es mayor a cualquier suma inferior, aunque estemos hablando de particiones diferentes.
  3. La gráfica de la función $f(x)=\sqrt{1-x^2}$ es un semicírculo que va de $-1$ a $1$. Usa una partición homogénea en $10$ celdas del intervalo $[-1,1]$ y la regla del punto medio para dar una aproximación al área de este semicírculo. Entonces, ¿cuál sería una aproximación al área del círculo de radio $1$? De aquí, ¿cuál sería una aproximación para $\pi$?

Entradas relacionadas

Cálculo Diferencial e Integral II: Método de sustitución o cambio de variable

Por Miguel Ángel Rodríguez García

Introducción

En las unidades anteriores, se dieron las bases para la integración de funciones, así como, la integración de funciones con rigurosidad matemática. En esta unidad se estudiaran varias técnicas de integración para determinar integrales sin demasiada rigurosidad matemática y aunque no se estudiaran todas las técnicas de integración se verán las más relevantes.

Método de sustitución o cambio de variable

La integración por sustitución o cambio de variable, que como bien se menciona, es una técnica de integración que necesita uno o más cambios de variables adecuados en el integrando, de tal forma que la integral sea más sencilla de resolver. Comenzamos enunciando el teorema siguiente, la integración por sustitución.

Teorema: Método de sustitución

Sea $g$ una función derivable y con derivada continua, sea $f$ una función continua en un intervalo. Supón además que $F$ es una antiderivada de $f$ entonces:

$$\int_{a}^{b}f(g(x)) \cdot g'(x)dx=\int_{g(a)}^{g(b)}f(u)du= F(g(x)){\bigg|}_{ a }^{ b } $$

Demostración:

Por hipótesis, $F$ es primitiva de $f$, entonces por el segundo teorema fundamental del Cálculo [ Hipervinculo: Calculo II-Segundo Calculo fundamental del calculo] tenemos que:

$$\int_{g(a)}^{g(b)}f(u)du = F(g(b))-F(g(a)) \tag{1}$$

Por otro lado, dado que $f$ es continua, entonces tiene una antiderivada $F$, la función compuesta $f\circ g$ está definida, ya que $g$ es una función, como $g$ es diferenciable, tenemos que, por la regla de la cadena y la definición de antiderivada obtenemos que:

$$\frac { d }{ dx } (F(g(x))=F'(g(x))\cdot g'(x)=f(g(x))\cdot g'(x) \tag{2}$$

Integramos de $a$ hasta $b$, nos fijamos en el lado derecho e izquierdo de la ecuación $(2)$ como sigue:

$$\int_{a}^{b} \frac { d }{ dx } (F(g(x))dx=\int_{a}^{b} f(g(x)) \cdot g'(x) dx $$

Utilizamos nuevamente el teorema fundamental del Cálculo, obteniendo lo siguiente:

$$\int _{ a }^{ b }{ f(g(x)) \cdot g'(x)dx=F(g(b))-F(g(a)) } \tag{3}$$

Observamos las ecuaciones $(1)$ y $(3)$, vemos que se obtuvo la igualdad deseada, por lo que:

$$\int _{ a }^{ b }{ f(g(x)) \cdot g'(x)=F(g(b))-F(g(a)) } = \int_{g(a)}^{g(b)}f(u)du$$

$\square$

Puede quedar no muy claro el cómo utilizar este teorema, por lo que a continuación se ejemplificara con varios ejercicios el método de sustitución.

Ejemplos:

  • $\int { { ({ x }^{ 2 }+1) }^{ 2 }(2x)dx }$

Se hace un cambio de variable para resolver esta integral, cabe destacar que el símbolo para el cambio de variable puede ser cualquiera que guste, por ejemplo cualquier letra del alfabeto o incluso una carita feliz, en la literatura es común utilizar los símbolos de $u$ y $v$ para tales cambios de variable.

Para resolver esta integral, proponemos a $u = {x}^{2}+1$, por lo que, al derivar, se obtiene: $du = 2x dx$, así, al sustituir estas variables, el integrando queda de la siguiente forma:

$$\int u^{2}du$$

Vemos que al hacer el cambio de variable la integral es más sencilla, ya que sabemos que en general cualquier polinomio de grado $n$ se integra como:

$$\int { { x }^{ n }dx } =\frac { { x }^{ n+1 } }{ n } +C$$

Donde $C$ es la constante de integración, siguiendo con el ejercicio:

$$\int { { u }^{ 2 }du= \frac { { u }^{ 3 } }{ 3 } +C } $$

Volviendo a la variable original $x$, la resolución de la integral es:

$$\int { { ({ x }^{ 2 }+1) }^{ 2 }(2x)dx } = \frac { { ({ x }^{ 2 }+1) }^{ 3 } }{ 3 } +C $$

Obsérvese que este integral se puede resolver también multiplicando los factores y utilizar la linealidad de la integral, pero esto es un poco más laborioso. Así vemos que este método nos ayuda a resolver integrales fácilmente.

  • $\int { \frac { 2x-9 }{ \sqrt { { x }^{ 2 }-9x+1 } } } dx$

A simple vista esta integral puede ser complicada y necesitar de otros métodos, pero veamos que no es necesario.

Proponemos como cambio de variable: $u={ x }^{ 2 }-9x+1$, la derivada es: $du=(2x-9)dx$, por lo que la integral se reescribe como:

$$\int { \frac { du }{ \sqrt { u } } }=\int { { u }^{ -1/2 }du }$$

Esta integral se resuelve como:

$$\int { { u }^{ -1/2 }du }=\frac { { u }^{ -1/2+1 } }{ -\frac{1}{2}+1 } +C={ 2u }^{ 1/2 }+C$$

Volviendo a la variable original, el resultado es:

$$\int { \frac { 2x-9 }{ \sqrt { { x }^{ 2 }-9x+1 } } } dx=2\sqrt { { x }^{ 2 }-9x+1 } +C$$

  • $\int { \frac { x+1 }{ { x }^{ 2 }+2x } dx }$

Proponemos como cambio de variable: $u={x}^{2}+2x \Rightarrow du=(2x+2)dx=2(x+1)dx$

Vemos en el integrando que solo está el término $x+1$, por lo que en la relación de la diferencia de $u$, al ser una igualdad, pasamos el $2$ dividiendo como sigue:

$$\Rightarrow \frac { du }{ 2 } =\left(x+1 \right) dx$$

Por lo que reescribimos la integral y la resolvemos:

$$\int \frac { 1 }{ u } \frac{du}{2}=\frac { 1 }{ 2 } ln\left| u \right| +C$$

Volviendo a la variable original, se obtiene que la resolución de la integral es:

$$\int { \frac { x+1 }{ { x }^{ 2 }+2x } dx }=\frac { 1 }{ 2 } ln\left| { x }^{ 2 }+2x \right| +C $$

  • $\int _{ 1 }^{ 3 }{ \frac { { e }^{ 3/x } }{ { x }^{ 2 } } dx }$

Vemos en este caso que tenemos una integral definida. Proponemos como cambio de variable: $$u=\frac { 3 }{ x } \Rightarrow du=-3{ x }^{ -2 }dx$$

Al hacer un cambio de variable en las integrales con límites de integración, se tiene que cambiar los límites de integración como sigue: Si $x=1 \Rightarrow u=3$, si $x=3 \Rightarrow u=1$, así la integral se reescribe como:

$$\int _{ 3 }^{ 1 }{\left ( -\frac { 1 }{ 3 }\right ) { e }^{ u }du }$$

Resolviendo esta integral, sabemos que al cambiar los límites de integración se cambia el signo de la integral [ Hipervinculo: Calculo II-Tema que contiene el cambio de signo al cambiar los límites de integración], entonces tenemos que:

$$\int _{ 1 }^{ 3 }{ \frac { 1 }{ 3 } { e }^{ u }du}={ \left[ \frac { 1 }{ 3 } { e }^{ u }du \right] }{\bigg|}_{ 1 }^{ 3 }=\frac { 1 }{ 3 } \left( { e }^{ 3 }-{ e } \right)$$

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Resuelve las siguientes integrales utilizando el método de sustitución:

  1. $$\int \sqrt { 2x+1 }dx$$
  2. $$\int 3{ x }^{ 2 }\sqrt { { x }^{ 3 }-2 } dx$$
  3. $$\int \frac { { x }^{ 2 }+x+1 }{ { x }^{ 2 }+1 } dx $$ Hint: Hacer la división de polinomios.
  4. $$\int _{ -2 }^{ 3 } x \cos { {( x }^{ 2 }+3)}dx$$
  5. $$\int _{ 0 }^{ \pi /4 } \sqrt { 1+\cos(4x)} dx$$ Hint: Utilizar la identidad ${ \cos }^{2 }(\theta) =\frac { 1+\cos { (2\theta) } }{ 2 }$ y utilizar un cambio de variable.

Más adelante…

Como se mencionó anteriormente, esta técnica de integración facilita resolver algunas integrales utilizando uno o más cambios de variables apropiados para poder resolver la integral como se vio en esta sección, pero en otros casos no se pueden resolver integrales solo utilizando el cambio de variable, en la siguiente sección veremos otro método de integración llamado integración por partes.

Entradas relacionadas

Álgebra Lineal I: Subespacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial $V$ que también es un espacio vectorial con las mismas operaciones de $V$.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Un subespacio vectorial de $V$, o simplemente un subespacio de $V$, es un subconjunto no vacío $W$ de $V$ cerrado bajo las operaciones de suma vectorial y multiplicación escalar de $V$. En otras palabras, $W$ es un subespacio de $V$ si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera $u$ y $v$ elementos de $W$, se cumple que $u+v$ está en $W$.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar $c$ en $F$ y vector $v$ en $W$ se cumple que $cv$ está en $W$.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo $F$ y nos fijamos el espacio vectorial $F[x]$ de polinomios, entonces para cualquier entero $n$ el subconjunto $F_n[x]$ de $F[x]$ de polinomios de grado a lo más $n$ es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, $F_n[x]$ es un subespacio de $F[x]$. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si $W$ es un subespacio de un espacio vectorial $V$, entonces $W$ debe tener al vector $0$ de $V$ (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que $W$ es no vacío, así que tiene por lo menos un elemento $v$. Si tomamos al $0$ de $F$ y usamos la propiedad (2) de subespacio con $0$ y $v$ obtenemos que $0v=0$ está en $W$.
  2. Si $W$ es un subespacio de un espacio vectorial $V$ y $v$ está en $W$, entonces $-v$ también. Esto se debe a que por la propiedad (2) de subespacio tenemos que $(-1)v=-v$ está en $W$.
  3. Si $V$ es un espacio vectorial sobre $F$ y $W$ es un subespacio de $V$, entonces $W$ también es un espacio vectorial sobre $F$ con las mismas operaciones que $V$. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de $V$ y por lo tanto también para los de $W$ (pues es un subconjunto).
  4. Si $W_1$ y $W_2$ son dos subespacios de un espacio vectorial $V$, entonces la intersección $W_1\cap W_2$ también lo es.

$\square$

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector $0$, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que $\mathcal{C}[0,1]$, el conjunto de funciones continuas de $[0,1]$ a $\mathbb{R}$, es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto $V$ de funciones de $[0,1]$ a los reales es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación escalar. El conjunto $\mathcal{C}[0,1]$ es un subconjunto de $V$.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, $\mathcal{C}[0,1]$ es un subespacio de $V$.

Por la observación (3) de la discusión previa, obtenemos que $\mathcal{C}[0,1]$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

$\square$

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea $V$ un espacio vectorial sobre el campo $F$ y $W$ un subconjunto de $V$. Los siguientes enunciados son equivalentes.

  1. $W$ es un subespacio de $V$ de acuerdo a nuestra definición.
  2. Para cualesquiera vectores $u$ y $v$ en $W$ y escalares $a$ y $b$ en $F$, se tiene que $au+bv$ está en $W$.
  3. Para cualesquiera vectores $u$ y $v$ en $W$ y cualquier escalar $c$ en $F$ se tiene que $cu+v$ está en $W$.

Demostración. (1) implica (2). Supongamos que $W$ es un subespacio de $V$. Tomemos vectores $u,v$ en $W$ y escalares $a,b$ en $F$. Como $W$ es cerrado bajo producto escalar, se tiene que $au$ está en $W$. De manera similar, $bv$ está en $W$. Como $W$ es cerrado bajo sumas, se tiene que $au+bv$ está en $W$.

(2) implica (3). Supongamos que $W$ satisface (2) y tomemos $u,v$ en $W$ y cualquier escalar $c$ en $F$. Tomando $a=c$ y $b=1$ en (2), tenemos que $cu+1v=cu+v$ está en $W$.

(3) implica (1). Supongamos que $W$ satisface (3). Hay que ver que $W$ es cerrado bajo sumas y producto escalar. Si tomamos $u$ y $v$ en $W$ y al escalar $c=1$ de $F$, por (3) obtenemos que $cu+v=1u+v=u+v$ está en $W$, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar $c$ y al vector $w=0$, entonces por (3) se tiene que $cu+w=cu+0=cu$ está en $W$. Esto muestra la cerradura bajo producto escalar.

$\square$

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que $W$ es un subespacio.

Problema. Considera $V$ el espacio vectorial de matrices en $M_n(F)$. Muestra que el subconjunto $W$ de matrices simétricas forman un subespacio de $V$.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea $c$ un escalar en $F$ y sean $A$ y $B$ matrices en $W$, es decir, tales que $^tA=A$ y $^tB = B$. Debemos mostrar que $cA+B$ está en $W$, es decir, que $^t(cA+B)=cA+B$. Usando propiedades de la transpuesta y la hipótesis sobre $A$ y $B$ tenemos que: $$^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.$$ Con esto termina la demostración.

$\square$

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto $W$. Para cada uno de los casos, piensa por qué la suma de dos elementos de $W$ es de nuevo un elemento de $W$ y por qué el producto de un escalar por un elemento de $W$ es un elemento de $W$. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos $M_2(\mathbb{R})$, el subconjunto $W$ de matrices que cumplen que la suma de entradas en su diagonal principal es igual a $0$ es un subespacio.
  • En el espacio vectorial $F^4$, el subconjunto $W$ de vectores cuya primera y tercer entrada son iguales a $0$ forman un subespacio.
  • Las funciones acotadas del intervalo $[-3, 3]$ a $\mathbb{R}$ forman un subconjunto $W$ que es un subespacio de las funciones del intervalo $[-3,3]$ a $\mathbb{R}$.
  • El subconjunto $W$ de vectores $(x,y,z)$ de $\mathbb{R}^3$ tales que $$\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}$$ es un subespacio de $\mathbb{R}^3$.
  • Si tomamos $W=\mathbb{R}_3[x]$, entonces este es un subespacio de $\mathbb{R}_4[x]$.
  • Si tomamos $W=\mathbb{R}_4[x]$, entonces este es un subespacio de $\mathbb{R}_5[x]$.
  • El subconjunto $W$ de funciones diferenciables de $[0,10]$ a $\mathbb{R}$ tales que su derivada evaluada en $7$ es igual a $0$ es un subespacio del espacio de funciones continuas de $[0,10]$ a $\mathbb{R}$.
  • Las matrices triangulares superiores de $M_n(F)$ forman un subespacio $W$ del espacio $M_n(F)$. Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto $W=\{(x,y,z): x^2+y^2+z^2=1\}$ no es un subespacio de $\mathbb{R}^3$. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, $W$ debería tener a $(0,0,0)$ para ser subespacio. Pero $0^2+0^2+0^2=0\neq 1$. Así, $(0,0,0)$ no está en $W$ y por lo tanto $W$ no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que $(1,0,0)$ está en $W$, pero $2(1,0,0)=(2,0,0)$ no.
  • El subconjunto $W=\{(0,0), (1,2), (-1,2)\}$ de $\mathbb{R}^2$ no es un subespacio, pues $(1,2)$ está en $W$. Tomando $u=(1,2)$ y $v=(1,2)$, vemos que $W$ no es cerrado bajo sumas pues $(1,2)+(1,2)=(2,4)$ no está en $W$.
  • Las matrices del subconjunto $GL_n(F)$ de $M_n(F)$, es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz $O_n$ no es invertible, así que no está en $GL_n(F)$.
  • El subconjunto $W$ de funciones $f:[-3,3]\to \mathbb{R}$ diferenciables tales que su derivada en $0$ es igual a $2$ no es un subespacio de las funciones continuas de $[-3,3]$ a $\mathbb{R}$. Hay muchas formas de verlo. Podemos darnos cuenta que $f(x)=x^2+2x$ es una de las funciones en $W$ pues $f'(x)=2x+2$ y $f'(0)=2$. Sin embargo, $3f$ no está en $W$.
  • El subconjunto $W$ de polinomios de $\mathbb{R}[x]$ con coeficientes no negativos no es un subespacio de $\mathbb{R}[x]$. El polinomio $0$ sí está en $W$ y la suma de cualesquiera dos elementos de $W$ está en $W$. Sin embargo, falla la multiplicación escalar pues $x$ está en $W$, pero $(-1)x=-x$ no.
  • La unión del eje $X$, el eje $Y$ y el eje $Z$ de $\mathbb{R}^3$ es un subconjunto $W$ de $\mathbb{R}^3$ que no es un subespacio. Cualquier producto escalar queda dentro de $W$, pero la suma no es cerrada.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para «combinarlos» y obtener más subespacios. Una operación muy importante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector $0$. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que los siguientes conjuntos $W$ son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(w,x,y,z)$ de $\mathbb{C}^4$ tales que $w+x+y+z=0$.
    • La colección $W$ de funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $\int_0^1 f(x) \, dx = 0$ es un subespacio del espacio de funciones de $[0,1]$ a $\mathbb{R}$.
    • $W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\}$ es un subespacio de las matrices en $M_2(\mathbb{R})$.
  • Demuestra que los siguientes conjuntos $W$ no son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(x,y)$ de $\mathbb{R}^2$ tales que $xy\geq 0$ no es un subespacio de $\mathbb{R}^2$.
    • El subconjunto $W$ de matrices en $M_{3,2}(F)$ cuyo producto de todas las entradas es igual a $0$ no es un subespacio de $M_{3,2}$
    • Cuando $W$ es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más $3$, es imposible que sea un subespacio de $\mathbb{C}_3[x]$.
  • Sea $V$ un espacio vectorial y $n$ un entero positivo. Demuestra que si $W_1, W_2, \ldots, W_n$ son subespacios de $V$, entonces la intersección $$W_1 \cap W_2 \cap \ldots \cap W_n$$ también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si $V$ es un espacio vectorial, $W$ es un subespacio de $V$ y $U$ es un subespacio de $W$, entonces $U$ es un subespacio de $V$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de $V$ es una base en la cual cada par de vectores tiene producto interior $0$. Es ortonormal si además cada elemento es de norma $1$. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de $V$, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal con este producto interior, entonces para cualquier vector $v$, la coordenada de $v$ con respecto a $e_i$ es $\langle v, e_i \rangle$.

Demostración. Expresemos a $v$ en la base $B$ como $$v=\alpha_1e_1+\ldots+\alpha_n e_n.$$

Tomemos $j$ en $1,2,\ldots,n$. Usando la linealidad del producto interior, tenemos que
\begin{align*}
\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\
&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.
\end{align*}

Como $B$ es base ortonormal, tenemos que en el lado derecho $\langle e_j,e_j\rangle = 1$ y que si $i\neq j$ entonces $\langle e_i, e_j\rangle=0$. De esta forma, el lado derecho de la expresión es $\alpha_j$, de donde concluimos que $$\langle v, e_j \rangle = \alpha_j,$$ como queríamos.

$\square$

Definición. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal, a $$v=\sum_{i=1}^n \langle v, e_i \rangle e_i$$ le llamamos la descomposición de Fourier de $v$ con respecto a $B$.

Ejemplo. Trabajemos en el espacio vectorial $V=\mathbb{R}_2[x]$ de polinomios reales de grado a lo más $2$. Ya mostramos anteriormente (con más generalidad) que $$\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)$$ es un producto interior en $V$.

Los polinomios $\frac{1}{\sqrt{3}}$, $\frac{x}{\sqrt{2}}$ y $\frac{3x^2-2}{\sqrt{6}}$ forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica $\{1,x,x^2\}$ en términos de esta base ortonormal? Los primeros dos son sencillos:
\begin{align}
1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\
x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}.
\end{align}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

\begin{align*}
\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\
\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\
\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.
\end{align*}

De este modo, $$x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.$$

$\triangle$

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortogonal con este producto interior, entonces para cualquier vector $$v=\alpha_1e_1+\ldots+\alpha_ne_n,$$ tenemos que $$\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.$$

En particular, si $B$ es una base ortonormal, entonces $$\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.$$

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
\begin{align*}
\norm{v}^2 &= \langle v,v \rangle\\
&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.
\end{align*}

Como $B$ es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que $i=j$, es decir,
\begin{align*}
\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\
&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\
\end{align*}

como queríamos mostrar.

Si $B$ es base ortonormal, cada $\norm{e_i}^2$ es $1$, y por el teorema anterior, $\alpha_i=\langle v, e_i\rangle$. Esto prueba la última afirmación.

$\square$

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a $x^2$ en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
\begin{align*}
\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\
&=\frac{4}{3}+\frac{4}{6}\\
&=2.
\end{align*}

De esta forma, $\norm{x^2}=\sqrt{2}$. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de $x^2$ con la definición.

$\triangle$

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en $V=\mathbb{R}_n[x]$, que habíamos elegido $n+1$ reales distintos $x_0,\ldots,x_n$, y que a partir de ellos definimos $$\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).$$ Mostramos que $\langle \cdot , \cdot \rangle$ es un producto interior y que para $j=0,\ldots,n$ los polinomios $$L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}$$ forman una base ortonormal de $V$.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio $P$ de grado a lo más $n+1$ con coeficientes reales satisface que $$P=\sum_{i=0}^n \langle P, L_i \rangle L_i,$$ lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para $P$ un polinomio con coeficientes en los reales de grado a lo más $n$ y $x_0,x_1,\ldots,x_n$ reales distintos, tenemos que $$P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).$$

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado $n$ en cualquier real $x$ conociendo sus valores en $n+1$ reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx$$ define un producto interior en el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$.

En ese ejemplo, definimos \begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*} y $C_0(x)=\frac{1}{\sqrt{2\pi}}$, y mostramos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ era un conjunto ortonormal.

No se puede mostrar que $\mathcal{F}$ sea una base ortonormal, pues el espacio $V$ es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia $\mathcal{F}$ es buena aproximando a elementos de $V$, es decir a funciones continuas y periódicas de periodo $2\pi$. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia $\mathcal{F}$ a una familia más pequeña:

$$\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}$$

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la $n$-ésima serie parcial de Fourier de una función $f$ en $V$ a la expresión $$S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.$$ Haciendo las cuentas, se puede mostrar que $$S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),$$ en donde para $k\geq 1$ tenemos $$a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx$$ y $$b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.$$

A los números $a_k$ y $b_k$ se les conoce como los $k$-ésimos coeficientes de Fourier. Aunque $\mathcal{F}$ no sea una base para $V$, sí es buena «aproximando» a elementos de $V$. Por ejemplo, un resultado lindo de Dirichlet dice que si $f$ y su derivada son continuas, entonces $$\lim_{n\to \infty} S_n(f)(x) = f(x).$$ Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora $W_n$ el subespacio de $V$ generado por $\mathcal{F}_n$. Tomemos una función $f$ cualquiera en $V$. La $n$-ésima serie de Fourier de $f$ es un elemento de $W_n$. De hecho, es precisamente la proyección de $f$ en $W_n$. Por esta razón, $$\norm{f_n}^2\leq \norm{f}^2<\infty$$

Podemos calcular la norma de $f_n$, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) $W_n$. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

$$\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.$$

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie $$\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).$$ Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.$$

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando $n\to \infty$. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.$$

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de $x^2$ con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es $\sqrt{2}$.
  • Con la misma base ortonormal $B$ de ese ejemplo, calcula las coordenadas y la norma del polinomio $1+x+x^2$.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en $\mathbb{R}^n$ y con la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases ortogonales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Como ya discutimos en las entradas anteriores, si tenemos un espacio vectorial $V$ con producto interior, entonces podemos definir varias nociones geométricas en $V$, como ángulos, norma y distancia. Ahora vamos a definir una noción muy útil en álgebra lineal: la de bases ortogonales. Para ello, combinaremos las nociones de bases y producto interior.

Las bases ortogonales no sólo tienen aplicaciones en álgebra lineal. También son el punto de partida de muchos conceptos matemáticos avanzados. Un primer ejemplo es el análisis de Fourier, que estudia cómo aproximar funciones mediante funciones trigonométricas y que tiene aplicaciones en el mundo real en análisis de señales. Otro ejemplo es la vasta teoría de polinomios ortogonales, con aplicaciones en el mundo real en aproximación e integración numérica.

En estas entradas de bases ortogonales tomaremos espacios vectoriales sobre $\mathbb{R}$ con un producto interior $\langle \cdot,\cdot \rangle$.

Conjuntos ortogonales y ortonormales

Comenzamos con la siguiente definición. Recuerda que $V$ es un espacio vectorial sobre $\mathbb{R}$ con producto interior, así que induce una norma $\Vert \cdot \Vert$.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Ortogonal si cualquier par de vectores distintos de $S$ es ortogonal, es decir, si para todo $v,w$ en $S$, con $v\neq w$ se tiene que $$\langle v, w \rangle = 0.$$
  • Ortonormal si es ortogonal, y además todo vector de $S$ tiene norma $1$.

En otras palabras, $S$ es ortonormal si para todo $v$ en $S$ se tiene $\langle v, v\rangle =1$ y para $v$ y $w$ en $S$ distintos se tiene $\langle v, w\rangle =0$.

Ejemplo. Si tomamos a $\mathbb{R}^n$ con el producto punto, entonces la base canónica es un conjunto ortonormal pues, en efecto, $e_i\cdot e_i = 1$ y para $i\neq j$ se tiene $e_i\cdot e_j = 0$.

Todo conjunto de un sólo elemento es ortogonal, pues no hay nada que probar. Otro conjunto ortonormal en $\mathbb{R}^2$ es el conjunto que sólo tiene al vector $\left(\frac{3}{5},\frac{4}{5}\right)$, pues este es un vector de norma $1$.

Los vectores $(1,1,0)$, $(1,-1,0)$ y $(0,0,1)$ forman otro conjunto ortogonal en $\mathbb{R}^3$, pues en efecto
\begin{align*}
(1,1,0)\cdot (1,-1,0)&=1-1=0\\
(1,-1,0)\cdot (0,0,1)&=0\\
(0,0,1)\cdot (1,1,0)&=0.
\end{align*}

Sin embargo, este no es un conjunto ortonormal, pues la norma de $(1,1,0)$ es $\sqrt{2}\neq 1$. Si normalizamos a cada vector, es decir, si lo dividimos entre su norma, entonces obtenemos los vectores ortonormales $\left(1/\sqrt{2},1/\sqrt{2},0\right)$, $\left(1/\sqrt{2},-1/\sqrt{2},0\right)$ y $(0,0,1)$.

$\triangle$

Propiedades de conjuntos ortogonales y ortonormales

Todo conjunto ortogonal de vectores no nulos se puede normalizar como en el ejemplo de la sección anterior para obtener un conjunto ortonormal. Es decir, si $S$ es un conjunto de vectores distintos de $0$, entonces $$S’=\left\{\frac{v}{\Vert v \Vert}: v\in S\right\}$$ es un conjunto ortonormal.

Una propiedad fundamental de los conjuntos ortonormales de vectores es que son linealmente independientes. Se puede probar algo un poco más general.

Proposición. Si $S$ es un conjunto ortogonal de vectores no nulos, entonces los elementos de $V$ son linealmente independientes.

Demostración. Tomemos $v_1,\ldots,v_n$ elementos de $S$ y supongamos que existen $\alpha_1,\ldots,\alpha_n$ escalares tales que $$v:=\sum_{i=1}^n \alpha_i v_i =0.$$

Tomemos un índice $j$ en $1,\ldots,n$ y hagamos el producto interior $\langle v, v_j\rangle$. Por un lado, como $v=0$, este produto es $0$. Por otro lado, por linealidad es $$\sum_{i=1}^n \alpha_i \langle v_i,v_j\rangle.$$

Cuando $i\neq j$, el sumando correspondiente es igual a $0$. De este modo, el único sumando no cero es cuando $i=j$, el cual es $\alpha_j \langle v_j,v_j\rangle$. De estos argumentos, deducimos que $$\alpha_j\langle v_j,v_j\rangle =0.$$ Como los vectores son no nulos, se tiene que $\langle v_j,v_j\rangle \neq 0$. Así, $\alpha_j=0$ para todo $j=1,\ldots,n$, lo cual muestra que los vectores son linealmente independientes.

$\square$

Como cada elemento de un conjunto ortonormal tiene norma $1$, entonces no puede ser nulo, así que como corolario de la proposición anterior, todo conjunto ortonormal es linealmente independiente. Otro corolario es el siguiente.

Corolario. En un espacio Euclideano de dimensión $d$, los conjuntos ortogonales sin vectores nulos tienen a lo más $d$ elementos.

Bases ortogonales y ortonormales

Cuando una base de un espacio vectorial es ortogonal (o bien, ortonormal), pasan varias cosas buenas. Esto amerita una definición por separado.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Una base ortogonal si $S$ es una base de $V$ y es un conjunto ortogonal.
  • Una base ortonormal si $S$ una base de $V$ y es un conjunto ortonormal.

Ejemplo. En $\mathbb{R}^n$ la base canónica es una base ortonormal.

En $\mathbb{R}^2$ el conjunto $S=\{(2,3),(9,-6)\}$ es un conjunto ortogonal. Además, se puede verificar fácilmente que son dos vectores linealmente independientes. De este modo, $S$ es una base ortogonal.

Sin embargo, $S$ no es una base ortonormal pues el primero de ellos tiene norma $\sqrt{2^2+3^2}=\sqrt{13}$. Si quisiéramos convertir a $S$ en una base ortonormal, podemos normalizar a cada uno de sus elementos.

$\triangle$

En la sección anterior vimos que los conjuntos ortonormales son linealmente independientes. Otro corolario de este resultado es lo siguiente.

Corolario. En un espacio Euclideano de dimensión $n$, un conjunto ortonormal de $n$ vectores es una base ortonormal.

La importancia de las bases ortogonales yace en que dada una base ortonormal $B$ y un vector $v$, podemos encontrar varias propiedades de $v$ en términos de $B$ fácilmente. Por ejemplo, veremos más adelante que:

  • Las coordenadas de $v$ con respecto a la base $B$ son sencillas.
  • Hay una fórmula simple para la norma de $v$ en términos de sus coordenadas en la base $B.$
  • Si $B$ es una base de un subespacio $W$ de $V$, entonces es fácil encontrar la distancia de $v$ a $W.$

Mejor aún, las bases ortonormales siempre existen.

Teorema. Todo espacio Euclideano tiene una base ortonormal.

Es decir, sin importar qué espacio vectorial real de dimensión finita tomemos, y sin importar qué producto punto le pongamos, podemos dar una base ortogonal. De hecho, veremos un resultado un poco más fuerte, que nos dará un procedimiento para encontrar dicha base, incluso imponiendo restricciones adicionales.

Ejemplo de bases ortogonales en polinomios

Ejemplo. Tomemos $\mathbb{R}_n[x]$ el espacio de polinomios de grado a lo más $n$ con coeficientes reales. Además, tomemos números reales distintos $x_0,\ldots,x_n$. A partir de estos reales podemos definir la operación $$\langle P, Q \rangle = \sum_{j=0}^n P(x_j)Q(x_j),$$ la cual es claramente bilineal y simétrica.

Tenemos que $\langle P,P\rangle$ es una suma de cuadrados, y por lo tanto es no negativa. Además, si $\langle P, P\rangle =0$, es porque $$\sum_{j=0}^n P(x_j)^2=0,$$ y como estamos trabajando en $\mathbb{R}$ esto implica que cada sumando debe ser cero. Pero las igualdades $$P(x_0)=\ldots=P(x_n)=0$$ dicen que los $n+1$ reales distintos $x_i$ son raíces de $P$, y como $P$ es de grado a lo más $n$, tenemos que $P$ es el polinomio $0$. En resumen, $\langle \cdot, \cdot \rangle$ es un producto interior en $\mathbb{R}_n[x]$. Vamos a dar una base ortogonal con respecto a este producto interior.

Para $i=0,\ldots,n$, consideremos los polinomios $$L_i(x)=\prod_{0\leq k \leq n, k\neq i} \frac{x-x_k}{x_i-x_k}.$$ Observa que $L_j(x_j)=1$ y si $j\neq i$, tenemos $L_i(x_j)=0$. Afirmamos que $$B=\{L_j:j=0,\ldots,n+1\}$$ es una base ortonormal de $\mathbb{R}_n[x]$ con el producto interior que definimos. Como consiste de $n+1$ polinomios y $\dim(\mathbb{R}_n[x])=n+1$, basta con que veamos que es un conjunto ortonormal.

Primero, notemos que
\begin{align*}
\langle L_i,L_i \rangle = \sum_{j=0}^n L_i(x_j)^2 = L_i(x_i)^2=1,
\end{align*}

de modo que cada $L_i$ tiene norma $1$.

Luego, notemos que si $i\neq j$, entonces $L_i(x_k)L_j(x_k)=0$ pues $x_k$ no puede ser simultáneamente $x_i$ y $x_j$. De este modo,

\begin{align*}
\langle L_i,L_j \rangle = \sum_{k=0}^n L_i(x_k)L_j(x_k)=0.
\end{align*}

Con esto mostramos que cada par de polinomios distintos es ortogonal. Esto termina la demostración de que $B$ es base ortonormal.

$\square$

Ejemplo de conjuntos ortogonales en funciones periódicas

Ejemplo. Consideremos $V$ el conjunto de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$. Definimos $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx.$$ Se puede mostrar que $\langle \cdot, \cdot \rangle$ así definido es un producto interior en $V$.

Para cada entero positivo $n$, definimos
\begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*}

Además, definimos $C_0(x)=\frac{1}{\sqrt{2\pi}}$. Afirmamos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ es un conjunto ortonormal de vectores. Mostremos esto.

Para empezar, notamos que $$\Vert C_0\Vert ^2 = \int_{-\pi}^{\pi} \frac{1}{2\pi}\, dx =1.$$

Luego, tenemos que para $n\geq 1$ que
\begin{align*}
\Vert C_n\Vert ^2 &= \int_{-\pi}^\pi \frac{1}{\pi} \cos^2(nx)\, dx\\
&= \int_{-\pi}^\pi \frac{1+\cos(2nx)}{2\pi}\, dx\\
&= 1,
\end{align*}

ya que para todo entero $m\neq 0$ se tiene que $$\int_{-\pi}^\pi \cos(mx) \, dx=0.$$ De manera similar, usando la identidad $$\sin^2(nx)=\frac{1-\cos(nx)}{2},$$ se puede ver que la norma de $S_n$ es $1$.

Para ver que las parejas de elementos distintas son ortogonales, tenemos varios casos. Si tomamos $n\geq 1$, el resultado para $\langle C_0,C_n\rangle$ ó $\langle C_0,S_n\rangle$ se deduce de que
$$\int_{-\pi}^\pi \cos(mx)\, dx=\int_{-\pi}^\pi \sin(mx)\, dx=0$$ para todo entero $m\neq 0$.

Si tomamos dos $C_i$’s distintos, dos $S_i’s$ distintos o un $C_i$ y un $S_i$, el resultado se deduce de las fórmulas «producto a suma» de las funciones trigonométricas.

$\square$

Más adelante…

En esta entrada combinamos las nociones de bases y el producto interior, estudiadas en entradas anteriores, para definir a las bases ortogonales. Vimos algunas propiedades de conjuntos ortogonales y ortonormales, para extenderlos a bases ortogonales y ortonormales. Vimos unos ejemplos de bases ortogonales de los polinomios y otros ejemplos de conjuntos ortogonales en funciones periódicas.

En la siguiente entrada veremos aplicaciones de estos conceptos, culminando en una descomposición de Fourier.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un conjunto ortogonal de vectores en $\mathbb{R}^4$ tal que ninguna de las entradas de ninguno de sus vectores sea igual a $0$.
  • Escribe las demostraciones de los corolarios enunciados en esta entrada.
  • Muestra que $\langle \cdot, \cdot \rangle$ definido en el ejemplo de funciones periódicas es un producto interior.
  • Termina de mostrar que la familia $\mathcal{F}$ del ejemplo de funciones periódicas es ortonormal. Sugerencia: Usa identidades de suma y resta de ángulos para poner el producto de senos (o cosenos o mixto) como una suma de senos y/o cosenos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»