Archivo de la etiqueta: integral

Álgebra Lineal I: Subespacios vectoriales

[latexpage]

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial $V$ que también es un espacio vectorial con las mismas operaciones de $V$.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Un subespacio vectorial de $V$, o simplemente un subespacio de $V$, es un subconjunto no vacío $W$ de $V$ cerrado bajo las operaciones de suma vectorial y multiplicación escalar de $V$. En otras palabras, $W$ es un subespacio de $V$ si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera $u$ y $v$ elementos de $W$, se cumple que $u+v$ está en $W$.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar $c$ en $F$ y vector $v$ en $W$ se cumple que $cv$ está en $W$.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo $F$ y nos fijamos el espacio vectorial $F[x]$ de polinomios, entonces para cualquier entero $n$ el subconjunto $F_n[x]$ de $F[x]$ de polinomios de grado a lo más $n$ es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, $F_n[x]$ es un subespacio de $F[x]$. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si $W$ es un subespacio de un espacio vectorial $V$, entonces $W$ debe tener al vector $0$ de $V$ (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que $W$ es no vacío, así que tiene por lo menos un elemento $v$. Si tomamos al $0$ de $F$ y usamos la propiedad (2) de subespacio con $0$ y $v$ obtenemos que $0v=0$ está en $W$.
  2. Si $W$ es un subespacio de un espacio vectorial $V$ y $v$ está en $W$, entonces $-v$ también. Esto se debe a que por la propiedad (2) de subespacio tenemos que $(-1)v=-v$ está en $W$.
  3. Si $V$ es un espacio vectorial sobre $F$ y $W$ es un subespacio de $V$, entonces $W$ también es un espacio vectorial sobre $F$ con las mismas operaciones que $V$. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de $V$ y por lo tanto también para los de $W$ (pues es un subconjunto).
  4. Si $W_1$ y $W_2$ son dos subespacios de un espacio vectorial $V$, entonces la intersección $W_1\cap W_2$ también lo es.

$\square$

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector $0$, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que $\mathcal{C}[0,1]$, el conjunto de funciones continuas de $[0,1]$ a $\mathbb{R}$, es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto $V$ de funciones de $[0,1]$ a los reales es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación escalar. El conjunto $\mathcal{C}[0,1]$ es un subconjunto de $V$.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, $\mathcal{C}[0,1]$ es un subespacio de $V$.

Por la observación (3) de la discusión previa, obtenemos que $\mathcal{C}[0,1]$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

$\square$

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea $V$ un espacio vectorial sobre el campo $F$ y $W$ un subconjunto de $V$. Los siguientes enunciados son equivalentes.

  1. $W$ es un subespacio de $V$ de acuerdo a nuestra definición.
  2. Para cualesquiera vectores $u$ y $v$ en $W$ y escalares $a$ y $b$ en $F$, se tiene que $au+bv$ está en $W$.
  3. Para cualesquiera vectores $u$ y $v$ en $W$ y cualquier escalar $c$ en $F$ se tiene que $cu+v$ está en $W$.

Demostración. (1) implica (2). Supongamos que $W$ es un subespacio de $V$. Tomemos vectores $u,v$ en $W$ y escalares $a,b$ en $F$. Como $W$ es cerrado bajo producto escalar, se tiene que $au$ está en $W$. De manera similar, $bv$ está en $W$. Como $W$ es cerrado bajo sumas, se tiene que $au+bv$ está en $W$.

(2) implica (3). Supontamos que $W$ satisface (2) y tomemos $u,v$ en $W$ y cualquier escalar $c$ en $F$. Tomando $a=c$ y $b=1$ en (2), tenemos que $cu+1v=cu+v$ está en $W$.

(3) implica (1). Supongamos que $W$ satisface (3). Hay que ver que $W$ es cerrado bajo sumas y producto escalar. Si tomamos $u$ y $v$ en $W$ y al escalar $c=1$ de $F$, por (3) obtenemos que $cu+v=1u+v=u+v$ está en $W$, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar $c$ y al vector $w=0$, entonces por (3) se tiene que $cu+w=cu+0=cu$ está en $W$. Esto muestra la cerradura bajo producto escalar.

$\square$

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que $W$ es un subespacio.

Problema. Considera $V$ el espacio vectorial de matrices en $M_n(F)$. Muestra que el subconjunto $W$ de matrices simétricas forman un subespacio de $V$.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea $c$ un escalar en $F$ y sean $A$ y $B$ matrices en $W$, es decir, tales que $^tA=A$ y $^tB = B$. Debemos mostrar que $cA+B$ está en $W$, es decir, que $^t(cA+B)=cA+B$. Usando propiedades de la transpuesta y la hipótesis sobre $A$ y $B$ tenemos que: $$^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.$$ Con esto termina la demostración.

$\square$

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto $W$. Para cada uno de los casos, piensa por qué la suma de dos elementos de $W$ es de nuevo un elemento de $W$ y por qué el producto de un escalar por un elemento de $W$ es un elemento de $W$. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos $M_2(\mathbb{R})$, el subconjunto $W$ de matrices que cumplen que la suma de entradas en su diagonal principal es igual a $0$ es un subespacio.
  • En el espacio vectorial $F^4$, el subconjunto $W$ de vectores cuya primera y tercer entrada son iguales a $0$ forman un subespacio.
  • Las funciones acotadas del intervalo $[-3, 3]$ a $\mathbb{R}$ forman un subconjunto $W$ que es un subespacio de las funciones del intervalo $[-3,3]$ a $\mathbb{R}$.
  • El subconjunto $W$ de vectores $(x,y,z)$ de $\mathbb{R}^3$ tales que $$\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}$$ es un subespacio de $\mathbb{R}^3$.
  • Si tomamos $W=\mathbb{R}_3[x]$, entonces este es un subespacio de $\mathbb{R}_4[x]$.
  • Si tomamos $W=\mathbb{R}_4[x]$, entonces este es un subespacio de $\mathbb{R}_5[x]$.
  • El subconjunto $W$ de funciones diferenciables de $[0,10]$ a $\mathbb{R}$ tales que su derivada evaluada en $7$ es igual a $0$ es un subespacio del espacio de funciones continuas de $[0,10]$ a $\mathbb{R}$.
  • Las matrices triangulares superiores de $M_n(F)$ forman un subespacio $W$ del espacio $M_n(F)$. Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto $W=\{(x,y,z): x^2+y^2+z^2=1\}$ no es un subespacio de $\mathbb{R}^3$. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, $W$ debería tener a $(0,0,0)$ para ser subespacio. Pero $0^2+0^2+0^2=0\neq 1$. Así, $(0,0,0)$ no está en $W$ y por lo tanto $W$ no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que $(1,0,0)$ está en $W$, pero $2(1,0,0)=(2,0,0)$ no.
  • El subconjunto $W=\{(0,0), (1,2), (-1,2)\}$ de $\mathbb{R}^2$ no es un subespacio, pues $(1,2)$ está en $W$. Tomando $u=(1,2)$ y $v=(1,2)$, vemos que $W$ no es cerrado bajo sumas pues $(1,2)+(1,2)=(2,4)$ no está en $W$.
  • Las matrices del subconjunto $GL_n(F)$ de $M_n(F)$, es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz $O_n$ no es invertible, así que no está en $GL_n(F)$.
  • El subconjunto $W$ de funciones $f:[-3,3]\to \mathbb{R}$ diferenciables tales que su derivada en $0$ es igual a $2$ no es un subespacio de las funciones continuas de $[-3,3]$ a $\mathbb{R}$. Hay muchas formas de verlo. Podemos darnos cuenta que $f(x)=x^2+2x$ es una de las funciones en $W$ pues $f'(x)=2x+2$ y $f'(0)=2$. Sin embargo, $3f$ no está en $W$.
  • El subconjunto $W$ de polinomios de $\mathbb{R}[x]$ con coeficientes no negativos no es un subespacio de $\mathbb{R}[x]$. El polinomio $0$ sí está en $W$ y la suma de cualesquiera dos elementos de $W$ está en $W$. Sin embargo, falla la multiplicación escalar pues $x$ está en $W$, pero $(-1)x=-x$ no.
  • La unión del eje $X$, el eje $Y$ y el eje $Z$ de $\mathbb{R}^3$ es un subconjunto $W$ de $\mathbb{R}^3$ que no es un subespacio. Cualquier producto escalar queda dentro de $W$, pero la suma no es cerrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Demuestra que los siguientes conjuntos $W$ son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(w,x,y,z)$ de $\mathbb{C}^4$ tales que $w+x+y+z=0$.
    • La colección $W$ de funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $\int_0^1 f(x) \, dx = 0$ es un subespacio del espacio de funciones de $[0,1]$ a $\mathbb{R}$.
    • $W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\}$ es un subespacio de las matrices en $M_2(\mathbb{R})$.
  • Demuestra que los siguientes conjuntos $W$ no son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(x,y)$ de $\mathbb{R}^2$ tales que $xy\geq 0$ no es un subespacio de $\mathbb{R}^2$.
    • El subconjunto $W$ de matrices en $M_{3,2}(F)$ cuyo producto de todas las entradas es igual a $0$ no es un subespacio de $M_{3,2}$
    • Cuando $W$ es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más $3$, es imposible que sea un subespacio de $\mathbb{C}_3[x]$.
  • Sea $V$ un espacio vectorial y $n$ un entero positivo. Demuestra que si $W_1, W_2, \ldots, W_n$ son subespacios de $V$, entonces la intersección $$W_1 \cap W_2 \cap \ldots \cap W_n$$ también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si $V$ es un espacio vectorial, $W$ es un subespacio de $V$ y $U$ es un subespacio de $W$, entonces $U$ es un subespacio de $V$.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para «combinarlos» y obtener más subespacios. Una operación muy imporante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector $0$. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Entradas relacionadas

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

[latexpage]

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de $V$ es una base en la cual cada par de vectores tiene producto interior $0$. Es ortonormal si además cada elemento es de norma $1$. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de $V$, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal con este producto interior, entonces para cualquier vector $v$, la coordenada de $v$ con respecto a $e_i$ es $\langle v, e_i \rangle$.

Demostración. Expresemos a $v$ en la base $B$ como $$v=\alpha_1e_1+\ldots+\alpha_n e_n.$$

Tomemos $j$ en $1,2,\ldots,n$. Usando la linealidad del producto interior, tenemos que
\begin{align*}
\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\
&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.
\end{align*}

Como $B$ es base ortonormal, tenemos que en el lado derecho $\langle e_j,e_j\rangle = 1$ y que si $i\neq j$ entonces $\langle e_i, e_j\rangle=0$. De esta forma, el lado derecho de la expresión es $\alpha_j$, de donde concluimos que $$\langle v, e_j \rangle = \alpha_j,$$ como queríamos.

$\square$

Definición. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal, a $$v=\sum_{i=1}^n \langle v, e_i \rangle e_i$$ le llamamos la descomposición de Fourier de $v$ con respecto a $B$.

Ejemplo. Trabajemos en el espacio vectorial $V=\mathbb{R}_2[x]$ de polinomios reales de grado a lo más $2$. Ya mostramos anteriormente (con más generalidad) que $$\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)$$ es un producto interior en $V$.

Los polinomios $\frac{1}{\sqrt{3}}$, $\frac{x}{\sqrt{2}}$ y $\frac{3x^2-2}{\sqrt{6}}$ forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica $\{1,x,x^2\}$ en términos de esta base ortonormal? Los primeros dos son sencillos:
\begin{align}
1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\
x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}.
\end{align}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

\begin{align*}
\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\
\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\
\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.
\end{align*}

De este modo, $$x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.$$

$\square$

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortogonal con este producto interior, entonces para cualquier vector $$v=\alpha_1e_1+\ldots+\alpha_ne_n,$$ tenemos que $$\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.$$

En particular, si $B$ es una base ortonormal, entonces $$\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.$$

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
\begin{align*}
\norm{v}^2 &= \langle v,v \rangle\\
&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.
\end{align*}

Como $B$ es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que $i=j$, es decir,
\begin{align*}
\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\
&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\
\end{align*}

como queríamos mostrar.

Si $B$ es base ortonormal, cada $\norm{e_i}^2$ es $1$, y por el teorema anterior, $\alpha_i=\langle v, e_i\rangle$. Esto prueba la última afirmación.

$\square$

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a $x^2$ en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
\begin{align*}
\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\
&=\frac{4}{3}+\frac{4}{6}\\
&=2.
\end{align*}

De esta forma, $\norm{x^2}=\sqrt{2}$. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de $x^2$ con la definición.

$\square$

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en $V=\mathbb{R}_n[x]$, que habíamos elegido $n+1$ reales distintos $x_0,\ldots,x_n$, y que a partir de ellos definimos $$\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).$$ Mostramos que $\langle \cdot , \cdot \rangle$ es un producto interior y que para $j=0,\ldots,n$ los polinomios $$L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}$$ forman una base ortonormal de $V$.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio $P$ de grado a lo más $n+1$ con coeficientes reales satisface que $$P=\sum_{i=0}^n \langle P, L_i \rangle L_i,$$ lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para $P$ un polinomio con coeficientes en los reales de grado a lo más $n$ y $x_0,x_1,\ldots,x_n$ reales distintos, tenemos que $$P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).$$

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado $n$ en cualquier real $x$ conociendo sus valores en $n+1$ reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx$$ define un producto interior en el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$.

En ese ejemplo, definimos \begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*} y $C_0(x)=\frac{1}{\sqrt{2\pi}}$, y mostramos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ era un conjunto ortonormal.

No se puede mostrar que $\mathcal{F}$ sea una base ortonormal, pues el espacio $V$ es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia $\mathcal{F}$ es buena aproximando a elementos de $V$, es decir a funciones continuas y periódicas de periodo $2\pi$. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia $\mathcal{F}$ a una familia más pequeña:

$$\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}$$

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la $n$-ésima serie parcial de Fourier de una función $f$ en $V$ a la expresión $$S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.$$ Haciendo las cuentas, se puede mostrar que $$S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),$$ en donde para $k\geq 1$ tenemos $$a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx$$ y $$b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.$$

A los números $a_k$ y $b_k$ se les conoce como los $k$-ésimos coeficientes de Fourier. Aunque $\mathcal{F}$ no sea una base para $V$, sí es buena «aproximando» a elementos de $V$. Por ejemplo, un resultado lindo de Dirichlet dice que si $f$ y su derivada son continuas, entonces $$\lim_{n\to \infty} S_n(f)(x) = f(x).$$ Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora $W_n$ el subespacio de $V$ generado por $\mathcal{F}_n$. Tomemos una función $f$ cualquiera en $V$. La $n$-ésima serie de Fourier de $f$ es un elemento de $W_n$. De hecho, es precisamente la proyección de $f$ en $W_n$. Por esta razón, $$\norm{f_n}^2\leq \norm{f}^2<\infty$$

Podemos calcular la norma de $f_n$, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) $W_n$. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

$$\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.$$

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie $$\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).$$ Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.$$

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando $n\to \infty$. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.$$

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de $x^2$ con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es $\sqrt{2}$.
  • Con la misma base ortonormal $B$ de ese ejemplo, calcula las coordenadas y la norma del polinomio $1+x+x^2$.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en $\mathbb{R}^n$ y con la base canónica.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Entradas relacionadas

Álgebra Lineal I: Bases ortogonales

[latexpage]

Introducción

Como ya discutimos en las entradas anteriores, si tenemos un espacio vectorial $V$ con producto interior, entonces podemos definir varias nociones geométricas en $V$, como ángulos, norma y distancia. Ahora vamos a definir una noción muy útil en álgebra lineal: la de bases ortogonales. Para ello, combinaremos las nociones de bases y producto interior.

Las bases ortogonales no sólo tienen aplicaciones en álgebra lineal. También son el punto de partida de muchos conceptos matemáticos avanzados. Un primer ejemplo es el análisis de Fourier, que estudia cómo aproximar funciones mediante funciones trigonométricas y que tiene aplicaciones en el mundo real en análisis de señales. Otro ejemplo es la vasta teoría de polinomios ortogonales, con aplicaciones en el mundo real en aproximación e integración numérica.

En estas entradas de bases ortogonales tomaremos espacios vectoriales sobre $\mathbb{R}$ con un producto interior $\langle \cdot,\cdot \rangle$.

Conjuntos ortogonales y ortonormales

Comenzamos con la siguiente definición. Recuerda que $V$ es un espacio vectorial sobre $\mathbb{R}$ con producto interior, así que induce una norma $\Vert \cdot \Vert$.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Ortogonal si cualquier par de vectores distintos de $S$ es ortogonal, es decir, si para todo $v,w$ en $S$, con $v\neq w$ se tiene que $$\langle v, w \rangle = 0.$$
  • Ortonormal si es ortogonal, y además todo vector de $S$ tiene norma $1$.

En otras palabras, $S$ es ortonormal si para todo $v$ en $S$ se tiene $\langle v, v\rangle =1$ y para $v$ y $w$ en $S$ distintos se tiene $\langle v, w\rangle =0$.

Ejemplo. Si tomamos a $\mathbb{R}^n$ con el producto punto, entonces la base canónica es un conjunto ortonormal pues, en efecto, $e_i\cdot e_i = 1$ y para $i\neq j$ se tiene $e_i\cdot e_j = 0$.

Todo conjunto de un sólo elemento es ortogonal, pues no hay nada que probar. Otro conjunto ortonormal en $\mathbb{R}^2$ es el conjunto que sólo tiene al vector $\left(\frac{3}{5},\frac{4}{5}\right)$, pues este es un vector de norma $1$.

Los vectores $(1,1,0)$, $(1,-1,0)$ y $(0,0,1)$ forman otro conjunto ortogonal en $\mathbb{R}^3$, pues en efecto
\begin{align*}
(1,1,0)\cdot (1,-1,0)&=1-1=0\\
(1,-1,0)\cdot (0,0,1)&=0\\
(0,0,1)\cdot (1,1,0)&=0.
\end{align*}

Sin embargo, este no es un conjunto ortonormal, pues la norma de $(1,1,0)$ es $\sqrt{2}\neq 1$. Si normalizamos a cada vector, es decir, si lo dividimos entre su norma, entonces obtenemos los vectores ortonormales $\left(1/\sqrt{2},1/\sqrt{2},0\right)$, $\left(1/\sqrt{2},-1/\sqrt{2},0\right)$ y $(0,0,1)$.

$\square$

Propiedades de conjuntos ortogonales y ortonormales

Todo conjunto ortogonal de vectores no nulos se puede normalizar como en el ejemplo de la sección anterior para obtener un conjunto ortonormal. Es decir, si $S$ es un conjunto de vectores distintos de $0$, entonces $$S’=\left\{\frac{v}{\Vert v \Vert}: v\in S\right\}$$ es un conjunto ortonormal.

Una propiedad fundamental de los conjuntos ortonormales de vectores es que son linealmente independientes. Se puede probar algo un poco más general.

Proposición. Si $S$ es un conjunto ortogonal de vectores no nulos, entonces los elementos de $V$ son linealmente independientes.

Demostración. Tomemos $v_1,\ldots,v_n$ elementos de $S$ y supongamos que existen $\alpha_1,\ldots,\alpha_n$ escalares tales que $$v:=\sum_{i=1}^n \alpha_i v_i =0.$$

Tomemos un índice $j$ en $1,\ldots,n$ y hagamos el producto interior $\langle v, v_j\rangle$. Por un lado, como $v=0$, este produto es $0$. Por otro lado, por linealidad es $$\sum_{i=1}^n \alpha_i \langle v_i,v_j\rangle.$$

Cuando $i\neq j$, el sumando correspondiente es igual a $0$. De este modo, el único sumando no cero es cuando $i=j$, el cual es $\alpha_j \langle v_j,v_j\rangle$. De estos argumentos, deducimos que $$\alpha_j\langle v_j,v_j\rangle =0.$$ Como los vectores son no nulos, se tiene que $\langle v_j,v_j\rangle \neq 0$. Así, $\alpha_j=0$ para todo $j=1,\ldots,n$, lo cual muestra que los vectores son linealmente independientes.

$\square$

Como cada elemento de un conjunto ortonormal tiene norma $1$, entonces no puede ser nulo, así que como corolario de la proposición anterior, todo conjunto ortonormal es linealmente independiente. Otro corolario es el siguiente.

Corolario. En un espacio Euclideano de dimensión $d$, los conjuntos ortogonales sin vectores nulos tienen a lo más $d$ elementos.

Bases ortogonales y ortonormales

Cuando una base de un espacio vectorial es ortogonal (o bien, ortonormal), pasan varias cosas buenas. Esto amerita una definición por separado.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Una base ortogonal si $S$ es una base de $V$ y es un conjunto ortogonal.
  • Una base ortonormal si $S$ una base de $V$ y es un conjunto ortonormal.

Ejemplo. En $\mathbb{R}^n$ la base canónica es una base ortonormal.

En $\mathbb{R}^2$ el conjunto $S=\{(2,3),(9,-6)\}$ es un conjunto ortogonal. Además, se puede verificar fácilmente que son dos vectores linealmente independientes. De este modo, $S$ es una base ortogonal.

Sin embargo, $S$ no es una base ortonormal pues el primero de ellos tiene norma $\sqrt{2^2+3^2}=\sqrt{13}$. Si quisiéramos convertir a $S$ en una base ortonormal, podemos normalizar a cada uno de sus elementos.

$\square$

En la sección anterior vimos que los conjuntos ortonormales son linealmente independientes. Otro corolario de este resultado es lo siguiente.

Corolario. En un espacio Euclideano de dimensión $n$, un conjunto ortonormal de $n$ vectores es una base ortonormal.

La importancia de las bases ortogonales yace en que dada una base ortonormal $B$ y un vector $v$, podemos encontrar varias propiedades de $v$ en términos de $B$ fácilmente. Por ejemplo, veremos más adelante que:

  • Las coordenadas de $v$ con respecto a la base $B$ son sencillas.
  • Hay una fórmula simple para la norma de $v$ en términos de sus coordenadas en la base $B.$
  • Si $B$ es una base de un subespacio $W$ de $V$, entonces es fácil encontrar la distancia de $v$ a $W.$

Mejor aún, las bases ortonormales siempre existen.

Teorema. Todo espacio Euclideano tiene una base ortonormal.

Es decir, sin importar qué espacio vectorial real de dimensión finita tomemos, y sin importar qué producto punto le pongamos, podemos dar una base ortogonal. De hecho, veremos un resultado un poco más fuerte, que nos dará un procedimiento para encontrar dicha base, incluso imponiendo restricciones adicionales.

Ejemplo de bases ortogonales en polinomios

Ejemplo. Tomemos $\mathbb{R}_n[x]$ el espacio de polinomios de grado a lo más $n$ con coeficientes reales. Además, tomemos números reales distintos $x_0,\ldots,x_n$. A partir de estos reales podemos definir la operación $$\langle P, Q \rangle = \sum_{j=0}^n P(x_j)Q(x_j),$$ la cual es claramente bilineal y simétrica.

Tenemos que $\langle P,P\rangle$ es una suma de cuadrados, y por lo tanto es no negativa. Además, si $\langle P, P\rangle =0$, es porque $$\sum_{j=0}^n P(x_j)^2=0,$$ y como estamos trabajando en $\mathbb{R}$ esto implica que cada sumando debe ser cero. Pero las igualdades $$P(x_0)=\ldots=P(x_n)=0$$ dicen que los $n+1$ reales distintos $x_i$ son raíces de $P$, y como $P$ es de grado a lo más $n$, tenemos que $P$ es el polinomio $0$. En resumen, $\langle \cdot, \cdot \rangle$ es un producto interior en $\mathbb{R}_n[x]$. Vamos a dar una base ortogonal con respecto a este producto interior.

Para $i=0,\ldots,n$, consideremos los polinomios $$L_i(x)=\prod_{0\leq k \leq n, k\neq i} \frac{x-x_k}{x_i-x_k}.$$ Observa que $L_j(x_j)=1$ y si $j\neq i$, tenemos $L_i(x_j)=0$. Afirmamos que $$B=\{L_j:j=0,\ldots,n+1\}$$ es una base ortonormal de $\mathbb{R}_n[x]$ con el producto interior que definimos. Como consiste de $n+1$ polinomios y $\dim(\mathbb{R}_n[x])=n+1$, basta con que veamos que es un conjunto ortonormal.

Primero, notemos que
\begin{align*}
\langle L_i,L_i \rangle = \sum_{j=0}^n L_i(x_j)^2 = L_i(x_i)^2=1,
\end{align*}

de modo que cada $L_i$ tiene norma $1$.

Luego, notemos que si $i\neq j$, entonces $L_i(x_k)L_j(x_k)=0$ pues $x_k$ no puede ser simultáneamente $x_i$ y $x_j$. De este modo,

\begin{align*}
\langle L_i,L_j \rangle = \sum_{k=0}^n L_i(x_k)L_j(x_k)=0.
\end{align*}

Con esto mostramos que cada par de polinomios distintos es ortogonal. Esto termina la demostración de que $B$ es base ortonormal.

$\square$

Ejemplo de conjuntos ortogonales en funciones periódicas

Ejemplo. Consideremos $V$ el conjunto de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$. Definimos $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx.$$ Se puede mostrar que $\langle \cdot, \cdot \rangle$ así definido es un producto interior en $V$.

Para cada entero positivo $n$, definimos
\begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*}

Además, definimos $C_0(x)=\frac{1}{\sqrt{2\pi}}$. Afirmamos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ es un conjunto ortonormal de vectores. Mostremos esto.

Para empezar, notamos que $$\Vert C_0\Vert ^2 = \int_{-\pi}^{\pi} \frac{1}{2\pi}\, dx =1.$$

Luego, tenemos que para $n\geq 1$ que
\begin{align*}
\Vert C_n\Vert ^2 &= \int_{-\pi}^\pi \frac{1}{\pi} \cos^2(nx)\, dx\\
&= \int_{-\pi}^\pi \frac{1+\cos(2nx)}{2\pi}\, dx\\
&= 1,
\end{align*}

ya que para todo entero $m\neq 0$ se tiene que $$\int_{-\pi}^\pi \cos(mx) \, dx=0.$$ De manera similar, usando la identidad $$\sin^2(nx)=\frac{1-\cos(nx)}{2},$$ se puede ver que la norma de $S_n$ es $1$.

Para ver que las parejas de elementos distintas son ortogonales, tenemos varios casos. Si tomamos $n\geq 1$, el resultado para $\langle C_0,C_n\rangle$ ó $\langle C_0,S_n\rangle$ se deduce de que
$$\int_{-\pi}^\pi \cos(mx)\, dx=\int_{-\pi}^\pi \sin(mx)\, dx=0$$ para todo entero $m\neq 0$.

Si tomamos dos $C_i$’s distintos, dos $S_i’s$ distintos o un $C_i$ y un $S_i$, el resultado se deduce de las fórmulas «producto a suma» de las funciones trigonométricas.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Encuentra un conjunto ortogonal de vectores en $\mathbb{R}^4$ tal que ninguna de las entradas de ninguno de sus vectores sea igual a $0$.
  • Escribe las demostraciones de los corolarios enunciados en esta entrada.
  • Muestra que $\langle \cdot, \cdot \rangle$ definido en el ejemplo de funciones periódicas es un producto interior.
  • Termina de mostrar que la familia $\mathcal{F}$ del ejemplo de funciones periódicas es ortonormal. Sugerencia: Usa identidades de suma y resta de ángulos para poner el producto de senos (o cosenos o mixto) como una suma de senos y/o cosenos.

Más adelante…

En esta entrada combinamos las nociones de bases y el producto interior, estudiadas en entradas anteriores, para definir a las bases ortogonales. Vimos algunas propiedades de conjuntos ortogonales y ortonormales, para extenderlos a bases ortogonales y ortonormales. Vimos unos ejemplos de bases ortogonales de los polinomios y otros ejemplos de conjuntos ortogonales en funciones periódicas.

En la siguiente entrada veremos aplicaciones de estos conceptos, culminando en una descomposición de Fourier.

Entradas relacionadas

Álgebra Lineal I: Ángulos, norma, distancia y desigualdad de Minkowski

[latexpage]

Introducción

Estamos listos para hablar de varias nociones geométricas como ángulo, norma, distancia y de la desigualdad de Minkowski. Antes de hacer eso, hagamos un breve repaso de qué hemos hecho en estas últimas entradas.

Primero, hablamos de formas bilineales y de su formas cuadráticas asociadas. Segundo, vimos cómo a través de la identidad de polarización podemos asignar una única forma bilineal simétrica a una forma cuadrática. Finalmente, en la última entrada nos enfocamos en las formas bilineales simétricas que cumplían cierta condición de positividad.

En esa misma entrada definimos producto interior, que simplemente es una forma bilineal simétrica y positiva definida. También definimos la norma de un vector en un espacio con producto interior $\langle \cdot, \cdot \rangle$, que era $$\Vert x \Vert = \sqrt{\langle x, x \rangle}.$$

Finalmente, en la entrada anterior probamos la siguiente versión general de la desigualdad de Cauchy-Schwarz:

Teorema (desigualdad de Cauchy-Schwarz). Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica y $q$ su forma cuadrática asociada.

  • Si $b$ es positiva, entonces para todo $x$ y $y$ en $V$ tenemos que $$b(x,y)^2\leq q(x)q(y).$$ Si $x$ y $y$ son linealmente dependientes, se da la igualdad.
  • Además, si $b$ es positiva definida y $x$ y $y$ son linealmente independientes, entonces la desigualdad es estricta.

Ángulos

Fijemos $V$ un espacio vectorial sobre los reales con producto interior. En la entrada anterior vimos que la desigualdad de Cauchy-Schwarz implica que para cualesquiera vectores $x$ y $y$ en $V$ tenemos que $$|\langle x, y \rangle| \leq \Vert x \Vert \cdot \Vert y \Vert.$$

Si $x$ y $y$ son vectores distintos de cero, podemos reescribir la desigualdad anterior como $$-1\leq \frac{\langle x, y \rangle}{\Vert x \Vert \cdot \Vert y \Vert}\leq 1.$$ Esto justifica la siguiente definición.

Definición. Sean $x$ y $y$ vectores no nulos. Definimos al ángulo entre $x$ y $y$ como el único ángulo $\theta$ en el intervalo $[0,\pi]$ tal que $$\cos \theta = \frac{\langle x, y \rangle}{\Vert x \Vert \cdot \Vert y \Vert}.$$

Observa que $\theta=\frac{\pi}{2}$ si y sólo si $\frac{\langle x, y \rangle}{\Vert x \Vert \cdot \Vert y \Vert}=0$. Esto ocurre si y sólo si $\langle x, y \rangle=0$. Este caso es particularmente importante, y por ello recibe una definición especial.

Definición. Decimos que $x$ y $y$ son ortogonales si $\langle x, y \rangle=0$.

Para empezar, veamos un ejemplo sencillo de ortogonalidad.

Ejemplo. Tomemos $\mathbb{R}^5$ con el producto interior canónico, es decir, el producto punto. Los vectores $u=(1,0,-4,0,5)$ y $v=(0,3,0,-2,0)$ tienen producto punto $$\langle u, v \rangle}=1\cdot 0 + 0\cdot 3 + (-4)\cdot 0 + 0 \cdot (-2) + 5 \cdot 0=0,$$ así que son ortogonales.

$\square$

Ahora, veamos un ejemplo un poco más elaborado, del cálculo de un ángulo en un espacio vectorial de funciones.

Ejemplo. Anteriormente vimos que $\mathcal{C}[0,1]$ tiene un producto interior $$\langle f, g \rangle=\int_0^1 f(x)g(x)\, dx.$$ Calculemos el ángulo entre $f(x)=x^2$ y $g(x)=x^3$ con este producto interior. Primero, calculamos $\Vert f \Vert$ y $\Vert g \Vert$ como sigue
\begin{align*}
\Vert f \Vert^2 &= \int_0^1 x^4 \,dx = \frac{1}{5}\\
\Vert g \Vert^2 &= \int_0^1 x^6 \,dx = \frac{1}{7},
\end{align*}

de donde $\Vert f \Vert = \frac{1}{\sqrt{5}}$ y $\Vert g \Vert = \frac{1}{\sqrt{7}}$.

Luego, calculamos
\begin{align*}
\langle f,g \rangle &=\int_0^1 f(x)g(x) \, dx\\
&=\int_0^1 x^5 \, dx\\
&=\frac{1}{6}.
\end{align*}

Como esperaríamos por la desigualdad de Cauchy-Schwarz, tenemos la siguiente desigualdad:
\begin{align*}
\langle f,g \rangle &= \frac{1}{6}\leq \frac{1}{\sqrt{35}}=\Vert f \Vert \Vert g \Vert.
\end{align*}

El ángulo entre $f$ y $g$ es entonces
\begin{align*}
\theta &= \arccos\left(\frac{\langle f, g \rangle}{\Vert f \Vert \cdot \Vert g \Vert}\right)\\
&=\arccos\left(\frac{1/6}{1/\sqrt{35}}\right)\\
&=\arccos\left(\frac{\sqrt{35}}{6}\right).
\end{align*}

$\square$

Desigualdad de Minkowski

Hay una forma un poco distinta de escribir la desigualdad de Cauchy-Schwarz. La enunciamos a continuación.

Teorema (desigualdad de Minkowski). Sean $x$ y $y$ vectores de un espacio vectorial $V$ con una forma cuadrática positiva $q$. Entonces $$\sqrt{q(x)}+\sqrt{q(y)}\geq \sqrt{q(x+y)}.$$

Demostración. Sea $b$ la forma polar de $q$. Recordemos que $$q(x+y)=q(x)+2b(x,y)+q(y).$$

Como $q$ es forma cuadrática positiva, la desigualdad que queremos mostrar es equivalente a la siguiente desigualdad obtenida de elevar ambos lados al cuadrado:

\begin{align*}
q(x)+2\sqrt{q(x)q(y)}+q(y)&\geq q(x+y)\\
&=q(x)+2b(x,y)+q(y).
\end{align*}

Cancelando $q(x)+q(y)$ de ambos lados y dividiendo entre $2$, obtenemos la desigualdad equivalente
\begin{align*}
\sqrt{q(x)q(y)}\geq b(x,y).
\end{align*}

Si $b(x,y)<0$, esta desigualdad es claramente cierta. Si $b(x,y)\geq 0$, esta desigualdad es equivalente a la obtenida de elevarla al cuadrado, es decir, $$q(x)q(y)\geq b(x,y)^2,$$ que es precisamente la desigualdad de Cauchy-Schwarz.

$\square$

De producto interior a norma

Estamos listos para mostrar algunas propiedades importantes de la noción de norma que definimos para espacios vectoriales reales con producto interior.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior con norma asociada $\Vert \cdot \Vert$. Se cumple que

  1. $\Vert v \Vert \geq 0$ para todo $v$ en $V$, con igualdad si y sólo si $v=0$.
  2. $\Vert cv \Vert =|c|\Vert v \Vert$ para todo $v$ en $V$ y real $c$.
  3. (Desigualdad del triángulo) $\Vert v \Vert + \Vert w \Vert \geq \Vert v+w \Vert$ para todo par de vectores $v$ y $w$ en $V$.

Demostración. Sea $b$ el producto interior de $V$. El punto 1 se sigue de que $b$ es positiva definida. El punto 2 se sigue de que $b$ es bilineal, pues $b(cv,cv)=c^2b(v,v)$, de modo que $$\Vert cv \Vert = \sqrt{c^2} \Vert v \Vert =|c| \Vert v \Vert.$$ El punto 3 es la desigualdad de Minkowski.

$\square$

En general, si tenemos un espacio vectorial $V$ sobre los reales y una función $\Vert \cdot \Vert:V \to \mathbb{R}$ que satisface los puntos 1 a 3 de la proposición anterior, decimos que $\Vert \cdot \Vert$ es una norma para $V$. Hay algunas normas que no se pueden obtener a través de un producto interior.

Ejemplo. Consideremos $V=M_n(\mathbb{R})$. El producto de Frobenius de las matrices $A$ y $B$ está dado por $$\langle A,B\rangle = \text{tr}(^tA B).$$ Se puede mostrar que el producto de Frobenius es un producto interior. La norma de Frobenius es la norma inducida por este producto, es decir, $$\Vert A \Vert = \sqrt{\text{tr}(^tAA)}.$$

Por la desigualdad de Minkowski, tenemos que para cualesquiera dos matrices $A$ y $B$ tenemos que $$\sqrt{\text{tr}(^t(A+B)(A+B))}\leq \sqrt{\text{tr}(^tAA)} + \sqrt{\text{tr}(^tBB)}.$$

En particular, si tomamos a la identidad $I$, tenemos que su norma de Frobenius es $\sqrt{n}$. Esto muestra la siguiente desigualdad, válida para cualquier matriz $A$ en $M_n(\mathbb{R})$:

$$\sqrt{\text{tr}((^tA+I)(A+I))}\leq \sqrt{\text{tr}(^tAA)}+ \sqrt{n}.$$

$\square$

De norma a distancia

Podemos pensar a la norma de un vector $v$ como qué tan lejos está del vector $0$. También nos gustaría poder hablar de qué tan lejos están cualesquiera dos vectores de un espacio vectorial con producto interior. Por esta razón, introducimos la siguiente definición.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior de norma $\Vert \cdot \Vert$. La distancia asociada a este producto interior es la función $d:V\times V\to \mathbb{R}$ tal que $d(x,y)=\Vert x-y\Vert.$ A $d(x,y)$ le llamamos la distancia entre $x$ y $y$.

El siguiente resultado se sigue de las propiedades de la norma de un producto interior. Su demostración queda como tarea moral.

Proposición. Si $V$ es un espacio vectorial sobre $\mathbb{R}$ con producto interior de distancia $d$, entonces:

  1. $d(x,y)\geq 0$ para todos $x$ y $y$ en $V$ y es igual a $0$ si y sólo si $x=y$.
  2. $d(x,y)=d(y,x)$ para todos $x$ y $y$ en $V$.
  3. $d(x,z)+d(z,y)\geq d(x,y)$ para todos $x$, $y$ y $z$ en $V$.

En general, si tenemos cualquier conjunto $X$ (no hace falta que sea un espacio vectorial), a una función $d$ que satisface los puntos 1 a 3 de la proposición anterior se le conoce como una métrica para $X$. Cualquier norma en un espacio vectorial $V$ (no sólo las de producto interior) induce una métrica en $V$. Sin embargo, hay métricas de espacios vectoriales que no vienen de una norma.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Toma $\mathbb{R}^4$ con el producto interior canónico (producto punto). Determina la norma de $(3,4,0,1)$. Encuentra el ángulo entre los vectores $(1,0,2,5)$ y $(4,5,0,-3)$.
  • Muestra que el producto de Frobenius es un producto interior en $M_n(\mathbb{R})$.
  • Demuestra la proposición de propiedades de la distancia

Considera $V=\mathbb{R}_3[x]$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $3$. Definimos $$\langle p,q \rangle = \sum_{j=1}^5 p(j)q(j).$$

  • Muestra que $\langle \cdot, \cdot \rangle$ así definido es un producto interior.
  • Encuentra el ángulo entre los polinomios $1+x^2$ y $2x-3x^3$.
  • Para cada entero positivo $n$, determina la norma del polinomio $1+nx^3$.
  • Determina la distancia entre los polinomios $1$ y $1+x+x^2+x^3$.

Más adelante…

Retomando conceptos ya definidos como la norma de un vector, en esta entrada vimos cómo encontrar el ángulo entre dos vectores no-nulos y se llegó a una forma natural de introducir la ortogonalidad entre dos vectores. Así mismo, se demostraron algunas propiedades de la norma asociada a un producto interior, siendo la última una forma distinta de expresar la desigualdad de Cauchy-Schwarz, usando la desigualdad de Minkowski. Finalmente, se definió el concepto de distancia entre dos vectores.

En entradas posteriores, usaremos estos conceptos para estudiar bases ortogonales, que tienen usos en conceptos matemáticos más avanzados como el análisis de Fourier o la teoría de polinomios ortogonales.

Entradas relacionadas

Seminario de Resolución de Problemas: El teorema fundamental del cálculo

[latexpage]

Introducción

Ya platicamos de continuidad, diferenciabilidad e integrales, así como de otros temas de cálculo. En esta sección reuniremos varias de estas ideas a través de uno de los resultados más importantes: el teorema fundamental del cálculo. Este teorema nos exhibe la relación que hay entre la derivada y la integral, distinguiéndolas como procedimientos inversos el uno del otro.

El teorema nos dice que si tenemos una función $F(x)$ derivable sobre un intervalo $[a, b]$, entonces

\begin{equation*}
\int_{a}^{b} \! F^\prime(t) \, dt = F(b)-F(a).
\end{equation*}

Ahora bien, si nuestra función $F(t)$ es derivable en $[0,x]$, tenemos que

\begin{equation*}
\int_{0}^{x} \! F^\prime(t) \, dt = F(x)-F(0),
\end{equation*}

a lo que le sigue que

\begin{equation*}
F(x)=\int_{0}^{x} \! F^\prime(t) \, dt + F(0).
\end{equation*}

Esto nos recuerda a la constante de integración

\begin{equation*}
F(x)=\int_{0}^{x} \! F^\prime(t) \, dt + C.
\end{equation*}

Es decir, tenemos que $C=F(0)$.

Aquí en el blog, en la entrada «Teoremas fundamentales de los cuadraditos» damos la intuición acerca de este teorema, comenzando con el caso discreto. Puedes leerlo antes de continuar.

Usar el teorema fundamental del cálculo para obtener una identidad trigonométrica

Veamos un ejemplo. Tenemos que la derivada de la función $F(t)=\sin^2 t$ es $F^\prime (t)=2\cos t\sin t$. Por el teorema fundamental del cálculo, la integral de $F'(t)$ en el intervalo $[0,x]$ está dada por

\begin{equation*}
\int_{0}^{x}\! 2 \sin t \cos t \, dt=\sin^2x,
\end{equation*}

en donde usamos que $F(0)=\sin^2(0)=0$.

Por otro lado, resolviendo la integral utilizando el cambio de variable $u=\cos t$, tenemos que

\begin{equation*}
\int_{0}^{x}\! 2 \sin t \cos t \, dt= \left -\cos^2t \right |_0^x= -\cos^2x+1
\end{equation*}

Igualando ambos valores de la integral, tenemos que $\sin^2x=-\cos^2 x+1$. De aquí obtenemos la identidad trigonométrica pitagórica $\sin^2 x+\cos^2x=1$ para toda $x$.

Veamos ahora un problema en el que, mediante el problema fundamental del cálculo,

Problema. Aplicando el teorema fundamental del calculo halla $$\int_{a}^{b}\! \sec x\, dx.$$

Sugerencia pre-solución. Formula un problema equivalente multiplicando y dividiendo la expresión por $\sec x + \tan x$. Intenta identificar la expresión resultante como la derivada de otra función.

Solución. Para resolver este problema tenemos que hallar una función $F(x)$ de tal forma que $F^\prime (x)= \sec x$.

Para ello, tenemos que notar que

\begin{align*}
\sec x &=\sec x \left(\frac{ \sec x + \tan x}{\sec x+ \tan x}\right)\\ &=\frac{\sec^2x+\sec x \tan x}{\sec x+\tan x}.
\end{align*}

Y entonces la derivada de $\ln (\sec x + \tan x)$ es igual a

\begin{align*}
\left(\frac{1}{\sec x + \tan x}\right)&(\sec^2x+\sec x \tan x)\\
&=\frac{\sec^2x+\sec x \tan x}{\sec x+\tan x}\\&=\sec x.
\end{align*}

Proponemos a la función

\begin{equation*}
F(x)=\ln (\sec x + \tan x)
\end{equation*}

dado que

\begin{equation*}
F^\prime (x)=\sec x.
\end{equation*}

Ahora, aplicando el teorema fundamental del cálculo tenemos que

\begin{align*}
\int_{a}^{b}\! \sec x\, dx&=F(b)-F(a)\\&=\ln (\sec b + \tan b)-\ln (\sec a + \tan a)
\end{align*}

$\square$

Segundo teorema fundamental del cálculo

Veamos una implicación del teorema fundamental del cálculo, que también se le conoce como el «segundo teorema fundamental del cálculo».

Para una función $f: [a,b] \to \mathbb{R}$ continua en el intervalo $[a,b]$ se tiene que:

\begin{equation*}
\frac{d}{dx}\left(\int_{a}^{x}\! f(t)\, dt\right)=f(x)
\end{equation*}

Problema. Determina $$\frac{d}{dx}\left(\int_{3x-1}^{0} \! \frac{1}{t+4}\, dt\right).$$

Sugerencia pre-solución. Usa el segundo teorema fundamental del cálculo y la regla de la cadena.

Solución. Como $$\int_{3x-1}^{0} \! \frac{1}{t+4}\, dt=-\int_{0}^{3x-1} \! \frac{1}{t+4}\, dt,$$ tenemos entonces que

$$\frac{d}{dx}\left(\int_{3x-1}^0 \frac{1}{t+4} \, dt\right)= – \frac{d}{dx}\left(\int_{0}^{3x-1} \frac{1}{t+4} \, dt\right).$$

Por otro lado, consideremos las funciones

\begin{align*}
f(x)&=\int_{0}^{x} \! \frac{1}{t+4}\, dt \quad \text{y}\\
g(x)&=3x-1.
\end{align*}

Aplicando el teorema fundamental del cálculo y derivando tenemos que

\begin{align*}
f^\prime (x)&=\frac{1}{x+4} \quad \text{y}\\
g^\prime (x)&=3.
\end{align*}

Notemos que

\begin{align*}
(f \circ g)(x)&=f( g(x) )\\&=f(3x-1)\\&=\int_{0}^{3x-1}\! \frac{1}{t+4}\, dt.
\end{align*}

Así, aplicando la regla de la cadena, tenemos que

\begin{align*}
-\frac{d}{dx}\left(\int_{0}^{3x-1} \! \frac{1}{t+4}\, dt\right)&=-\frac{d}{dx}(f(g(x))\\&=-f^\prime (g(x)) g^\prime(x)\\
&=-\frac{1}{(3x-1)+4}\cdot 3\\
&=-\frac{1}{x+1}.
\end{align*}

$\square$

Veamos un último problema en el que se usa la segunda forma del teorema fundamental del cálculo.

Problema: Supongamos que $f$ es una función continua para toda $x$, la cual satisface la ecuación

\begin{equation}
\int_{0}^{x} \! f(t)\, dt= \int_{x}^{1} \! t^2f(t) \, dt +\frac{x^{16}}{8}+\frac{x^{18}}{9}+C,
\end{equation}

donde $C$ es una constante. Encuentra la forma explícita de la función $f(x)$ y determina el valor de la constante $C$.

Sugerencia pre-solución.

Solución. De la ecuación, tenemos lo siguiente

\begin{equation*}
\frac{d}{dx}\left(\int_{0}^{x} \! f(t)\, dt\right)= \frac{d}{dx}\left(\int_{x}^{1} \! t^2f(t) \, dt +\frac{x^{16}}{8}+\frac{x^{18}}{9}+C \right)
\end{equation*}

Como $f$ es continua para toda $x$, por el teorema fundamental del cálculo en su segunda forma tenemos que

\begin{equation*}
\frac{d}{dx} \left( \int_{0}^{x} \! f(t)\, dt \right)= f(x)
\end{equation*}

y

\begin{align*}
\frac{d}{dx} \left( \int_{x}^{1} \! t^2f(t)\, dt \right)&= – \frac{d}{dx} \left( \int_{1}^{x} \! t^2f(t)\, dt \right)\\&= -x^2f(x).
\end{align*}

Entonces, derivando ambos lados de la expresión original nos resulta la ecuación

\begin{equation*}
f(x)=-x^2f(x)+2x^{15}+2x^{17},
\end{equation*}

de la cual se obtiene

\begin{align*}
f(x) (x^2+1)&=2x^{15}+2x^{17}\\
&=2x^{15}(x^2+1)
\end{align*}

Así, tenemos que

\begin{equation*}
f(x)=2x^{15}.
\end{equation*}

Sustituyendo $f(t)=2t^{15}$ en la ecuación (1), tenemos que

\begin{equation*}
\int_{0}^{x} \! 2t^{15}\, dt= \int_{x}^{1} \! t^2(2t^{15}) \, dt +\frac{x^{16}}{8}+\frac{x^{18}}{9}+C
\end{equation*}

Así,

\begin{equation*}
\begin{align*}
\int_{0}^{x} \! 2t^{15}\, dt= \int_{x}^{1} \! t^2(2t^{15}) \, dt +\frac{x^{16}}{8}+\frac{x^{18}}{9}+C\\

\int_{0}^{x} \! 2t^{15}\, dt= -\int_{1}^{x} \! 2t^{17} \, dt +\frac{x^{16}}{8}+\frac{x^{18}}{9}+C\\

\left \frac{2t^{16}}{16} \right|_{0}^{x}= – \left \left(\frac{2t^{18}}{18} \right) \right|_{1}^{x}+\frac{x^{16}}{8}+\frac{x^{18}}{9}+C\\

\frac{x^{16}}{8}= – \left( \frac{x^{18}}{9}-\frac{1}{9}\right)+\frac{x^{16}}{8}+\frac{x^{18}}{19}+C\\

\end{align*}
\end{equation*}

Con ello, tenemos que

\begin{equation*}
C+\frac{1}{9}=0
\end{equation*}

Por lo tanto la función que satisface la ecuación es $f(x)=2x^{15}$ y el valor de la constante es $C= – \frac{1}{9}$.

$\square$

Más problemas

Hay más ejemplos de problemas relacionados con la aplicación del teorema fundamental del cálculo en la Sección 6.9 del libro Problem Solving through Problems de Loren Larson.