Archivo de la etiqueta: bases ortogonales

Álgebra Lineal II: Repaso de bases ortogonales y Gram-Schmidt

Introducción

En esta última parte de la unidad revisaremos la definición y aplicaciones de bases ortogonales, además veremos el proceso de Gram-Schmidt, lo repasaremos de una manera un tanto superficial ya que en estas entradas (Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt) lo estudiamos un poco más a fondo.

Continuando con lo visto en la entrada anterior, juntaremos dos definiciones ya revisadas para estudiar un poco más de ellas, concluiremos esta unidad revisando todas estas definiciones esta vez para espacios vectoriales complejos.

Familias ortogonales

Entendamos en esta entrada a $V$ un espacio vectorial real con producto interno $<,>$ y su norma asociada $||\cdot||$.

Definición

Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
\begin{align*} <v_i,v_j>=0 \qquad \forall i \neq j \in I. \end{align*}
Donde $I$ es un conjunto de indices cualquiera.

Más aún, a $(v_i)_{i \in I}$ le llamaremos ortonormal si es ortogonal y
\begin{align*} ||v_i||=\sqrt{<v_i,v_i>}=1 \qquad \forall i \in I.\end{align*}
Una base $\beta$ será una base ortogonal si es una familia ortogonal.

Y una base $\beta$ será base ortonormal si es una familia ortonormal.

Como siempre, sería conveniente conocer ejemplos de estos cuatro conjuntos podemos pensar en dos muy sencillos.

Si $V= \mathbb{R}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal, puedes notar la similitud de ambas, ¿Será que siempre que tenemos un base ortogonal podemos obtener una ortonormal?

Afortunadamente la respuesta es que sí, si $\beta=\{ u_1, \cdots , u_n \}$ es una base ortogonal entonces
\begin{align*} \beta’=\{ \frac{u_1}{||u_1||}, \cdots , \frac{u_n}{||u_n||} \} \end{align*}
Es una base ortonormal

Una propiedad sumamente importante de los conjuntos ortogonales es vista en la siguiente proposición demostrada aquí.

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ es linealmente independiente.

Más aún, esto nos da otro criterio para encontrar bases.

Corolario

Toda familia ortogonal sin vectores cero en un espacio euclidiano de dimensión $n$ tiene a lo más $n$ elementos.
Más aún, una familia ortogonal $(v_i)_{i \in I}$ tiene $n$ elementos si y solo si es una base ortogonal.

La demostración a este resultado la puedes encontrar repartida en varios pedazos en esta entrada, veamos una idea rápida, como toda familia ortogonal es linealmente independiente si suponemos que hay una que tiene más de $n$ elementos esto diría que $V$ tiene dimensión $n+1$ que sería contradictorio, también sabemos que una base es un conjunto linealmente independiente con $dim(V)$ elementos lo que ayuda a la demostración la doble implicación.

Recordemos ahora la descomposición de Fourier.

Definición

Sea $V$ euclidiano de dimensión $n$ y $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal, entonces $\forall v \in V$ la descomposición de Fourier de $v$ respecto a $\beta$ es
\begin{align*} v=\sum_{i=1}^n<v,e_i>e_i.\end{align*}
Algo que debes notar es que no sabemos si algún vector de $V$ se puede descomponer de esta manera, para ello veamos el siguiente resultado.

Proposición

Sea $V$ euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal, entonces $\forall v \in V$
\begin{align*} v=\sum_{i=1}^n<v,u_i>u_i.\end{align*}
De nuevo, la demostración completa la puedes encontrar aquí (Aplicaciones de bases ortogonales y descomposición de Fourier), pero revisemos una idea rápida.

Empezaremos demostrando que si $v \in V$ es tal que $v=\sum_{i=1}^nu_iv_i$ entonces para cualquier $i \in \{1, \cdots , n \}$ $v_i=<v,u_i>$, así calculemos este producto.
\begin{align*} <v,u_i>=<\sum_{j=1}^nu_jv_j,u_i>\end{align*}
Utilizando la linealidad de $<.>$ en la primera entrada
\begin{align*} <v,u_i>=\sum_{j=1}^nv_j<u_j,u_i>\end{align*}
y como sabemos que $\beta$ es ortogonal, se tiene que si $j \neq i $ entonces $<u_j,u_i>=0$ por lo que de esta suma el único coeficiente no cero es $<u_i,u_i>$, más aún como $\beta$ es ortonormal tenemos que $<u_i,u_i>=1$, por lo tanto
\begin{align*} <v,u_i>=v_i.\end{align*}
Finalmente, la descomposición de Fourier puede ser utilizada para calcular la proyección respecto a algún conjunto $W$ ($p_W$) que vimos en la entrada anterior, esto queda reflejado en el siguiente resultado.

Proposición

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortogonal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n \frac{<v,v_i>}{||v_i||^2}v_i.\end{align*}
Como te imaginarás la demostración de este resultado está aquí (Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt).

Proceso de Gram-Schmidt

De este último resultado podemos obtener la siguiente proposición.

Proposición (Desigualdad de Bessel)

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortonormal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n <v,v_i>v_i.\end{align*}
Y
\begin{align*} d(v,W)^2=||v-\sum_{I=1}^n <v,v_i>v_i||^2=||v||^2-\sum_{I=1}^n <v,v_i>^2. \end{align*}
En particular
\begin{align*} ||v||^2 \geq \sum_{I=1}^n <v,v_i>^2. \end{align*}
La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt.

Terminaremos con dos resultados sumamente importantes.

Primero, quisiéramos garantizar que, en todo espacio euclídeo se puede encontrar una base ortonormal, para ello el siguiente resultado.

Proposición

Todo espacio euclidiano tiene una base ortonormal.

Y de hecho no lo probamos directamente, vimos una versión más fuerte e incluso un algoritmo de cómo encontrar esta base, esto es conocido como el proceso de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sea $V$ (no necesariamente de dimensión finita) y $\{u_1 , \cdots u_n \}$ un conjunto linealmente independiente, entonces existe $\{e_1 , \cdots e_n \}$ una única familia ortonormal tal que
\begin{align*} span(u_1, \cdots , u_n)=span(e_1, \cdots , e_n)\end{align*}
Y
\begin{align*} \langle e_k,u_k \rangle > 0\end{align*}
Para cualquier $k \in \{1, \cdots , n\}$.

Como en las proposiciones anteriores, la demostración está aquí (Proceso de Gram-Schmidt), aplicándolo a nuestro problema en específico, si $\{u_1 , \cdots u_n \}$ es una base (lo que implicaría que $V$ es euclídeo) entonces siempre se puede encontrar $\{e_1 , \cdots e_n \}$ una única familia ortonormal, que en particular al ser ortogonal garantiza que es linealmente independiente y esto junto al hecho de que tiene $n$ elementos en un espacio de dimensión $n$ garantiza que es una base.

Aunque no hayamos visto la demostración aquí, vale la pena recordar el proceso de Gram-Schmidt.

Si tenemos una base $\{u_1 , \cdots u_n \}$, definiremos
\begin{align*} f_k=v_k-\sum_{i=1}^{k-1}<v_k,e_i>e_i\end{align*}
Y obtendremos $e_k$ como sigue
\begin{align*} e_k=\frac{f_k}{||f_k||}\end{align*}
Para cualquier $k \in \{1,\cdots , n \}$, de esta manera el nuevo conjunto que formemos $\{e_1 , \cdots e_n \}$ es una base ortonormal

Ejemplo

Sea $V$ el espacio de polinomios en $[0,1]$ con coeficientes reales de grado a lo más 2, con el producto interior
\begin{align*}\langle p,q \rangle =\int_0^1 p(x)q(x) dx. \end{align*}

Sean $v_1=1$, $v_2=1+x$, $v_3=1+x^2$ vectores en $V$ notemos que son linealmente independientes. Así, encontremos los vectores que nos da el proceso de Gram-Schmidt.

Primero notemos que $f_1=v_1$ por lo que $e_1=\frac{f_1}{||f_1||}$ así calculemos $||f_1||$
\begin{align*} \norm{f_1}^2=\int_0^1 1 dx= 1 \end{align*}
entonces $e_1=\frac{f_1}{\norm{f_1}}=f_1=1$.

De la misma manera para $e_2$
\begin{align*}
f_2&=v_2-\langle v_2,e_1 \rangle e_1 \\
&=1+x- \int_0^1 (1+x)dx=1+x-\left(1+\frac{1}{2}\right) \\
&=x-\frac{1}{2}.
\end{align*}
Así para obtener $||f_2||$ hay que resolver $$\int_0^1 \left(x-\frac{1}{2}\right)^2 dx$$ de donde obtenemos $\norm{f_2}=\sqrt{\frac{1}{12}}$, entonces $e_2=\sqrt{12}\left(x-\frac{1}{2}\right)$.
Por último, calculemos $f_3$ así como su norma. Primero,
\begin{align*}
f_3&=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2 \\
&=(1+x^2)-\int_0^1 (1+x^2)dx – 12\left(x-\frac{1}{2}\right)\int_0^1 (1+x^2)\left(x-\frac{1}{2}\right)dx \\
&=1+x^2-\left(1+\frac{1}{3}\right)-12\left(x-\frac{1}{2}\right)\left(\frac{1}{12}\right) \\
&=x^2-\frac{1}{3}-x+\frac{1}{2} \\
&=x^2-x+\frac{1}{6},
\end{align*}

y luego, con la integral $$\int_0^1 \left(x^2-x+\frac{1}{6}\right)^2 dx$$ se calcula que $\norm{f_3}=\frac{1}{6\sqrt{5}}$, por lo tanto $e_3=6\sqrt{5}\left(x^2-x+\frac{1}{6}\right)$.

Más adelante

Con esto podemos pensar como concluida esta unidad de curso, aunque veremos una entrada más, estudiaremos como se traducen estos resultados a espacios vectoriales complejos y que cambios se deben hacer a estos.

En la siguiente unidad estudiaremos un poco más de un concepto el cual tocamos un poco pero no abundamos en él, la transformación adjunta, así como sus propiedades y esto nos servirá de punto de partida para nuevos conceptos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Revisa las demostraciones completas de cada uno de los resultados aquí vistos.
  2. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más 2, dado $p,q \in V$ definamos el producto interno en $V$ como sigue $$<p,q>=p(0)q(0)+p(1)q(1)+p(2)q(2)$$ Demuestra que $<,>$ es efectivamente un producto interno.
  3. Con la notación del problema anterior, aplica el proceso de Gram-Schmidt a $1, x, x^2 $
  4. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden?
  5. Aplica el proceso de Gram-Schmidt a los vectores
    \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*}
    En $\mathbb{R}^4$ con el producto interior canónico. ¿Es esta una base de $\mathbb{R}^4$?

Entradas relacionadas

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz $A$ es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en $M_n(\mathbb{R})$ siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo $F$, no tenemos la garantía de que las matrices simétricas en $M_n(F)$ también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

$A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}$

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si $A$ fuese diagonalizable, es decir, que existe una matriz invertible $P$ y una diagonal $D$ tal que $A=P^{-1}DP$, entonces $A$ y $D$ tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de $A$: buscamos $\lambda \in \mathbb{C}$ tal que $\text{det}(\lambda I-A)=0$,

\begin{align*}
\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & i \\ i & \lambda +1 \end{vmatrix} \\
&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\
&=\lambda^2=0.
\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de $A$ (y también el eigenvalor de $D$) es $\lambda =0$. Si $D$ es de la forma

$D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}$,

es fácil ver (y calcular) que sus eigenvalores son $a$ y $b$, pero por lo anterior, podemos concluir que $a=b=0$, y por lo tanto $D$ es la matriz cero. Si fuese así, $A=P^{-1}DP=0$, contradiciendo la definición de $A$.

$\square$

Problema. Sea $A$ una matriz simétrica con entradas reales y supongamos que $A^k=I$ para algún entero positivo $k$. Prueba que $A^2=I$.

Solución. Dado que $A$ es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son $k$-raíces de la unidad, entonces deben ser $\pm 1$. Esto implica que todos los eigenvalores de $A^2$ son iguales a 1. Dado que $A^2$ también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto $A^2=I$.

$\square$

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio $V$, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

$\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}$.

Por ende, decimos que una transformación es acotada si su norma es acotada, $\norm{T}<\infty$.

Problema. Sea $V$ un espacio euclideano y sea $T$ una transformación lineal simétrica en $V$. Sean $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $T$. Prueba que

$\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.$

Solución. Renumerando a los eigenvalores, podemos decir que $\max_i |\lambda_i|=|\lambda_n|$. Sea $e_1,\ldots,e_n$ una base ortonormal de $V$ tal que $T(e_i)=\lambda_i e_i$ para todo $i$. Si $x\in V\setminus {0}$, podemos escribirlo como $x=x_1e_1+\ldots+x_n e_n$ para algunos reales $x_i$. Entonces, por linealidad de $T$,

$T(x)=\sum_{i=1}^n \lambda_i x_ie_i.$

Dado que $|\lambda_i|\leq |\lambda_n|$ para toda $i$, tenemos que

$\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,$

por lo tanto

\begin{align*}
\max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\
&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\
&\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|.
\end{align*}

Obteniendo lo que queremos.

$\square$

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

$A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.$

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

\begin{align*}
0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\
&= \lambda^3-\lambda^2-\lambda+1 \\
&= (\lambda -1)(\lambda^2 -1),
\end{align*}

entonces los eigenvalores de $A$ son $1,-1$, ($\lambda=1$ tiene multiplicidad 2).

Ahora, hay que encontrar los vectores $v=(x,y,z)$ tal que $Av=\lambda v$, para todo eigenvalor $\lambda$.

Si $\lambda=-1$,

$(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0, $

reduciendo, obtenemos que $v=(3\alpha, -2\alpha, \alpha)$ para todo $\alpha\in \mathbb{R}$.

Si $\lambda=1$, resolviendo de la misma manera $(\lambda I-A)v=(I-A)v=0$, tenemos que $v=(\beta,\gamma,-3\beta+2\gamma)$ para todo $\beta,\gamma$. Entonces el conjunto de eigenvectores es

$B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.$

Es fácil ver que el conjunto $B$ es linealmente independiente, más aún $\text{dim}(\mathbb{R}^3)=3=|B|$, por lo tanto, $B$ es la base consistente con los eigenvectores de $A$.

$\square$

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si $V=W\oplus W_2$, para todo $v\in V$ podemos definir su proyección en $W$, que denotamos $\pi_W(v)$, como el único elemento en $W$ tal que $v-\pi_W(v) \in W_2$.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si $\langle w,u \rangle =0$ para todo $w\in W$, entonces $u\in W_2$. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\cdots,v_n$ una base ortogonal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \frac{\langle v,v_i \rangle}{\norm{v_i}^2} v_i .$

Demostración. Escribimos $v$ como $v=\pi_W(v)+u$ con $u\in W_2$. Por la observación previa al teorema, $\langle u,v_i \rangle =0$ para todo $i$. Además existen $a_1,\cdots,a_n$ tales que $\pi_W(v)=a_1 v_1+\cdots+a_n v_n$. Entonces

\begin{align*}
0 &= \langle u,v_i \rangle =\langle v,v_i \rangle – \langle \pi_W(v),v_i \rangle \\
&= \langle v,v_i \rangle – \sum_{j=1}^n a_j \langle v_j,v_i \rangle \\
&= \langle v,v_i \rangle – a_i \langle v_i,v_i \rangle,
\end{align*}

porque $v_1,\cdots,v_n$ es una base ortogonal. Por lo tanto, para todo $i$, obtenemos

$a_i=\frac{\langle v,v_i \rangle}{\norm{v_i}^2}.$

$\square$

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

$d(v,W)=\min_{x\in W} \norm{x-v}.$

Dado que $x\in W$, $x-\pi_W(v) \in W$, y por definición de proyección $v-\pi_W(v) \in W_2$, entonces

\begin{align*}
\norm{x-v}^2 &=\norm{(x-\pi_W(v))+(\pi_W(v)-v)}^2 \\
&= \norm{x-\pi_W(v)}^2+2\langle x-\pi_W(v),\pi_W(v)-v \rangle+\norm{\pi_W(v)-v}^2 \\
&= \norm{x-\pi_W(v)}^2+\norm{\pi_W(v)-v}^2\\
&\geq \norm{\pi_W(v)-v}^2.
\end{align*}

Y dado que la proyección pertenece a $W$, la desigualdad anterior muestra que la proyección es precisamente el vector en $W$ con el que $v$ alcanza la distancia a $W$. En conclusión, $$d(v,W)=\norm{\pi_W(v)-v}.$$

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\ldots,v_n$ una base ortonormal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \langle v,v_i \rangle v_i,$

y

\begin{align*}
d(v,W)^2&=\norm{v-\sum_{i=1}^n \langle v,v_i \rangle v_i }^2\\
&=\norm{v}^2-\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

En particular

$\sum_{i=1}^n \langle v,v_i \rangle^2\leq \norm{v}^2.$

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que $v_1,\cdots,v_n$ es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

$d(v,W)^2=\norm{v-\pi_W(v)}^2=\norm{v}^2-\norm{\pi_W(v)}^2.$

Por otro lado, tenemos que

\begin{align*}
\norm{\pi_W(v)}^2 &=\norm{\sum_{i=1}^n \langle v,v_i \rangle v_i}^2 \\
&= \sum_{i,j=1}^n \langle \langle v,v_i \rangle v_i, \langle v,v_j \rangle v_j \rangle \\
&= \sum_{i,j=1}^n \langle v,v_i \rangle \langle v,v_j \rangle \langle v_i,v_j \rangle \\
&=\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como $d(v,W)^2 \geq 0$, inmediatamente tenemos la desigualdad de Bessel.

$\square$

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos $V$ como el espacio vectorial de polinomios en $[0,1]$ de grado a lo más $2$, con producto interior definido por $$\langle p,q \rangle =\int_0^1 xp(x)q(x) dx.$$

Aplica el algoritmo de Gram-Schmidt a los vectores $1,x,x^2$.

Solución. Es fácil ver que ese sí es un producto interior en $V$ (tarea moral). Nombremos $v_1=1, v_2=x, v_3=x^2$. Entonces

$$e_1=\frac{v_1}{\norm{v_1}}=\sqrt{2}v_1=\sqrt{2},$$

ya que $$\norm{v_1}^2=\int_0^1 x \, dx=\frac{1}{2}.$$

Sea $z_2=v_2-\langle v_2,e_1 \rangle e_1$. Calculando, $$\langle v_2,e_1 \rangle=\int_0^1 \sqrt{2}x^2 dx=\frac{\sqrt{2}}{3}.$$ Entonces $z_2=x-\frac{\sqrt{2}}{3}\sqrt{2}=x-\frac{2}{3}.$ Esto implica que

$e_2=\frac{z_2}{\norm{z_2}}=6\left(x-\frac{2}{3}\right)=6x-4.$

Finalmente, sea $z_3=v_3-\langle v_3,e_1\rangle e_1 -\langle v_3,e_2 \rangle e_2$. Haciendo los cálculos obtenemos que

$z_3=x^2-\left(\frac{\sqrt{2}}{4}\right)\sqrt{2}-\left(\frac{1}{5}\right)(6x-4)$

$z_3=x^2-\frac{6}{5}x+\frac{3}{10}.$

Por lo tanto

$e_3=\frac{z_3}{\norm{z_3}}=10\sqrt{6}(x^2-\frac{6}{5}x+\frac{3}{10}).$

$\square$

El teorema de Plancherel y una fórmula con $\pi$

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función $2\pi-$periódica $f:\mathbb{R}\rightarrow \mathbb{R}$ definida como $f(0)=f(\pi)=0,$ $f(x)=-1-\frac{x}{\pi}$ en el intervalo $(-\pi,0)$, y $f(x)=1-\frac{x}{\pi}$ en el intervalo $(0,\pi)$.

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función $f$.

Usa el teorema de Plancherel para deducir las identidades de Euler

\begin{align*}
\sum_{n=1}^\infty \frac{1}{n^2} &= \frac{\pi^2}{6},\\
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} & = \frac{\pi^2}{8}.
\end{align*}

Solución. Notemos que no sólo es $2\pi-$periódica, también es una función impar, es decir, $f(-x)=-f(x)$. Por lo visto en la clase del miércoles pasado tenemos que calcular

$a_0(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) dx,$

$a_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) cos(kx) dx,$

$b_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x)sen(kx) dx.$

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos $[-\pi,0]$ y $[0,\pi]$ y en cada uno de ellos usar integración por partes.

El resultado es que para todo $k\geq 1$, $$a_0=0, a_k=0, b_k=\frac{2}{k\pi}.$$

Entonces por el teorema de Plancherel,

\begin{align*}
\sum_{k=1}^\infty \frac{4}{k^2\pi^2} &=\frac{1}{\pi} \int_{-\pi}^{\pi} f^2(x) dx \\
&= \frac{1}{\pi} \left( \int_{-\pi}^0 \left(1+\frac{x}{\pi}\right)^2 dx + \int_0^\pi \left(1-\frac{x}{\pi}\right)^2 dx \right) \\
&= \frac{2}{3},
\end{align*}

teniendo que $$\sum_{k=1}^\infty \frac{1}{k^2} =\frac{2}{3}\frac{\pi^2}{4}=\frac{\pi^2}{6}.$$

Ahora para obtener la otra identidad de Euler, notemos que

\begin{align*}
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} &= \sum_{n=1}^\infty \frac{1}{n^2} – \sum_{n=1}^\infty \frac{1}{(2n)^2} \\
&= \frac{\pi^2}{6}-\frac{\pi^2}{4\cdot6}= \frac{\pi^2}{8}.
\end{align*}

$\square$

Entradas relacionadas