Archivo de la etiqueta: bases ortogonales

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en M_n(\mathbb{R}) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en M_n(F) también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P^{-1}DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos \lambda \in \mathbb{C} tal que \text{det}(\lambda I-A)=0,

    \begin{align*}\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & -i \\ i & \lambda +1 \end{vmatrix} \\&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\&=\lambda^2=0.\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es \lambda =0. Si D es de la forma

D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix},

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P^{-1}DP=0, contradiciendo la definición de A.

\square

Problema. Sea A una matriz simétrica con entradas reales y supongamos que A^k=I para algún entero positivo k. Prueba que A^2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser \pm 1. Esto implica que todos los eigenvalores de A^2 son iguales a 1. Dado que A^2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A^2=I.

\square

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}.

Por ende, decimos que una transformación es acotada si su norma es acotada, \norm{T}<\infty.

Problema. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean \lambda_1,\ldots,\lambda_n los eigenvalores de T. Prueba que

\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.

Solución. Renumerando a los eigenvalores, podemos decir que \max_i |\lambda_i|=|\lambda_n|. Sea e_1,\ldots,e_n una base ortonormal de V tal que T(e_i)=\lambda_i e_i para todo i. Si x\in V\setminus {0}, podemos escribirlo como x=x_1e_1+\ldots+x_n e_n para algunos reales x_i. Entonces, por linealidad de T,

T(x)=\sum_{i=1}^n \lambda_i x_ie_i.

Dado que |\lambda_i|\leq |\lambda_n| para toda i, tenemos que

\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,

por lo tanto

    \begin{align*} \max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\ &\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|. \end{align*}

Obteniendo lo que queremos.

\square

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

    \begin{align*}0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\&= \lambda^3-\lambda^2-\lambda+1 \\&= (\lambda -1)(\lambda^2 -1),\end{align*}

entonces los eigenvalores de A son 1,-1, (\lambda=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=\lambda v, para todo eigenvalor \lambda.

Si \lambda=-1,

(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0,

reduciendo, obtenemos que v=(3\alpha, -2\alpha, \alpha) para todo \alpha\in \mathbb{R}.

Si \lambda=1, resolviendo de la misma manera (\lambda I-A)v=(I-A)v=0, tenemos que v=(\beta,\gamma,-3\beta+2\gamma) para todo \beta,\gamma. Entonces el conjunto de eigenvectores es

B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.

Es fácil ver que el conjunto B es linealmente independiente, más aún \text{dim}(\mathbb{R}^3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

\square

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si V=W\oplus W_2, para todo v\in V podemos definir su proyección en W, que denotamos \pi_W(v), como el único elemento en W tal que v-\pi_W(v) \in W_2.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si \langle w,u \rangle =0 para todo w\in W, entonces u\in W_2. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea V un espacio vectorial sobre \mathbb{R} con producto interior \langle \cdot , \cdot \rangle, y sea W un subespacio de V de dimensión finita. Sea v_1,\cdots,v_n una base ortogonal de W. Entonces para todo v\in V tenemos que

\pi_W(v)=\sum_{i=1}^n \frac{\langle v,v_i \rangle}{\norm{v_i}^2} v_i .

Demostración. Escribimos v como v=\pi_W(v)+u con u\in W_2. Por la observación previa al teorema, \langle u,v_i \rangle =0 para todo i. Además existen a_1,\cdots,a_n tales que \pi_W(v)=a_1 v_1+\cdots+a_n v_n. Entonces

    \begin{align*}0 &= \langle u,v_i \rangle =\langle v,v_i \rangle - \langle \pi_W(v),v_i \rangle \\&= \langle v,v_i \rangle - \sum_{j=1}^n a_j \langle v_j,v_i \rangle \\&= \langle v,v_i \rangle - a_i \langle v_i,v_i \rangle, \end{align*}

porque v_1,\cdots,v_n es una base ortogonal. Por lo tanto, para todo i, obtenemos

a_i=\frac{\langle v,v_i \rangle}{\norm{v_i}^2}.

\square

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

d(v,W)=\min_{x\in W} \norm{x-v}.

Dado que x\in W, x-\pi_W(v) \in W, y por definición de proyección v-\pi_W(v) \in W_2, entonces

    \begin{align*}\norm{x-v}^2 &=\norm{(x-\pi_W(v))+(\pi_W(v)-v)}^2 \\&= \norm{x-\pi_W(v)}^2+2\langle x-\pi_W(v),\pi_W(v)-v \rangle+\norm{\pi_W(v)-v}^2 \\&= \norm{x-\pi_W(v)}^2+\norm{\pi_W(v)-v}^2\\&\geq \norm{\pi_W(v)-v}^2. \end{align*}

Y dado que la proyección pertenece a W, la desigualdad anterior muestra que la proyección es precisamente el vector en W con el que v alcanza la distancia a W. En conclusión,

    \[d(v,W)=\norm{\pi_W(v)-v}.\]

Teorema. Sea V un espacio vectorial sobre \mathbb{R} con producto interior \langle \cdot , \cdot \rangle, y sea W un subespacio de V de dimensión finita. Sea v_1,\ldots,v_n una base ortonormal de W. Entonces para todo v\in V tenemos que

\pi_W(v)=\sum_{i=1}^n \langle v,v_i \rangle v_i,

y

    \begin{align*}d(v,W)^2&=\norm{v-\sum_{i=1}^n \langle v,v_i \rangle v_i }^2\\&=\norm{v}^2-\sum_{i=1}^n \langle v,v_i \rangle^2.\end{align*}

En particular

\sum_{i=1}^n \langle v,v_i \rangle^2\leq \norm{v}^2.

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que v_1,\cdots,v_n es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

d(v,W)^2=\norm{v-\pi_W(v)}^2=\norm{v}^2-\norm{\pi_W(v)}^2.

Por otro lado, tenemos que

    \begin{align*}\norm{\pi_W(v)}^2 &=\norm{\sum_{i=1}^n \langle v,v_i \rangle v_i}^2 \\&= \sum_{i,j=1}^n \langle \langle v,v_i \rangle v_i, \langle v,v_j \rangle v_j \rangle \\&= \sum_{i,j=1}^n \langle v,v_i \rangle \langle v,v_j \rangle \langle v_i,v_j \rangle \\&=\sum_{i=1}^n \langle v,v_i \rangle^2. \end{align*}

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como d(v,W)^2 \geq 0, inmediatamente tenemos la desigualdad de Bessel.

\square

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos V como el espacio vectorial de polinomios en [0,1] de grado a lo más 2, con producto interior definido por

    \[\langle p,q \rangle =\int_0^1 xp(x)q(x) dx.\]

Aplica el algoritmo de Gram-Schmidt a los vectores 1,x,x^2.

Solución. Es fácil ver que ese sí es un producto interior en V (tarea moral). Nombremos v_1=1, v_2=x, v_3=x^2. Entonces

    \[e_1=\frac{v_1}{\norm{v_1}}=\sqrt{2}v_1=\sqrt{2},\]

ya que

    \[\norm{v_1}^2=\int_0^1 x \, dx=\frac{1}{2}.\]

Sea z_2=v_2-\langle v_2,e_1 \rangle e_1. Calculando,

    \[\langle v_2,e_1 \rangle=\int_0^1 \sqrt{2}x^2 dx=\frac{\sqrt{2}}{3}.\]

Entonces z_2=x-\frac{\sqrt{2}}{3}\sqrt{2}=x-\frac{2}{3}. Esto implica que

e_2=\frac{z_2}{\norm{z_2}}=6\left(x-\frac{2}{3}\right)=6x-4.

Finalmente, sea z_3=v_3-\langle v_3,e_1\rangle e_1 -\langle v_3,e_2 \rangle e_2. Haciendo los cálculos obtenemos que

z_3=x^2-\left(\frac{\sqrt{2}}{4}\right)\sqrt{2}-\left(\frac{1}{5}\right)(6x-4)

z_3=x^2-\frac{6}{5}x+\frac{3}{10}.

Por lo tanto

e_3=\frac{z_3}{\norm{z_3}}=10\sqrt{6}(x^2-\frac{6}{5}x+\frac{3}{10}).

\square

El teorema de Plancherel y una fórmula con \pi

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función 2\pi-periódica f:\mathbb{R}\rightarrow \mathbb{R} definida como f(0)=f(\pi)=0, f(x)=-1-\frac{x}{\pi} en el intervalo (-\pi,0), y f(x)=1-\frac{x}{\pi} en el intervalo (0,\pi).

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función f.

Usa el teorema de Plancherel para deducir las identidades de Euler

    \begin{align*}\sum_{n=1}^\infty \frac{1}{n^2} &= \frac{\pi^2}{6},\\\sum_{n=0}^\infty \frac{1}{(2n+1)^2} & = \frac{\pi^2}{8}.\end{align*}

Solución. Notemos que no sólo es 2\pi-periódica, también es una función impar, es decir, f(-x)=-f(x). Por lo visto en la clase del miércoles pasado tenemos que calcular

a_0(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) dx,

a_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) cos(kx) dx,

b_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x)sen(kx) dx.

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos [-\pi,0] y [0,\pi] y en cada uno de ellos usar integración por partes.

El resultado es que para todo k\geq 1,

    \[a_0=0, a_k=0, b_k=\frac{2}{k\pi}.\]

Entonces por el teorema de Plancherel,

    \begin{align*}\sum_{k=1}^\infty \frac{4}{k^2\pi^2} &=\frac{1}{\pi} \int_{-\pi}^{\pi} f^2(x) dx \\&= \frac{1}{\pi} \left( \int_{-\pi}^0 \left(1+\frac{x}{\pi}\right)^2 dx + \int_0^\pi \left(1-\frac{x}{\pi}\right)^2 dx \right) \\&= \frac{2}{3}, \end{align*}

teniendo que

    \[\sum_{k=1}^\infty \frac{1}{k^2} =\frac{2}{3}\frac{\pi^2}{4}=\frac{\pi^2}{6}.\]

Ahora para obtener la otra identidad de Euler, notemos que

    \begin{align*}\sum_{n=0}^\infty \frac{1}{(2n+1)^2} &= \sum_{n=1}^\infty \frac{1}{n^2} - \sum_{n=1}^\infty \frac{1}{(2n)^2} \\&= \frac{\pi^2}{6}-\frac{\pi^2}{4\cdot6}= \frac{\pi^2}{8}. \end{align*}

\square