Archivo de la etiqueta: norma

Álgebra lineal II: Repaso de producto interior

Introducción

Como mencionamos en la entrada anterior, una de las aplicaciones más útiles de las formas cuadráticas es que a base de ellas se puede definir un concepto sumamente importante, el producto interior (también llamado producto interno o producto punto en algunos casos específicos).

Utilizando esto podemos introducir otro par de conceptos igualmente importantes (si no es que más), siendo estos norma y distancia, estos sin embargo salen del interés de esta materia por lo que sólo los mencionaremos sin abundar en ellos.

Producto interior

Antes de empezar con esta definición, debemos agregar un par de condiciones extra a las formas cuadráticas.

Definición

Sea $V$ un espacio vectorial en $\mathbb{R}$, $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica y $q: V \rightarrow \mathbb{R}$

Diremos que $b$ es positiva si
\begin{align*} \forall x \in V \text{ se tiene que } b(x,x) \geq 0. \end{align*}
Diremos que $b$ es definida positiva si
\begin{align*} \forall x \in V-\{ 0 \} \text{ se tiene que } b(x,x) > 0 \end{align*}
Dándose la igualdad únicamente si $v=0$.

De una manera semejante

Diremos que $q$ es positiva si su forma polar es positiva.

Diremos que $q$ es definida positiva si su forma polar es definida positiva.

Notemos que para saber si una forma cuadrática NO es positiva (ni definida positiva) no siempre es necesario conocer su polar, basta encontrar un vector tal que al calcular $q(x)$ este sea negativo, ya que esto garantiza que al calcular $b(x,x)$ será igualmente negativa.

En los siguientes ejemplos sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$.

Ejemplo

$q (x_1, x_2, x_3) = x_1x_2+x_2x_3+x_3x_1$.

Notemos que esta no es positiva, ya que tomando al vector $(-1,1,0) $ tenemos que
\begin{align*} q(-1,1,0)= -1 \end{align*}
Ejemplo

$q (x_1, x_2, x_3) = x_1^2+2(x_2-x_3) ^2+3(x_3-x_1) ^2$.

Calculemos la polar de esto, para ello recordemos la identidad de polarización que vimos aquí
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Calculemos por separado $q(x+y)$ y $-q(x)-q(y)$
\begin{align*} q(x+y)=(x_1+y_1)^2+2(x_2+y_2-x_3-y_3)^2+3(x_3+y_3-x_1-y_1)^2 \\
-q(x)-q(y)=-x_1^2-2(x_2-x_3)^2-3(x_3-x_1)^2-y_1^2-2(y_2-y_3)^2-3(y_3-y_1)^2 \end{align*}
y notamos que por la desigualdad del triángulo tenemos que, para cualesquiera $x,y \in \mathbb{R}$
\begin{align*}(x_1+y_1)^2 \geq x_1^2 +y_1^2 \end{align*}
y también
\begin{align*}2(x_2+y_2-x_3-y_3) ^2 \geq 2(x_2-x_3)^2+2(y_2-y_3)^2 \\
3(x_3+y_3-x_1-y_1)^2 \geq 3(x_3-x_1)^2+3(y_3-y_1)^2 \end{align*}
Al juntar estas 3 desigualdades obtenemos
\begin{align*}q(x+y) \geq q(x) + q(y) \end{align*}
Por lo que
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \geq 0 \end{align*}
Para cualesquiera $x,y \in \mathbb{C}$, entonces $b$ es positiva, por lo que $q$ es positiva, finalmente, revisemos si es definida positiva, para esto, veamos si hay un vector no cero tal que $q (x_1, x_2, x_3) =0$.

Sea $x \in \mathbb{C}$ tal que $q(x)=0$ esto nos arrojaría el siguiente sistema
\begin{align} x_1=0 \nonumber \\
x_2-x_3=0 \nonumber \\
x_3-x_1=0 \nonumber \end{align}
De donde se concluye que $x_1=x_2=x_3=0$ y finalmente $x=0$ por lo que el único vector que anula esta forma cuadrática es el $0$, por lo tanto $q$ es definida positiva.

Teniendo una buena idea de las formas cuadráticas, prosigamos con la definición titular de esta entrada.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$, llamaremos a $b: V \times V \rightarrow \mathbb{R}$ un producto interno si $b$ es una forma bilineal, simétrica y definida positiva.

Diremos que $V$ es un espacio euclidiano si es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita y con un producto interno.

Como una curiosidad, abundemos un poco sobre este nombre, el término espacio euclidiano originalmente se refería al espacio tridimensional con la geometría euclidiana, usado para modelar el espacio alrededor de nosotros. Tras la introducción de geometrías no euclidianas, se redefinió axiomáticamente, otra forma de definirlo es como lo hemos hecho aquí que se ha mostrado ser equivalente a su antigua definición axiomática. Fuente.

Generalmente, cuando se habla de productos internos la notación usual es $<x,y>$ en vez de $b(x,y)$.

Finalmente, definamos un concepto sumamente importante, la norma.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con $b$ un producto interno en $V$, la norma de $x \in V$ es
\begin{align*} ||x||=\sqrt{b(x,x)}=\sqrt{q(x)} \end{align*}
Con $q$ la forma cuadrática con polar $b$.

Ejemplos

  • $\mathbb{R}^n$ con el producto interno canónico
    \begin{align} <x,y>= \sum_{i=1}^nx_iy_i. \nonumber \end{align}
  • Sea $V=\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en [a,b].
    \begin{align} <f,g>= \int_a^bf(x)g(x)dx. \nonumber \end{align}

Algo que vale la pena notar es que esta definición difiere un poco de la definición usual de norma, como es de esperarse, al final ambas describen el mismo objeto, pero eso lo abordaremos un poco más adelante.

Desigualdades de Cauchy-Schwarz y Minkowski

Ya con esto, procedamos a las desigualdades prometidas.

Proposición (Desigualdad de Cauchy-Schwarz)

Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es definida positiva y $b(x,y)^2=q(x)q(y)$ para algún par $x,y \in V$ entonces $x,y$ son linealmente dependientes.

Demostración

Definamos una nueva función como sigue
\begin{align*} F: \mathbb{R} \rightarrow \mathbb{R} \text{ dada por } F(t)=q(x+ty) \end{align*}
Aplicando que $b$ es bilinear y simétrica
\begin{align*} F(t)=b(x+ty, x+ty)=b(x,x)+2tb(x,y)+t^2b(y,y) \end{align*}
De aquí notemos que $F(t)$ es un polinomio de segundo grado en la variable $t$, además como $b$ es positiva tenemos que
\begin{align*} F(t) \geq 0 \end{align*}
Por lo que, calculando el discriminante de $F(t)$
\begin{align*} 4b(x,y)^2 -4b(x,x)b(y,y)=4b(x,y)^2 -4q(x)q(y) \leq 0 \end{align*}
Que finalmente, pasando $4q(x)q(y)$ y dividiendo entre $4$ obtenemos la desigualdad deseada
\begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
Para el inciso b), si $x=0$ o $y=0$ sabemos que $x,y$ son linealmente dependientes, por lo que supongamos que $x,y \neq 0 $, por lo que $q(y)>0$ ya que $q$ es definida positiva, lo que nos asegura que $F(t)$ es una ecuación de segundo grado en $t$, así volviendo a calcular su discriminante tenemos
\begin{align*} 4b(x,y)^2 -4q(x)q(y) = 0 \end{align*}
Ya que $b(x,y)^2=q(x)q(y)$, que a su vez nos indica que $F(t)$ tiene una única solución real, sea esta $t_1$ entonces
\begin{align*} F(t_1)=q(x+t_1y)=0 \end{align*}
Finalmente, como $q$ es definida positiva se debe tener que
\begin{align*} x+t_1y = 0 \end{align*}
Que nos da una combinación lineal de $0$ con coeficientes no todos cero, por lo tanto $x,y$ son linealmente dependientes.

$\square$

Si ya has visto previamente esta desigualdad, probablemente la forma de plantearla y demostrarla no resulte muy familiar, veamos un corolario y un par de ejemplos que tal vez te ayuden a reconocer mejor esta desigualdad y sus usos.

Corolario

Sea $V=$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$, entonces para cualesquiera $x,y \in V$
\begin{align*}|<x,y>| \leq ||x|| \cdot ||y||. \end{align*}

Ejemplos

Recordando el ejemplo usado arriba, tenemos que $\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en $[a,b]$ tiene un producto interno y por lo tanto una norma, así, aplicando el corolario tenemos que
\begin{align*} (\int_a^bf(x)g(x))^2 \leq (\int_a^bf(x)^2dx) \cdot (\int_a^bg(x)^2dx).\end{align*}
Que es como probablemente estudiarás esta desigualdad en cursos posteriores.

Otro ejemplo, sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$ por el corolario tenemos que
\begin{align*} -1 \leq \frac{<u,v>}{||u||\cdot||v||} \leq 1 \end{align*}
Para cualesquiera $u,v \in \mathbb{V} – \{0\}$, por lo que existe un único ángulo $\theta \in [0, \pi]$ tal que
\begin{align*} cos \theta =\frac{<u,v>}{||u||\cdot||v||}\end{align*}
De donde se definía a $\theta$ como el ángulo entre los vectores $u,v$.
Con esto, procedamos a la siguiente desigualdad.

Proposición (Desigualdad de Minkowski)
Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $q$ una forma cuadrática positiva en $V$, entonces, para cualesquiera $x,y \in V$
\begin{align} \sqrt{q(x)} + \sqrt{q(y)} \geq \sqrt{q(x+y)}. \nonumber \end{align}
Demostración

Sea $b$ la polar de $q$, por la desigualdad de Cauchy-Schwarz tenemos que
\begin{align*} b(x,y)^2 \leq q(x)q(y) \end{align*}
Que sacando raíz de ambos lados y ya que $b$ es positiva, nos arroja
\begin{align*} b(x,y) \leq \sqrt{q(x)q(y)} \end{align*}
Además, recordando la identidad de polarización, sabemos que
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \end{align*}
Utilizando la desigualdad anterior, se tiene
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \leq q(x)+q(y)+2\sqrt{q(x)q(y)} \end{align*}
Factorizando el lado derecho obtenemos
\begin{align*} q(x+y) \leq (\sqrt{q(x)}+\sqrt{q(y)})^2 \end{align*}
que finalmente, despejando el lado derecho arroja
\begin{align*} \sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}.\end{align*}

$\square$

Finalicemos hablando rápidamente de la otra definición de norma que seguramente ya has visto o verás proximamente.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ llamaremos norma a $|| \cdot ||: V \rightarrow \mathbb{R}$ una función que cumple las siguientes propiedades:

  • $||v|| \geq 0$ para todo $v \in V$, la igualdad se da si y solo si $v=0$.
  • $||av||=|a|\cdot||v||$ para todo $v \in V$ y para todo $a \in \mathbb{R}$.
  • $||v+w||\leq ||v||+||w||$ para todo $v,w \in V$.

Notemos que en nuestra definición de norma cumple estas tres propiedades, recordemos que $||v||=\sqrt{b(x,x)} $, así la primera se cumple debido a que $b$ se pidió definida positiva, la segunda debido a que $b$ es bilineal y la desigualdad de Minkowski nos garantiza la tercera propiedad.
Más aún, estas dos definiciones son equivalentes, esto de nuevo sale del interés de nuestro curso, pero no estaría de más que lo intentaras demostrar por tu cuenta.

Más adelante

Con esto concluimos nuestro pequeño repaso de producto interno y una de las grandes aplicaciones de las formas bilineales. Como probablemente sabes, los conceptos de producto interno y norma dan pie a un sin fin de teoría muy interesante y útil y poder llegar a ellos desde un enfoque puramente algebraico nos muestra el poder que tiene este campo de estudio.

Procederemos volviendo a la raíz del álgebra lineal y empezaremos a estudiar la relación entre formas bilineales y matrices, brindándonos tal vez un mejor entendimiento de ambas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es definida positiva?
  2. Sea $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n \in \mathbb{N}$ prueba que
    \begin{align*} <P.Q>=\sum_{i=0}^nP(i)Q(i) \end{align*}
    Es un producto interno en $V$.
  3. Demuestra el corolario de la desigualdad de Cauchy-Schwarz.
  4. Sea $V$ un $\mathbb{C}$-espacio vectorial, y $\Phi$ una forma cuadrática hermitiana en $V$, asumamos que $\Phi$ es definida positiva ($\Phi(v) >0$ para todo $v$ no cero) con $\varphi$ su polar.
    Prueba la desigualdad de Cauchy-Schwarz, es decir, para todo $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y) \end{align*}
    Y la igualdad sucede si y sólo si $x,y$ son linealmente dependientes.
  5. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}

Entradas relacionadas

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz $A$ es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en $M_n(\mathbb{R})$ siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo $F$, no tenemos la garantía de que las matrices simétricas en $M_n(F)$ también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

$A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}$

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si $A$ fuese diagonalizable, es decir, que existe una matriz invertible $P$ y una diagonal $D$ tal que $A=P^{-1}DP$, entonces $A$ y $D$ tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de $A$: buscamos $\lambda \in \mathbb{C}$ tal que $\text{det}(\lambda I-A)=0$,

\begin{align*}
\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & i \\ i & \lambda +1 \end{vmatrix} \\
&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\
&=\lambda^2=0.
\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de $A$ (y también el eigenvalor de $D$) es $\lambda =0$. Si $D$ es de la forma

$D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}$,

es fácil ver (y calcular) que sus eigenvalores son $a$ y $b$, pero por lo anterior, podemos concluir que $a=b=0$, y por lo tanto $D$ es la matriz cero. Si fuese así, $A=P^{-1}DP=0$, contradiciendo la definición de $A$.

$\square$

Problema. Sea $A$ una matriz simétrica con entradas reales y supongamos que $A^k=I$ para algún entero positivo $k$. Prueba que $A^2=I$.

Solución. Dado que $A$ es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son $k$-raíces de la unidad, entonces deben ser $\pm 1$. Esto implica que todos los eigenvalores de $A^2$ son iguales a 1. Dado que $A^2$ también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto $A^2=I$.

$\square$

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio $V$, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

$\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}$.

Por ende, decimos que una transformación es acotada si su norma es acotada, $\norm{T}<\infty$.

Problema. Sea $V$ un espacio euclideano y sea $T$ una transformación lineal simétrica en $V$. Sean $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $T$. Prueba que

$\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.$

Solución. Renumerando a los eigenvalores, podemos decir que $\max_i |\lambda_i|=|\lambda_n|$. Sea $e_1,\ldots,e_n$ una base ortonormal de $V$ tal que $T(e_i)=\lambda_i e_i$ para todo $i$. Si $x\in V\setminus {0}$, podemos escribirlo como $x=x_1e_1+\ldots+x_n e_n$ para algunos reales $x_i$. Entonces, por linealidad de $T$,

$T(x)=\sum_{i=1}^n \lambda_i x_ie_i.$

Dado que $|\lambda_i|\leq |\lambda_n|$ para toda $i$, tenemos que

$\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,$

por lo tanto

\begin{align*}
\max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\
&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\
&\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|.
\end{align*}

Obteniendo lo que queremos.

$\square$

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

$A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.$

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

\begin{align*}
0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\
&= \lambda^3-\lambda^2-\lambda+1 \\
&= (\lambda -1)(\lambda^2 -1),
\end{align*}

entonces los eigenvalores de $A$ son $1,-1$, ($\lambda=1$ tiene multiplicidad 2).

Ahora, hay que encontrar los vectores $v=(x,y,z)$ tal que $Av=\lambda v$, para todo eigenvalor $\lambda$.

Si $\lambda=-1$,

$(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0, $

reduciendo, obtenemos que $v=(3\alpha, -2\alpha, \alpha)$ para todo $\alpha\in \mathbb{R}$.

Si $\lambda=1$, resolviendo de la misma manera $(\lambda I-A)v=(I-A)v=0$, tenemos que $v=(\beta,\gamma,-3\beta+2\gamma)$ para todo $\beta,\gamma$. Entonces el conjunto de eigenvectores es

$B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.$

Es fácil ver que el conjunto $B$ es linealmente independiente, más aún $\text{dim}(\mathbb{R}^3)=3=|B|$, por lo tanto, $B$ es la base consistente con los eigenvectores de $A$.

$\square$

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si $A$ es una matriz de $m\times n$, su transpuesta $^tA$ es la matriz de $n\times m$ que se obtiene de reflejar a las entradas de $A$ en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos $A=[a_{ij}]$, entonces $^tA=[a_{ji}]$. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y $^tA = A^{-1}$. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si $A$ es una matriz de $n\times n$ con entradas reales y simétrica, entonces:

  • Sus eigenvalores $\lambda_1,\ldots,\lambda_n$ (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal $P$ de $n\times n$ y con entradas reales tal que si tomamos a $D$ la matriz diagonal de $n\times n$ cuyas entradas en la diagonal principal son $\lambda_1,\ldots,\lambda_n$, entonces $$A=P^{-1}DP.$$

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si $A=P^{-1}DP$ como en el teorema anterior, entonces
\begin{align*}
A^2&=(P^{-1}DP)(P^{-1}DP)\\
&=P^{-1}DDP\\
&=P^{-1}D^2P,
\end{align*}

y de manera inductiva se puede probar que $A^k=P^{-1}D^kP$. Elevar la matriz $D$ a la $k$-ésima potencia es sencillo, pues como es una matriz diagonal, su $k$-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la $k$.

Problema. Sea $A$ una matriz de $n\times n$ simétrica y de entradas reales. Muestra que si $A^k = O_n$ para algún entero positivo $k$, entonces $A=O_n$.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de $A$. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como $A$ es simétrica y de entradas reales, entonces sus eigenvalores $\lambda_1,\ldots, \lambda_n$ son reales y es diagonalizable. Digamos que su diagonalización es $P^{-1} D P$. Tenemos que $$O_n = A^k = P^{-1} D^k P.$$ Multiplicando por la matriz $P$ a la izquierda, y la matriz $P^{-1}$ a la derecha, tenemos que $D^k=O_n$. Las entradas de $D^k$ son $\lambda_1^k,\ldots,\lambda_n^k$, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, $$\lambda_1=\ldots=\lambda_n=0.$$

Concluimos que $D=O_n$, y que por lo tanto $A=P^{-1} O_n P = O_n$.

$\square$

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz $$A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.$$ Calcula las primeras potencias de $A$ a mano. Conjetura y muestra cómo es $A^n$ en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el $n$-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz $A$ obtenemos:

\begin{align*}
A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\
A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\
A^3&=\begin{pmatrix} 1 & 2 \\ 2& 3 \end{pmatrix},\\
A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\
A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.
\end{align*}

Al parecer, en las entradas de $A$ van apareciendo los números de Fibonacci. Seamos más concretos. Definimos $F_0=0$, $F_1=1$ y para $n\geq 0$ definimos $$F_{n+2}=F_{n}+F_{n+1}.$$ La conjetura es que para todo entero $n\geq 1$, se tiene que $$A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.$$

Esto se puede probar por inducción. Arriba ya hicimos el caso $n=1$. Supongamos la conjetura cierta hasta un entero $n$ dado, y consideremos la matriz $A^{n+1}$. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

\begin{align*}
A^{n+1}&=AA^n\\
& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\
&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\
&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.
\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz $A$ es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de $A$. Su polinomio característico es $$\begin{vmatrix} \lambda & -1 \\ – 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.$$

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de $A$) son $$\frac{1\pm \sqrt{5}}{2}.$$ Por el momento, para simplificar la notación, llamemos $\alpha$ a la de signo más y $\beta$ a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible $P$ de $2\times 2$ tal que $$A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.$$

De esta forma, $$A^n = P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.$$

Aquí no es tan importante determinar concretamente $P$ ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de $\alpha^n$ y $\beta^n$ y de que los coeficientes de esta combinación lineal ya no dependen de $n$, sino sólo de las entradas de $P$. En particular, la entrada superior derecha de $A^n$ por un lado es $F_n$, y por otro lado es $r\alpha^n + s\beta ^n$.

¿Cómo obtenemos los valores de $\alpha$ y $\beta$? Basta substituir $n=1$ y $n=2$ para obtener un sistema de ecuaciones en $\alpha$ y $\beta$. Aquí abajo usamos que como $\alpha$ y $\beta$ son raíces de $x^2-x-1$, entonces $\alpha^2=\alpha+1$, $\beta^2=\beta+1$ y $\alpha+\beta = 1$.

$$\begin{cases}
1= F_1 = r \alpha + s \beta \\
1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.
\end{cases}$$

De aquí, obtenemos la solución
\begin{align*}
r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\
s&=-r = -\frac{1}{\sqrt{5}}.
\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es $$F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n – \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.$$

$\square$

Matrices positivas y positivas definidas

Por definición, una matriz simétrica $A$ de $n\times n$ con entradas reales es positiva si para cualquier vector (columna) $v$ en $\mathbb{R}^n$ se tiene que $$^t v A v \geq 0.$$ Aquí $^tv$ es la transposición de $v$, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector $v=0$, entonces decimos que $A$ es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz $A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix},$ pues para cualquier vector $v=(x,y)$ se tiene que $$^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.$$ Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como $(1,1)$. Como puedes verificar, un ejemplo de matriz positiva definida es $$B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.$$

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en $\mathbb{R}^n$. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Hay un resultado análogo para cuando se quiere determinar si una matriz $A$ es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos $3$ y $4$ se necesita además que $B$ y $C$ sean invertibles.

Problema. Sea $A$ una matriz de $n\times n$ con entradas reales, simétrica y positiva. Muestra que si $$\text{tr}(A) = n \sqrt[n]{\det(A)},$$ entonces $A$ conmuta con cualquier matriz de $n\times n$.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que $A$ se puede diagonalizar con matrices $A=P^{-1} D P$, donde $D$ es la matriz diagonal que tiene en su diagonal principal a los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$, y $P^{-1}$ es una matriz invertible. Como $A$ y $D$ son similares, se tiene que
\begin{align*}
\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\
\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.
\end{align*}

Como $A$ es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

$$\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.$$

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor $\lambda$, y entonces $D=\lambda I_n$. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de $n\times n$, tendríamos entonces que

\begin{align*}
A&=P^{-1}D P \\
&=P^{-1}(\lambda I_n) P\\
&=(\lambda I_n) (P^{-1}P)\\
&=\lambda I_n.
\end{align*}

Con esto probamos que $A$ es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de $n\times n$.

$\square$

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Seminario de Resolución de Problemas: Vectores en geometría

Introducción

Anteriormente, comenzamos esta serie de entradas de geometría platicando de algunas técnicas euclideanas o sintéticas que se pueden usar para resolver problemas en el plano. Después, tomamos herramientas de la geometría analítica, las cuales nos permiten poner problemas en términos de coordenadas y ecuaciones. Lo que haremos ahora es ver varios ejemplos del uso de vectores en geometría.

A diferencia de la geometría analítica, cuando hablamos de soluciones por vectores estamos hablando de aquellas que aprovechan la estructura de espacio vectorial en $\mathbb{R}^2$. En otras palabras, usamos argumentos en los cuales pensamos a los puntos del plano como vectores, los cuales tienen una dirección y una magnitud. Los vectores tienen operaciones de suma y de producto por un escalar. Además, tienen producto punto, norma y transformaciones dadas por matrices. Apenas tocaremos la superficie del tipo de teoría que se puede usar. Un buen curso de álgebra lineal te puede dar más herramientas para resolver problemas geométricos.

Interpretar puntos como vectores

Pongamos un origen $O$ en el plano. A cada punto $P$ le corresponden ciertas coordenadas dadas por parejas de reales $(x,y)$, que identificaremos con $P$. Al origen le corresponden las coordenadas $(0,0)$. Si tenemos otro punto $Q=(w,z)$, entonces su suma es el vector $P+Q=(x+w,y+z)$. Si tomamos un real $r$, el vector $rP$ es el vector de coordenadas $(rx,ry)$.

Suma de vectores
Suma de vectores

La suma $P+Q$ se puede encontrar mediante la ley del paralelogramo: los puntos $O,P,P+Q,Q$ hacen un paralelogramo en ese orden cíclico. La resta $Q-P$ está definida por $Q+(-1)P$, y la llamamos el vector $PQ$. Geométricamente coincide con el vector que va «de $P$ a $Q$». Observa que el orden es importante y que $OP=P$.

Resta de vectores
Resta de vectores

Proposición (de la razón). Si tenemos dos puntos $P$ y $Q$ distintos y $m,n$ son reales, entonces podemos encontrar al único punto $R$ en la recta por $P$ y $Q$ tal que $$\frac{PR}{RQ}=\frac{m}{n}$$ así: $$R=\frac{n}{m+n}P + \frac{m}{m+n} Q.$$

Punto en una recta con cierta razón
Punto en una recta con cierta razón

Veamos dos problemas en los que se usan estas ideas de vectores en geometría, en particular, la proposición de la razón.

Problema. En el triángulo $ABC$ se toman puntos $D,E,F$ sobre los segmentos $BC,CA,AB$ tales que $\frac{BD}{DC}=\frac{CE}{EA}=\frac{AF}{FB}=\frac{1}{4}$. Muestra que $ABC$ y $DEF$ tienen el mismo gravicentro.

Sugerencia pre-solución. Encuentra una fórmula en términos vectoriales para el gravicentro de un triángulo $ABC$.

Solución. Tomemos un triángulo $PQR$ y pensemos a sus vértices como vectores. Afirmamos que su gravicentro $X$ es el punto correspondiente a $\frac{P+Q+R}{3}$ Demostraremos esto.

El gravicentro está a un tercio del punto medio hacia el vértice correspondiente
Razón del gravicentro en la mediana

Primero haremos un argumento de geometría sintética. El gravicentro es por definición el punto de intersección de las medianas de un triángulo. Si $L$ es el punto medio de $QR$ y $M$ es el punto medio de $RP$, entonces $X$ es el punto de intersección de $PL$ y $QM$. Tenemos que $$\frac{RL}{LQ}=1=\frac{RM}{MP},$$ así que por el teorema de Tales se tiene que la recta por $L$ y $M$ es paralela al lado $PQ$, y $\frac{LM}{PQ}=\frac{1}{2}$. Esto muestra que los triángulos $XLM$ y $XPQ$ son semejantes en razón $1$ a $2$. Por lo tanto, $\frac{LX}{XP}=\frac{1}{2}$.

Ahora hagamos el argumento vectorial, pensando a los puntos como vectores. El punto $L$ está a la mitad de $QR$, así que por la proposición de la razón, $$L=\frac{Q+R}{2}.$$ El punto $X$ cumple $\frac{LX}{XP}=\frac{1}{2}$, así que de nuevo por la proposición de la razón.
\begin{align*}
X&=\frac{2L+P}{2+1}\\
&=\frac{Q+R+P}{3}\\
&=\frac{P+Q+R}{3}.
\end{align*}

Esto es el resultado auxiliar que queríamos mostrar. Regresemos al problema.

De acuerdo al resultado auxiliar, el gravicentro de $ABC$ es $$G:=\frac{A+B+C}{3}.$$ Usando una vez más la proposición de la razón, los puntos $D$, $E$ y $F$ los podemos calcular como sigue:
\begin{align*}
D&=\frac{4B+C}{4+1}=\frac{4B+C}{5}\\
E&=\frac{4C+A}{4+1}=\frac{4C+A}{5}\\
F&=\frac{4A+B}{4+1}=\frac{4A+B}{5}.
\end{align*}

De esta forma, el gravicentro $G’$ de $DEF$ lo podemos encontrar como sigue:
\begin{align*}
G’&=\frac{D+E+F}{3}\\
&=\frac{\frac{4B+C}{5}+\frac{4C+A}{5}+\frac{4A+B}{5}}{3}\\
&=\frac{A+B+C}{3}\\
&=G.
\end{align*}

Esto termina la solución del problema.

$\square$

Problema. En el paralelogramo $ABCD$ el punto $F$ es el punto medio de $CD$. Muestra que el segmento $AF$ corta a la diagonal $BD$ en un punto $E$ tal que $\frac{DE}{DB}=\frac{1}{3}$.

Sugerencia pre-solución. Hay varias formas de hacer las cuentas en este problema, pero el uso de una notación adecuada te hará simplificar muchas operaciones.

Solución. Pensemos a los puntos de la figura como vectores. Coloquemos al punto $A$ en el origen. El punto $C$ está dado por $B+D$, de modo que $$F:=\frac{C+D}{2}=\frac{B+2D}{2}.$$

Vectores en geometría: problema de paralelogramo
Figura auxiliar para problema de paralelogramo

Para encontrar al punto $E$, notemos que está en las rectas $AF$ y $BD$. De esta forma, deben existir reales $r$ y $s$ tales que $$E=rF$$ y $$E=sB+(1-s)D.$$ Expresando $F$ en términos de $B$ y $D$ en la primer ecuación, tenemos que $$E=\frac{rB+2rD}{2}=\frac{rB}{2}+rD.$$ De ambas expresiones para $E$, concluimos que
\begin{align*}
s=\frac{r}{2}\\
1-s=r.
\end{align*}

Este sistema de ecuaciones tiene solución $r=\frac{2}{3}$, $s=\frac{1}{3}$, y por lo tanto $E=\frac{B+2D}{3}$. De aquí se obtiene $\frac{DE}{EB}=\frac{1}{2}$, o bien $\frac{DE}{DB}=\frac{DE}{DE+EB}=\frac{1}{3}$, como queríamos mostrar.

$\square$

Producto punto, norma y ángulos

Para dos vectores $P=(x,y)$ y $Q=(w,z)$ definimos su producto punto como la cantidad $P\cdot Q = xw+yz$. El productos puntos es:

  • Conmutativo: $P\cdot Q = Q\cdot P$
  • Abre sumas: $P\cdot (Q+R)=P\cdot Q + P\cdot R$
  • Saca escalares: $(rP)\cdot Q = r(P\cdot Q)$.

La norma de $P$ se define como $\norm{P}=\sqrt{P\cdot P}$, y coincide con la distancia de $P$ al origen. La norma de $PQ$ es entonces $\norm{PQ}=\sqrt{(Q-P)\cdot (Q-P)}$ y coincide con la distancia de $P$ a $Q$.

El ángulo entre dos vectores $PQ$ y $RS$ se define como el ángulo cuyo coseno es $$\frac{PQ \cdot RS}{\norm{PQ}\norm{RS}},$$ y coincide precisamente con el ángulo (orientado) geométrico entre las rectas $PQ$ y $RS$. De esta forma, las rectas $PQ$ y $RS$ son perpendiculares si y sólo si el producto punto $PQ\cdot RS$ es cero.

Problema. Sea $ABC$ un triángulo con sus vértices pensados como vectores. Sean $H$ y $O$ su ortocentro y circuncentro respectivamente. Supongamos que el circuncentro $O$ está en el origen. Muestra que $H=A+B+C$.

Sugerencia pre-solución. Trabaja hacia atrás. Define al punto $A+B+C$ y ve que las rectas que unen a los vértices con este punto en efecto son alturas. Para calcular los ángulos, usa el producto punto y sus propiedades.

Solución. Como el circuncentro equidista de $A$. $B$ y $C$, tenemos que $$\norm{A}=\norm{B}=\norm{C}.$$ Tomemos el punto $H’=A+B+C$.

Vectores en geometría para encontrar el ortocentro
Ortocentro con vectores

Calculemos el ángulo entre las rectas $BC$ y $AH’$, haciendo su producto punto:
\begin{align}
BC\cdot AH’ &= (C-B)\cdot (H’-A)\\
&=(C-B)\cdot(C+B)\\
&=C\cdot C + C\cdot B – B\cdot C – B\cdot B\\
&=\norm{C}^2 – \norm{B}^2\\
&=0.
\end{align*}

Observa que estamos usando la linealidad y conmutatividad del producto punto. Al final usamos que $A$ y $C$ tienen la misma norma.

Esto muestra que la recta $AH’$ es la altura al lado $BC$. De manera análoga, $BH’$ y $CH’$ son las alturas a los lados $CA$ y $AB$ respectivamente. Por lo tanto, $H’$ es el ortocentro, así que $H=A+B+C$.

$\square$

Cualquier triángulo $ABC$ en el plano se puede trasladar para que su circuncentro $O$ quede en el origen. El ortocentro estará en $H=A+B+C$ y el gravicentro, como vimos antes, en $G=\frac{A+B+C}{3}$, que es un múltiplo escalar de $H$. Por lo tanto, $O$, $H$ y $G$ están alineados. Acabamos de demostrar con vectores en geometría un clásico resultado euclideano.

Teorema (recta de Euler). En cualquier triángulo $ABC$, el circuncentro $O$, el gravicentro $G$ y el ortocentro $H$ están alineados. Además, $$\frac{OG}{GH}=\frac{1}{2}.$$

Teorema de la recta de Euler
Teorema de la recta de Euler

Si el circuncentro no está en el origen, ahora podemos usar el teorema de la recta de Euler y la proposición de la razón para concluir que $G=\frac{2O+H}{3}$. Usando que $G=\frac{A+B+C}{3}$, obtenemos el siguiente corolario

Corolario. Sea $ABC$ un triángulo en el plano, $H$ su ortocentro y $O$ su circuncentro. Entonces al pensar a los puntos como vectores tenemos que $$A+B+C=2O+H.$$

Más problemas

Puedes encontrar más problemas del uso de vectores en geometría en la sección 8.3 del libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de $V$ es una base en la cual cada par de vectores tiene producto interior $0$. Es ortonormal si además cada elemento es de norma $1$. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de $V$, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal con este producto interior, entonces para cualquier vector $v$, la coordenada de $v$ con respecto a $e_i$ es $\langle v, e_i \rangle$.

Demostración. Expresemos a $v$ en la base $B$ como $$v=\alpha_1e_1+\ldots+\alpha_n e_n.$$

Tomemos $j$ en $1,2,\ldots,n$. Usando la linealidad del producto interior, tenemos que
\begin{align*}
\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\
&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.
\end{align*}

Como $B$ es base ortonormal, tenemos que en el lado derecho $\langle e_j,e_j\rangle = 1$ y que si $i\neq j$ entonces $\langle e_i, e_j\rangle=0$. De esta forma, el lado derecho de la expresión es $\alpha_j$, de donde concluimos que $$\langle v, e_j \rangle = \alpha_j,$$ como queríamos.

$\square$

Definición. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal, a $$v=\sum_{i=1}^n \langle v, e_i \rangle e_i$$ le llamamos la descomposición de Fourier de $v$ con respecto a $B$.

Ejemplo. Trabajemos en el espacio vectorial $V=\mathbb{R}_2[x]$ de polinomios reales de grado a lo más $2$. Ya mostramos anteriormente (con más generalidad) que $$\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)$$ es un producto interior en $V$.

Los polinomios $\frac{1}{\sqrt{3}}$, $\frac{x}{\sqrt{2}}$ y $\frac{3x^2-2}{\sqrt{6}}$ forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica $\{1,x,x^2\}$ en términos de esta base ortonormal? Los primeros dos son sencillos:
\begin{align}
1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\
x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}.
\end{align}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

\begin{align*}
\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\
\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\
\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.
\end{align*}

De este modo, $$x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.$$

$\square$

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortogonal con este producto interior, entonces para cualquier vector $$v=\alpha_1e_1+\ldots+\alpha_ne_n,$$ tenemos que $$\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.$$

En particular, si $B$ es una base ortonormal, entonces $$\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.$$

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
\begin{align*}
\norm{v}^2 &= \langle v,v \rangle\\
&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.
\end{align*}

Como $B$ es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que $i=j$, es decir,
\begin{align*}
\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\
&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\
\end{align*}

como queríamos mostrar.

Si $B$ es base ortonormal, cada $\norm{e_i}^2$ es $1$, y por el teorema anterior, $\alpha_i=\langle v, e_i\rangle$. Esto prueba la última afirmación.

$\square$

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a $x^2$ en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
\begin{align*}
\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\
&=\frac{4}{3}+\frac{4}{6}\\
&=2.
\end{align*}

De esta forma, $\norm{x^2}=\sqrt{2}$. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de $x^2$ con la definición.

$\square$

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en $V=\mathbb{R}_n[x]$, que habíamos elegido $n+1$ reales distintos $x_0,\ldots,x_n$, y que a partir de ellos definimos $$\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).$$ Mostramos que $\langle \cdot , \cdot \rangle$ es un producto interior y que para $j=0,\ldots,n$ los polinomios $$L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}$$ forman una base ortonormal de $V$.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio $P$ de grado a lo más $n+1$ con coeficientes reales satisface que $$P=\sum_{i=0}^n \langle P, L_i \rangle L_i,$$ lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para $P$ un polinomio con coeficientes en los reales de grado a lo más $n$ y $x_0,x_1,\ldots,x_n$ reales distintos, tenemos que $$P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).$$

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado $n$ en cualquier real $x$ conociendo sus valores en $n+1$ reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx$$ define un producto interior en el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$.

En ese ejemplo, definimos \begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*} y $C_0(x)=\frac{1}{\sqrt{2\pi}}$, y mostramos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ era un conjunto ortonormal.

No se puede mostrar que $\mathcal{F}$ sea una base ortonormal, pues el espacio $V$ es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia $\mathcal{F}$ es buena aproximando a elementos de $V$, es decir a funciones continuas y periódicas de periodo $2\pi$. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia $\mathcal{F}$ a una familia más pequeña:

$$\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}$$

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la $n$-ésima serie parcial de Fourier de una función $f$ en $V$ a la expresión $$S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.$$ Haciendo las cuentas, se puede mostrar que $$S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),$$ en donde para $k\geq 1$ tenemos $$a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx$$ y $$b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.$$

A los números $a_k$ y $b_k$ se les conoce como los $k$-ésimos coeficientes de Fourier. Aunque $\mathcal{F}$ no sea una base para $V$, sí es buena «aproximando» a elementos de $V$. Por ejemplo, un resultado lindo de Dirichlet dice que si $f$ y su derivada son continuas, entonces $$\lim_{n\to \infty} S_n(f)(x) = f(x).$$ Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora $W_n$ el subespacio de $V$ generado por $\mathcal{F}_n$. Tomemos una función $f$ cualquiera en $V$. La $n$-ésima serie de Fourier de $f$ es un elemento de $W_n$. De hecho, es precisamente la proyección de $f$ en $W_n$. Por esta razón, $$\norm{f_n}^2\leq \norm{f}^2<\infty$$

Podemos calcular la norma de $f_n$, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) $W_n$. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

$$\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.$$

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie $$\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).$$ Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.$$

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando $n\to \infty$. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.$$

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Tarea moral

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de $x^2$ con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es $\sqrt{2}$.
  • Con la misma base ortonormal $B$ de ese ejemplo, calcula las coordenadas y la norma del polinomio $1+x+x^2$.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en $\mathbb{R}^n$ y con la base canónica.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Entradas relacionadas