Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada $V$ es un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ y norma asociada $\norm{\cdot}$.

Definición. Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
para cualesquiera $i,j$ en $I$ se tiene que $$\langle v_i,v_j \rangle =0.$$ Aquí $I$ es un conjunto de índices cualquiera.

Definición. Diremos que una $(v_i)_{i \in I}$ es ortonormal si es ortogonal y además cada vector tiene norma $1$.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores $(v_i)_{i\in I}$ cualquiera podemos obtener una familia en donde todos los vectores tienen norma $1$. Basta con reemplazar $v_i$ por $\frac{v_i}{\norm{v_i})$ para todo $i\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal $$\sum_{i\in I} \alpha_i v_i=0,$$ entonces hacemos producto interior por cada $v_i$. Tras esto, como la familia es ortogonal, el único elemento que queda es $\alpha_i\langle v_i, v_i\rangle$ y está igualado a cero. Por ser producto interior, $\langle v_i, v_i\rangle\neq 0$, así que $\alpha_i=0$.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea $V$ un espacio euclideano de dimensión $n$ con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero tiene a lo más $n$ elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortogonal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\langle u_i,u_i\rangle} u_i\\
&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\norm{u_i}^2} u_i.
\end{align*}

En otras palabras, «la coordenada correspondiente a $u_i$ se obtiene haciendo producto interior con $u_i$ y dividiendo entre el cuadrado de la norma de $u_i$». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a $v$ como combinación lineal de los elementos de $\beta$ y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada $u_i$ son $1$ y entonces obtenemos lo siguiente.

Corolario. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal $u_1,\ldots,u_n$ son las formas lineales $\langle \cdot, u_1\rangle, \ldots, \langle \cdot, u_n\rangle$.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base $u_1,\ldots,u_n$ de un espacio euclideano, la expresión

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

es muy importante, y se le conoce como la descomposición de Fourier de $v$ con respecto a $\beta$. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector $v$ al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ se obtiene de manera inmediata la norma de un vector.

Proposición. Si $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ para una base ortonormal $u_1,\ldots,u_n$, entonces $\norm{x}^2=\sum_{i=1}^n \langle v,u_i\rangle^2$.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea $V$ un espacio euclideano y $W$ un subespacio. Sea $u_1,\ldots,u_r$ una base ortonormal de $W$. Entonces para todo vector $v\in V$ se tiene que $$p_W(v)=\sum_{i=1}^r \langle v, u_i \rangle u_i.$$

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea $V$ un espacio euclideano y $u_1,\ldots,u_r$ un conjunto ortonormal de vectores. Entonces $$\sum_{i=1}^r \langle v, v_i \rangle ^2\leq \norm{v}^2$$ para todo $v$ en $V$.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a $W$ el espacio generado por $u_1,\ldots,u_r$ y calcular $d(v,W)$ usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial $V$ con producto interior. En la siguiente entrada recordaremos un resultado crucial: si $V$ es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en $M_n(\mathbb{R})$ tienen un producto interior dado por $\langle A,B\rangle=\text{traza}(\text{ }^tAB)$. Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de $\mathbb{R}^n$ cómo es la matriz de cambio de base de una base ortogonal $\beta$ de $\mathbb{R}^n$ a otra base ortogonal $\beta’$.
  4. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más $2$. Definimos la función $\langle \cdot,\cdot \rangle: V\times V\to\mathbb{R}$ como sigue: $$\langle p,q\rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1).$$ Demuestra que $\langle \cdot, \cdot \rangle$ así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

1 comentario en “Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

  1. Sebastian

    Me parece que hay un error en la proposición que esta arriba de esto:

    Como te imaginarás la demostración de este resultado está aquí (Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt).

    El error es que en la igualdad se ignora la base, una forma de arreglarlo es cambiando las u’s de la hipotesis por v, en la base ortonormal

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.