Archivo de la etiqueta: álgebra lineal ii

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\triangle$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\triangle$

Ejemplo 2. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\triangle$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$.
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Proceso de Gram-Schmidt en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior recordamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales. Esto nos da la pista de que siempre es bueno intentar conseguir una base ortonormal. ¿Es esto siempre posible? En el primer curso de Álgebra Lineal vimos que si tenemos en espacio euclideano, entonces sí. Esto está explicado a detalle en la entrada del Proceso de Gram-Schmidt.

Esta entrada está escrita únicamente en formato de recordatorio. Enunciamos los resultados principales, pero las demostraciones y más ejemplos se encuentran en otras entradas.

Teorema de Gram-Schmidt

El teorema de Gram-Schmidt asegura que dado un conjunto de vectores linealmente independientes en un espacio vectorial real con un producto interior dado, podemos encontrar otros vectores que ahora sean ortonormales, que generen lo mismo y que además «apunten hacia un lado similar» a los vectores originales. Además, asegura que estos vectores son únicos. El resultado concreto es el siguiente.

Teorema. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$. Sean $v_1,\ldots,v_d$ vectores linealmente independientes. Entonces, existen únicos vectores ortonormales $e_1,\ldots,e_d$ tales que para toda $k\in\{1,2,\ldots,d\}$ se tiene que $$\text{span}(e_1,\ldots,e_k)= \text{span}(v_1,\ldots,v_k)$$ y $\langle e_k, v_k \rangle >0$.

Muy a grandes rasgos, esta forma de escribir el teorema permite hacer inducción en $d$. Al pasar a un nuevo $d$, podemos usar hipótesis inductiva para construir $e_1,\ldots,e_{d-1}$. Así, sólo hay que ver cómo construir $e_d$ para que sea ortogonal a todos los anteriores y para que tenga norma $1$. Para encontrar a un buen candidato, se debe poner a $e_d$ en términos de los $e_1,\ldots,e_{d-1}$ y $v_d$, y se debe suponer que cumple lo deseado. Al hacer algunos productos interiores esto nos dice que $e_d$ forzosamente se construye definiendo

$$f_d=v_d-\sum_{i=1}^{d-1}\langle v_d, e_i\rangle e_i$$

y tomando $e_d=\frac{f_d}{\norm{f_d}}$.

En los detalles de la prueba se ve que este $e_d$ en efecto cumple todo lo deseado.

Si estamos en un espacio euclideano, entonces tenemos una base finita. Podemos usar esta en la hipótesis del teorema de Gram-Schmidt para concluir lo siguiente.

Corolario. Todo espacio euclideano tiene una base ortonormal.

Algoritmo de Gram-Schmidt

La demostración del teorema de Gram-Schmidt a su vez da un algoritmo para encontrar de manera explícita la base ortonormal buscada. Es un algoritmo que poco a poco va construyendo los vectores. Supongamos que nos dan los vectores $v_1,\ldots,v_n$.

Para empezar, normalizamos $v_1$ para obtener $e_1=\frac{v_1}{\norm{v_1}}$. De aquí en adelante procedemos recursivamente. Si ya construimos $e_1,\ldots,e_k$, entonces podemos construir $e_{k+1}$ a través de la fórmula que pusimos, es decir, primero definimos

$$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i,$$

para luego tomar $e_{k+1}$ como la normalización de $f_{k+1}$, es decir, como $\frac{f_{k+1}}{\norm{f_{k+1}}}.$ Seguimos de esta manera hasta terminar.

El siguiente diagrama da una idea un poco más visual de cómo vamos haciendo las operaciones. Comenzamos con los vectores $v_1,\ldots,v_d$ de la fila superior. Luego, vamos construyendo a los $e_i$ y $f_i$ en el orden indicado por las flechas: $e_1,f_2,e_2,\ldots,f_{d-1},e_{d-1},f_d,e_d$. Para construir un $f_i$ usamos la fórmula con productos interiores. Para construir el $e_i$ correspondiente, normalizamos.

Intuición geométrica

Ya tenemos el lenguaje para entender mucho mejor el proceso de Gram-Schmidt. Si te das cuenta, cuando tomamos $$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i$$ justamente estamos aprovechando la descomposición

$$v_{k+1}= \left(\sum_{i=1}^{k}\langle v_{k+1}\right)+ f_{k+1}$$

de $v_{k+1}$ como suma de un elemento en espacio generado por $e_1,\ldots, e_k$ y uno en su ortogonal. El elemento del espacio generado lo obtenemos a través de la fórmula que sale de la descomposición de Fourier que vimos en la entrada anterior. El hecho de que $f_{k+1}$ esté en el ortogonal es lo que hace que cada nuevo vector sea ortogonal a los anteriores. Al final hay que normalizar $f_{k+1}$ para que la base sea ortonormal y no sólo ortogonal. Habría dos formas de hacerlo. Una es tomar $\frac{f_{k+1}}{\norm{f_{k+1}}}$. La otra es tomar $-\frac{f_{k+1}}{\norm{f_{k+1}}}$. El producto escalar positivo que pedimos es lo que nos da la unicidad.

Ejemplo de aplicación del algoritmo de Gram-Schmidt

Hagamos un ejemplo muy sencillo. Será sólo de práctica y como recordatorio. Hay ejemplos más interesantes en la entrada Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt.

Es sencillo verificar que $\langle (a,b,c), (x,y,z)\rangle =4ax+3by+2cz$ es un producto interior en $\mathbb{R}^3$. Vamos a ortonormalizar la base $(1,1,1)$, $(0,1,1)$, $(0,0,1)$.

En la notación del algoritmo, tenemos entonces $v_1=(1,1,1)$, $v_2=(0,1,1)$ y $v_3=(0,0,1)$. El primer paso es tomar $e_1=\frac{v_1}{\norm{v_1}}$. La norma de $v_1$ con este producto interior es $\sqrt{4+3+2}=3$. De este modo, $e_1=\left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right)$.

Teniendo $e_1$, podemos definir $f_2$ con la fórmula dada:

\begin{align*}
f_2&=v_2-\langle v_2, e_1 \rangle e_1\\
&=(0,1,1)-\left(4\cdot 0\cdot \frac{1}{3}+3\cdot 1 \cdot \frac{1}{3} + 2 \cdot 1 \cdot \frac{1}{3}\right)\left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=(0,1,1)-\frac{5}{3} \left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=\left(-\frac{5}{9},\frac{4}{9},\frac{4}{9}\right).
\end{align*}

De aquí, debemos normalizar $f_2$. Su norma es $$\sqrt{ \frac{100}{81}+\frac{48}{81}+\frac{32}{81} } = \frac{\sqrt{180}}{9}=\frac{2\sqrt{5}}{3}=\frac{10}{3\sqrt{5}}.$$ De este modo, $$e_2=\left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)$$

Teniendo $e_1$ y $e_2$, podemos definir $f_3$ con la fórmula dada:

\begin{align*}
f_3&=v_3-\langle v_3, e_1 \rangle e_1 – \langle v_3, e_2 \rangle e_2\\
&=(0,0,1)-\frac{2}{3} \left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right) – \frac{4\sqrt{5}}{15} \left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)\\
&=(0,0,1)-\left(\frac{2}{9}, \frac{2}{9} , \frac{2}{9} \right)-\left(-\frac{2}{9},\frac{8}{45},\frac{8}{45}\right)\\
&=\left(0, -\frac{2}{5},\frac{3}{5}\right).
\end{align*}

De aquí, debemos normalizar $f_3$. Su norma es $$\sqrt{\frac{12}{25}+\frac{18}{25}}=\frac{\sqrt{6}}{\sqrt{5}}=\frac{6}{\sqrt{30}}.$$ De este modo, $$e_3=\left( 0, -\frac{\sqrt{30}}{15}, \frac{\sqrt{30}}{10}\right).$$

Hemos encontrado la base ortonormal buscada $e_1,e_2,e_3$.

$\triangle$

Más adelante…

Con esta entrada-recordatorio terminamos la segunda unidad del curso. A partir de ahora es importante que recuerdes que todo espacio euclideano tiene una base ortonormal. También es útil que recuerdes cómo se obtiene, así que asegúrate de practicar el proceso de Gram-Schmidt.

Todo lo que hemos mencionado tiene su análogo en espacios vectoriales sobre los complejos con un producto interior hermitiano. Asegúrate de entender las diferencias y de realizar los ejercicios que te permitirán entender los resultados correspondientes.

En la siguiente unidad desarrollaremos la teoría necesaria para poder enunciar y demostrar tanto el teorema espectral real, como el teorema espectral complejo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Haz la demostración del teorema de Gram-Schmidt a partir del esquema comentado en la entrada. En caso de que se te dificulte, revisa los detalles en la entrada de blog correspondiente.
  2. Para verificar que todo esté en orden, verifica que los vectores $e_1,e_2,e_3$ del ejemplo en efecto son una base ortonormal con el producto interior dado.
  3. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden? ¿Es conveniente tomar algún otro orden para simplificar las cuentas?
  4. Aplica el proceso de Gram-Schmidt a los vectores \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*} en $\mathbb{R}^4$ con el producto interior canónico (el producto punto).
  5. Enuncia y demuestra un teorema de Gram-Schmidt para espacios vectoriales sobre $\mathbb{C}$ con un producto interior hermitiano. Obtén el corolario correspondiente para los espacios hermitianos. Aplica este proceso a los vectores $(1+i,1+i,1+i),(0,1+i,1+i),(0,0,1+i)$ de $\mathbb{C}^3$ con el producto hermitiano canónico para obtener una base ortonormal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Ortogonalidad en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, cuando hablamos del espacio dual de un espacio vectorial, definimos qué quería decir que una forma lineal y un vector fueran ortogonales. Esa noción de ortogonalidad nos ayudó a definir qué era un hiperplano de un espacio vectorial y a demuestra que cualquier subespacio de dimensión $k$ de un espacio de dimensión $n$ podía ponerse como intersección de $n-k$ hiperplanos.

Hay otra noción de ortogonalidad en álgebra lineal que también ya discutimos en el primer curso: la ortogonalidad de parejas de vectores con respecto a un producto interior. En el primer curso vimos esta noción muy brevemente. Lo que haremos ahora es profundizar en esta noción de ortogonalidad. De hecho, gracias a las herramientas que hemos desarrollado podemos conectar ambas nociones de ortogonalidad.

Esta teoría la veremos de manera explícita en el caso real en la entrada. El caso en $\mathbb{C}$ queda esbozado en los ejercicios.

Definición de ortogonalidad

Comenzamos con las siguientes definiciones.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos vectores $x,y$ en $V$ son ortogonales (con respecto a $b$) si $b(x,y)=0$.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Sea $S$ un subconjunto de vectores de $V$. El conjunto ortogonal de $S$ (con respecto a $b$) consiste de todos aquellos vectores en $V$ que sean ortogonales a todos los vectores de $S$. En símbolos:

$$S^{\bot}:=\{v \in V : \forall s \in S, b(s,v)=0\}.$$

Es un buen ejercicio verificar que $S^\bot$ siempre es un subespacio de $V$. Finalmente, definimos la ortogonalidad de conjuntos.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos subconjuntos $S$ y $T$ son ortogonales (con respecto a $b$) si $S \subseteq T^{\bot}$.

En otras palabras, estamos pidiendo que todo vector de $S$ sea ortogonal a todo vector de $T$.

Observación. Si tenemos un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$, entonces tenemos la fórmula $$\norm{x+y}^2=\norm{x}^2+2\langle x,y\rangle +\norm{y}^2.$$

De esta forma, $x$ y $y$ son ortogonales si y sólo si $$\norm{x+y}^2= \norm{x}^2+\norm{y}^2.$$ Podemos pensar esto como una generalización del teorema de Pitágoras.

Descomposición en un subespacio y su ortogonal

Comenzamos esta sección con un resultado auxiliar.

Teorema. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$V=W\oplus W^\bot.$$

Demostración. Sea $\langle \cdot,\cdot \rangle$ el producto interior de $V$. Para demostrar la igualdad que queremos, debemos mostrar que $W$ y $W^\bot$ están en posición de suma directa y que $V=W+W^\bot$.

Para ver que $W$ y $W^\bot$ están en posición de suma directa, basta ver que el único elemento en la intersección es el $0$. Si $x$ está en dicha intersección, entonces $\langle x, x \rangle =0$, pues por estar en $W^\bot$ debe ser ortogonal a todos los de $W$, en particular a sí mismo. Pero como tenemos un producto interior, esto implica que $x=0$.

Tomemos ahora un vector $v\in V$ cualquiera. Definamos la forma lineal $f:W\to \mathbb{R}$ tal que $f(u)=\langle u, v \rangle$. Por el teorema de representación de Riesz aplicado al espacio vectorial $W$ y a su forma lineal $f$, tenemos que existe un (único) vector $x$ en $W$ tal que $f(u)=\langle u, x \rangle$ para cualquier $u$ en $W$.

Definamos $y=v-x$ y veamos que está en $W^\bot$. En efecto, para cualquier $u$ en $W$ tenemos:

\begin{align*}
\langle u, y\rangle &= \langle u, v-x \rangle\\
&=\langle u, v \rangle – \langle u , x \rangle\\
&=f(u)-f(u)\\
&=0.
\end{align*}

De esta manera, podemos escribir $v=x+y$ con $x\in W$ y $y\in W^\bot$.

$\square$

En particular, el teorema anterior nos dice que la unión disjunta de una base de $W$ y una base de $W^\bot$ es una base de $V$. Por ello, tenemos el siguiente corolario.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$\dim{W}+\dim{W^\bot}=\dim{V}.$$

Tenemos un corolario más.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$(W^\bot)^\bot=W.$$

Demostración. Tanto $W$ como $(W^\bot)^\bot$ son subespacios de $V$. Tenemos que $W\subseteq (W^\bot)^\bot$ pues cualquier elemento de $W$ es ortogonal a cualquier elemento de $W^\bot$. Además, por el corolario anterior tenemos:

\begin{align*}
\dim{W}+\dim{W^\bot}&=\dim{V}\\
\dim{W^\bot}+\dim{(W^\bot)^\bot}&=\dim{V}.
\end{align*}

De aquí se sigue que $\dim{W} = \dim{(W^\bot)^\bot}$. Así, la igualdad que queremos de subespacios se sigue si un subespacio está contenido en otro de la misma dimensión, entonces deben de ser iguales.

$\square$

Proyecciones ortogonales

Debido al teorema anterior, podemos dar la siguiente definición.

Definición. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. La proyección ortogonal hacia $W$ es la transformación lineal $p_W:V\to W$ tal que a cada $v$ en $V$ lo manda al único vector $p_W(v)$ tal que $x-p_W(v)$ está en $W^\bot$.

Dicho en otras palabras, para encontrar a la proyección de $v$ en $W$ debemos escribirlo de la forma $v=x+y$ con $x\in W$ y $y\in W^\bot$ y entonces $p_W(v)=x$.

Distancia a subespacios

Cuando definimos la distancia entre conjuntos que tienen más de un punto, una posible forma de hacerlo es considerando los puntos más cercanos en ambos conjuntos, o en caso de no existir, el ínfimo de las distancias entre ellos. Esto da buenas propiedades para la distancia. En particular, cuando queremos definir la distancia de un punto $x$ a un conjunto $S$ hacemos lo siguiente.

Definición. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $S$ un subconjunto de $V$ y $v$ un vector de $V$. Definimos la distancia de $v$ a $S$ como la menor posible distancia de $v$ hacia algún punto de $S$. En símbolos:

$$d(v,S):=\inf_{s\in S} d(v,s).$$

En general, puede ser complicado encontrar el punto que minimiza la distancia de un punto a un conjunto. Sin embargo, esto es más sencillo de hacer si el conjunto es un subespacio de un espacio con producto interior: se hace a través de la proyección al subespacio. Esto queda reflejado en el siguiente resultado.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $W$ un subespacio de $V$ y sea $v$ un vector en $V$. Entonces $$d(v,W)=\norm{v-p_W(v)}.$$

Más aún, $p_W(v)$ es el único punto en $W$ para el cual se alcanza la distancia mínima.

Demostración. Por el teorema de descomposición en un subespacio y su ortogonal, sabemos que podemos escribir $v=x+y$ con $x$ en $W$ y con $y$ en $W^\bot$.

Tomemos cualquier elemento $w$ en $W$. Tenemos que $x-w$ está en $W$ y que $y$ está en $W^\bot$. Así, usando el teorema de Pitágoras tenemos que:

\begin{align*}
\norm{v-w}^2&=\norm{y+(x-w)}^2\\
&=\norm{y}^2+\norm{x-w}^2\\
&\geq \norm{y}^2\\
&=\norm{v-x}^2.
\end{align*}

Esto muestra que $\norm{v-w}\geq \norm{v-x}$. Como $x\in W$, esto muestra que la distancia de $v$ a $W$ en efecto se alcanza con $x=p_W(v)$, pues cualquier otra distancia es mayor o igual.

La igualdad en la cadena anterior de alcanza si y sólo si $\norm{x-w}^2=0$, lo cual sucede si y sólo si $x=w$, como queríamos.

$\square$

Más adelante…

En la siguiente entrada recordaremos varias de las ventajas que tiene contar con una base de un espacio vectorial en la que cualesquiera dos vectores sean ortogonales entre sí. Y en la entrada después de esa, recordaremos algunas hipótesis bajo las cuales podemos garantizar encontrar una de esas bases.

Tarea moral

  1. Resuelve los siguientes ejercicios:
    1. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$. Encuentra a $W^{\bot}$ y define la proyección ortogonal $p_W$ hacia $W$.
    2. Encuentra el vector en $\text{Span}((1,2,1), (-1,3,-4))$ que sea el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  2. Sea $V$ un espacio euclidiano y $T : V \to V $ una transformación lineal tal que $T^2=T$. Prueba que T es una proyección ortogonal si y solo si para cualesquiera $x$ y $y$ en $V$ se tiene que $$\langle T(x),y\rangle =\langle x,T(y)\rangle.$$
  3. Resuelve los siguientes ejercicios:
    1. Demuestra que una proyección ortogonal reduce la norma, es decir, que si $T$ es una proyección ortogonal, entonces $\norm{T(v)}\leq \norm{v}$.
    2. Prueba que una proyección ortogonal únicamente puede tener como eigenvalores a $0$ ó a $1$.
  4. Demuestra que la composición de dos proyecciones ortogonales no necesariamente es una proyección ortogonal.
  5. En el teorema de descomposición, ¿es necesaria la hipótesis de tener un producto interior? ¿Qué sucede si sólo tenemos una forma bilineal, simétrica y positiva?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»