Archivo de la etiqueta: espacio euclideano

Álgebra Lineal II: Proceso de Gram-Schmidt en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior recordamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales. Esto nos da la pista de que siempre es bueno intentar conseguir una base ortonormal. ¿Es esto siempre posible? En el primer curso de Álgebra Lineal vimos que si tenemos en espacio euclideano, entonces sí. Esto está explicado a detalle en la entrada del Proceso de Gram-Schmidt.

Esta entrada está escrita únicamente en formato de recordatorio. Enunciamos los resultados principales, pero las demostraciones y más ejemplos se encuentran en otras entradas.

Teorema de Gram-Schmidt

El teorema de Gram-Schmidt asegura que dado un conjunto de vectores linealmente independientes en un espacio vectorial real con un producto interior dado, podemos encontrar otros vectores que ahora sean ortonormales, que generen lo mismo y que además «apunten hacia un lado similar» a los vectores originales. Además, asegura que estos vectores son únicos. El resultado concreto es el siguiente.

Teorema. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$. Sean $v_1,\ldots,v_d$ vectores linealmente independientes. Entonces, existen únicos vectores ortonormales $e_1,\ldots,e_d$ tales que para toda $k\in\{1,2,\ldots,d\}$ se tiene que $$\text{span}(e_1,\ldots,e_k)= \text{span}(v_1,\ldots,v_k)$$ y $\langle e_k, v_k \rangle >0$.

Muy a grandes rasgos, esta forma de escribir el teorema permite hacer inducción en $d$. Al pasar a un nuevo $d$, podemos usar hipótesis inductiva para construir $e_1,\ldots,e_{d-1}$. Así, sólo hay que ver cómo construir $e_d$ para que sea ortogonal a todos los anteriores y para que tenga norma $1$. Para encontrar a un buen candidato, se debe poner a $e_d$ en términos de los $e_1,\ldots,e_{d-1}$ y $v_d$, y se debe suponer que cumple lo deseado. Al hacer algunos productos interiores esto nos dice que $e_d$ forzosamente se construye definiendo

$$f_d=v_d-\sum_{i=1}^{d-1}\langle v_d, e_i\rangle e_i$$

y tomando $e_d=\frac{f_d}{\norm{f_d}}$.

En los detalles de la prueba se ve que este $e_d$ en efecto cumple todo lo deseado.

Si estamos en un espacio euclideano, entonces tenemos una base finita. Podemos usar esta en la hipótesis del teorema de Gram-Schmidt para concluir lo siguiente.

Corolario. Todo espacio euclideano tiene una base ortonormal.

Algoritmo de Gram-Schmidt

La demostración del teorema de Gram-Schmidt a su vez da un algoritmo para encontrar de manera explícita la base ortonormal buscada. Es un algoritmo que poco a poco va construyendo los vectores. Supongamos que nos dan los vectores $v_1,\ldots,v_n$.

Para empezar, normalizamos $v_1$ para obtener $e_1=\frac{v_1}{\norm{v_1}}$. De aquí en adelante procedemos recursivamente. Si ya construimos $e_1,\ldots,e_k$, entonces podemos construir $e_{k+1}$ a través de la fórmula que pusimos, es decir, primero definimos

$$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i,$$

para luego tomar $e_{k+1}$ como la normalización de $f_{k+1}$, es decir, como $\frac{f_{k+1}}{\norm{f_{k+1}}}.$ Seguimos de esta manera hasta terminar.

El siguiente diagrama da una idea un poco más visual de cómo vamos haciendo las operaciones. Comenzamos con los vectores $v_1,\ldots,v_d$ de la fila superior. Luego, vamos construyendo a los $e_i$ y $f_i$ en el orden indicado por las flechas: $e_1,f_2,e_2,\ldots,f_{d-1},e_{d-1},f_d,e_d$. Para construir un $f_i$ usamos la fórmula con productos interiores. Para construir el $e_i$ correspondiente, normalizamos.

Intuición geométrica

Ya tenemos el lenguaje para entender mucho mejor el proceso de Gram-Schmidt. Si te das cuenta, cuando tomamos $$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i$$ justamente estamos aprovechando la descomposición

$$v_{k+1}= \left(\sum_{i=1}^{k}\langle v_{k+1}\right)+ f_{k+1}$$

de $v_{k+1}$ como suma de un elemento en espacio generado por $e_1,\ldots, e_k$ y uno en su ortogonal. El elemento del espacio generado lo obtenemos a través de la fórmula que sale de la descomposición de Fourier que vimos en la entrada anterior. El hecho de que $f_{k+1}$ esté en el ortogonal es lo que hace que cada nuevo vector sea ortogonal a los anteriores. Al final hay que normalizar $f_{k+1}$ para que la base sea ortonormal y no sólo ortogonal. Habría dos formas de hacerlo. Una es tomar $\frac{f_{k+1}}{\norm{f_{k+1}}}$. La otra es tomar $-\frac{f_{k+1}}{\norm{f_{k+1}}}$. El producto escalar positivo que pedimos es lo que nos da la unicidad.

Ejemplo de aplicación del algoritmo de Gram-Schmidt

Hagamos un ejemplo muy sencillo. Será sólo de práctica y como recordatorio. Hay ejemplos más interesantes en la entrada Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt.

Es sencillo verificar que $\langle (a,b,c), (x,y,z)\rangle =4ax+3by+2cz$ es un producto interior en $\mathbb{R}^3$. Vamos a ortonormalizar la base $(1,1,1)$, $(0,1,1)$, $(0,0,1)$.

En la notación del algoritmo, tenemos entonces $v_1=(1,1,1)$, $v_2=(0,1,1)$ y $v_3=(0,0,1)$. El primer paso es tomar $e_1=\frac{v_1}{\norm{v_1}}$. La norma de $v_1$ con este producto interior es $\sqrt{4+3+2}=3$. De este modo, $e_1=\left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right)$.

Teniendo $e_1$, podemos definir $f_2$ con la fórmula dada:

\begin{align*}
f_2&=v_2-\langle v_2, e_1 \rangle e_1\\
&=(0,1,1)-\left(4\cdot 0\cdot \frac{1}{3}+3\cdot 1 \cdot \frac{1}{3} + 2 \cdot 1 \cdot \frac{1}{3}\right)\left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=(0,1,1)-\frac{5}{3} \left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=\left(-\frac{5}{9},\frac{4}{9},\frac{4}{9}\right).
\end{align*}

De aquí, debemos normalizar $f_2$. Su norma es $$\sqrt{ \frac{100}{81}+\frac{48}{81}+\frac{32}{81} } = \frac{\sqrt{180}}{9}=\frac{2\sqrt{5}}{3}=\frac{10}{3\sqrt{5}}.$$ De este modo, $$e_2=\left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)$$

Teniendo $e_1$ y $e_2$, podemos definir $f_3$ con la fórmula dada:

\begin{align*}
f_3&=v_3-\langle v_3, e_1 \rangle e_1 – \langle v_3, e_2 \rangle e_2\\
&=(0,0,1)-\frac{2}{3} \left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right) – \frac{4\sqrt{5}}{15} \left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)\\
&=(0,0,1)-\left(\frac{2}{9}, \frac{2}{9} , \frac{2}{9} \right)-\left(-\frac{2}{9},\frac{8}{45},\frac{8}{45}\right)\\
&=\left(0, -\frac{2}{5},\frac{3}{5}\right).
\end{align*}

De aquí, debemos normalizar $f_3$. Su norma es $$\sqrt{\frac{12}{25}+\frac{18}{25}}=\frac{\sqrt{6}}{\sqrt{5}}=\frac{6}{\sqrt{30}}.$$ De este modo, $$e_3=\left( 0, -\frac{\sqrt{30}}{15}, \frac{\sqrt{30}}{10}\right).$$

Hemos encontrado la base ortonormal buscada $e_1,e_2,e_3$.

$\triangle$

Más adelante…

Con esta entrada-recordatorio terminamos la segunda unidad del curso. A partir de ahora es importante que recuerdes que todo espacio euclideano tiene una base ortonormal. También es útil que recuerdes cómo se obtiene, así que asegúrate de practicar el proceso de Gram-Schmidt.

Todo lo que hemos mencionado tiene su análogo en espacios vectoriales sobre los complejos con un producto interior hermitiano. Asegúrate de entender las diferencias y de realizar los ejercicios que te permitirán entender los resultados correspondientes.

En la siguiente unidad desarrollaremos la teoría necesaria para poder enunciar y demostrar tanto el teorema espectral real, como el teorema espectral complejo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Haz la demostración del teorema de Gram-Schmidt a partir del esquema comentado en la entrada. En caso de que se te dificulte, revisa los detalles en la entrada de blog correspondiente.
  2. Para verificar que todo esté en orden, verifica que los vectores $e_1,e_2,e_3$ del ejemplo en efecto son una base ortonormal con el producto interior dado.
  3. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden? ¿Es conveniente tomar algún otro orden para simplificar las cuentas?
  4. Aplica el proceso de Gram-Schmidt a los vectores \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*} en $\mathbb{R}^4$ con el producto interior canónico (el producto punto).
  5. Enuncia y demuestra un teorema de Gram-Schmidt para espacios vectoriales sobre $\mathbb{C}$ con un producto interior hermitiano. Obtén el corolario correspondiente para los espacios hermitianos. Aplica este proceso a los vectores $(1+i,1+i,1+i),(0,1+i,1+i),(0,0,1+i)$ de $\mathbb{C}^3$ con el producto hermitiano canónico para obtener una base ortonormal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunta de una transformación lineal

Por Ayax Calderón

Introducción

En esta tercera unidad estudiaremos algunos aspectos geométricos de transformaciones lineales. Para ello, lo primero que haremos será introducir la noción de la adjunta de una transformación lineal. Esto nos permitirá más adelante poder hablar de varias transformaciones especiales: normales, simétricas, antisimétricas, ortogonales. De entrada, las definiciones para cada uno de estos conceptos parecerán simplemente un juego algebraico. Sin embargo, poco a poco descubriremos que pidiendo a las transformaciones lineales cierta propiedad con respecto a su adjunta, podemos recuperar muchas propiedades geométricas bonitas que satisfacen.

Un ejemplo de esto serán las transformaciones ortogonales. Estas serán las transformaciones que, a grandes rasgos, no cambian la norma. Daremos un teorema de clasificación para este tipo de transformaciones: veremos que sólo son reflexiones o rotaciones en ciertos ejes. Después estudiaremos las transformaciones simétricas y veremos un resultado fantástico: el teorema espectral. Este teorema nos garantizará que toda transformación simétrica en $\mathbb{R}$ puede ser diagonalizada, y de hecho a través de una transformación ortogonal.

El párrafo anterior nos dice que las transformaciones ortogonales y las simétricas serán «fáciles de entender» en algún sentido. Esto parece limitado a unas familias muy particulares de transformaciones. Sin embargo, cerraremos la unidad con un teorema muy importante: el teorema de descomposición polar. Gracias a él lograremos entender lo que hace cualquier transformación lineal. Tenemos un camino muy interesante por recorrer. Comencemos entonces con la idea de la adjunta de una transformación lineal.

La adjunta de una transformación lineal

Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Tomemos una transformación lineal $T:V \to V$. Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle$ es una forma lineal. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

Esta asignación de este vector $T^\ast$ es lineal, ya que al vector $ry_1+y_2$ para $r$ escalar y $y_1,y_2$ en $V$ se le asigna la forma lineal $x\mapsto \langle T(x),ry_1+y_2\rangle=r\langle(T(x),y_1\rangle + \langle (T(x),y_2)$, que se puede verificar que le corresponde en la representación de Riesz el vector $rT^\ast(y_1)+T^\ast(y_2)$.

De esta manera, podemos correctamente enunciar la siguiente definición.

Definición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la asignación $T\mapsto T^*$ es una transformación auto-inversa sobre $V$.

La matriz de la transformación adjunta

Tenemos que $T^{**}=T$. Esto debería recordarnos a la transposición de matrices. En efecto, en cierto sentido podemos pensar a la transformación $T^\ast$ algo así como la transpuesta de la transformación (por lo menos en el caso real, para espacios sobre $\mathbb{C}$ será algo ligeramente distinto).

La siguiente proposición nos ayudará a reforzar esta intuición.

Proposición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$ y $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)={}^t\text{Mat}_{\mathcal{B}}(T).$$

En palabras, bajo una base ortonormal, la adjunta de una transformación tiene como matriz a la transpuesta de la transformación original.

Solución. Sea $A=\text{Mat}_{\mathcal{B}}(T)$ y $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$. Para cada $i\in\{1,\ldots,n\}$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$$ y de que la base $\mathcal{B}$ es ortonormal, se tiene que $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_{kj}\langle e_i,e_k \rangle = b_{ij}.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$ para cada $i,j$ en $\{1,\ldots, n\}$, que precisamente significa que $B= {}^tA$.

$\square$

Ejemplos de encontrar una adjunción

La proposición de la sección anterior nos da una manera práctica de encontrar la adjunción para transformaciones lineales.

Ejemplo. Encontraremos la transformación adjunta a la transformación lineal $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T((x,y))=(y-x,y+2x)$. Por la proposición de la sección anterior, basta expresar a $T$ en una base ortonormal y transponer. Usemos la base canónica de $\mathbb{R}^2$. En esta base, la matriz que representa a $T$ es $\begin{pmatrix} -1 & 1 \\ 2 & 1 \end{pmatrix}$. Por ello, la matriz que representa a $T^\ast$ es la transpuesta, es decir $\begin{pmatrix} -1 & 2 \\ 1 & 1 \end{pmatrix}$. De este modo, concluimos que $T^\ast((x,y)) = (-x+2y,x+y)$.

Podemos verificar que en efecto esta transformación satisface la definición de adjunción. Por un lado,

$$\langle T((a,b)), (c,d) \rangle = (b-a,b+2a)\cdot (c,d)= bc-ac+bd+2ad,$$

y por otro

$$ \langle (a,b), T((c,d)) \rangle = (a,b) \cdot (-c+2d,c+d) = -ac +2ad + bc +bd.$$

Ambas expresiones en efecto son iguales.

$\triangle$

Problema. Demuestra que una transformación lineal $T$ en un espacio euclideano de dimensión finita y la adjunta $T^\ast$ de $T$ tienen el mismo determinante.

Solución. El determinante de una transformación es igual al determinante de cualquiera de las matrices que la represente. Así, si $A$ es la forma matricial de $T$ bajo una base ortonormal, se tiene que $\det(A)=\det(T)$. Por la proposición de la sección anterior, $^tA$ es la forma matricial de $T^\ast$ en esa misma base, de modo que $\det({}^tA)=\det(T^\ast)$. Pero una matriz y su transpuesta tienen el mismo determinante, de modo que $$\det(T^\ast)=\det({}^tA)=\det(A)=\det(T).$$

$\square$

Más adelante…

La noción de transformación adjunta es nuestra primera noción fundamental para poder definir más adelante transformaciones que cumplen propiedades geométricas especiales. Con ella, en la siguiente entrada hablaremos de transformaciones simétricas, antisimétricas y normales.

Toma en cuenta que las definiciones que hemos dado hasta ahora son para espacios euclideanos, es decir, para el caso real. Cuando hablamos de espacios hermitianos, es decir, del caso complejo, los resultados cambian un poco. La transformación adjunta se define igual. Pero, por ejemplo, si la matriz que representa a una transformación es $A$, entonces la que representará a su adjunta no será la transpuesta, sino más bien la transpuesta conjugada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Encuentra la transformación adjunta para las siguientes tranformaciones lineales:
    • $T:\mathbb{R}^2\to \mathbb{R}^2 $ dada por $T(x,y)=(2y-x,2x+y)$.
    • $T:\mathbb{R}^3\to \mathbb{R}^3$ dada por $T(x,y,z)=(x+y+z,y+z,z)$.
    • $T:\mathbb{R}^n \to \mathbb{R}^n$ tal que para la base canónica $e_1,\ldots,e_n$ cumple que $T(e_i)=e_{i+1}$ para $i=1,\ldots,n-1$ y $T(e_n)=0$.
  2. Considera el espacio vectorial $M_n(\mathbb{R})$. En este espacio, la operación transponer es una transformación lineal. ¿Cuál es su transformación adjunta?
  3. Completa los detalles de que $T^\ast$ es en efecto una transformación lineal.
  4. Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano y $\lambda$ es un eigenvalor de $T$, entonces $\lambda$ también es un eigenvalor de $T^\ast$. De manera más general, demuestra que $T$ y $T^\ast$ tienen el mismo polinomio característico.
  5. Sea $V$ un espacio euclidiano y $T:V\to V$. ¿Es cierto que para todo polinomio $p$ se cumple que $p(T)^\ast=p(T^\ast)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz $A$ es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en $M_n(\mathbb{R})$ siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo $F$, no tenemos la garantía de que las matrices simétricas en $M_n(F)$ también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

$A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}$

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si $A$ fuese diagonalizable, es decir, que existe una matriz invertible $P$ y una diagonal $D$ tal que $A=P^{-1}DP$, entonces $A$ y $D$ tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de $A$: buscamos $\lambda \in \mathbb{C}$ tal que $\text{det}(\lambda I-A)=0$,

\begin{align*}
\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & i \\ i & \lambda +1 \end{vmatrix} \\
&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\
&=\lambda^2=0.
\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de $A$ (y también el eigenvalor de $D$) es $\lambda =0$. Si $D$ es de la forma

$D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}$,

es fácil ver (y calcular) que sus eigenvalores son $a$ y $b$, pero por lo anterior, podemos concluir que $a=b=0$, y por lo tanto $D$ es la matriz cero. Si fuese así, $A=P^{-1}DP=0$, contradiciendo la definición de $A$.

$\square$

Problema 2. Sea $A$ una matriz simétrica con entradas reales y supongamos que $A^k=I$ para algún entero positivo $k$. Prueba que $A^2=I$.

Solución. Dado que $A$ es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son $k$-raíces de la unidad, entonces deben ser $\pm 1$. Esto implica que todos los eigenvalores de $A^2$ son iguales a 1. Dado que $A^2$ también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto $A^2=I$.

$\square$

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio $V$, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

$\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}$.

Por ende, decimos que una transformación es acotada si su norma es acotada, $\norm{T}<\infty$.

Problema 1. Sea $V$ un espacio euclideano y sea $T$ una transformación lineal simétrica en $V$. Sean $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $T$. Prueba que

$\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.$

Solución. Renumerando a los eigenvalores, podemos decir que $\max_i |\lambda_i|=|\lambda_n|$. Sea $e_1,\ldots,e_n$ una base ortonormal de $V$ tal que $T(e_i)=\lambda_i e_i$ para todo $i$. Si $x\in V\setminus {0}$, podemos escribirlo como $x=x_1e_1+\ldots+x_n e_n$ para algunos reales $x_i$. Entonces, por linealidad de $T$,

$T(x)=\sum_{i=1}^n \lambda_i x_ie_i.$

Dado que $|\lambda_i|\leq |\lambda_n|$ para toda $i$, tenemos que

$\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,$

por lo tanto

\begin{align*}
\max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\
&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\
&\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|.
\end{align*}

Obteniendo lo que queremos.

$\square$

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

$A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.$

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

\begin{align*}
0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\
&= \lambda^3-\lambda^2-\lambda+1 \\
&= (\lambda -1)(\lambda^2 -1),
\end{align*}

entonces los eigenvalores de $A$ son $1,-1$, ($\lambda=1$ tiene multiplicidad 2).

Ahora, hay que encontrar los vectores $v=(x,y,z)$ tal que $Av=\lambda v$, para todo eigenvalor $\lambda$.

Si $\lambda=-1$,

$(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0, $

reduciendo, obtenemos que $v=(3\alpha, -2\alpha, \alpha)$ para todo $\alpha\in \mathbb{R}$.

Si $\lambda=1$, resolviendo de la misma manera $(\lambda I-A)v=(I-A)v=0$, tenemos que $v=(\beta,\gamma,-3\beta+2\gamma)$ para todo $\beta,\gamma$. Entonces el conjunto de eigenvectores es

$B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.$

Es fácil ver que el conjunto $B$ es linealmente independiente, más aún $\text{dim}(\mathbb{R}^3)=3=|B|$, por lo tanto, $B$ es la base consistente con los eigenvectores de $A$.

$\triangle$

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de desigualdades vectoriales

Por Ayax Calderón

Introducción

En esta entrada practicaremos las dos desigualdades vectoriales que hemos visto anteriormente: la desigualdad de Cauchy – Schwarz y con la desigualdad de Minkowski. Veremos que de ellas se obtiene información valiosa sobre los espacios con producto interior.

Como ya se menciono en otras entradas del blog, estos espacios son muy importantes más allá del álgebra lineal, pues también aparecen en otros áreas como el análisis matemático, variable compleja, probabilidad, etc. Así mismo, los espacios vectoriales con producto interior tienen muchas aplicaciones en el mundo real. Por esta razón es muy importante aprender a detectar cuándo podemos usar desigualdades vectoriales.

Problemas resueltos

Comencemos con algunos problemas de desigualdades vectoriales que usan la desigualdad de Cauchy-Schwarz.

Problema 1. Demuestra que si $f:[a,b]\longrightarrow \mathbb{R}$ es una función continua, entonces

$$\left(\int_a ^b f(t)dt\right)^2 \leq (b-a)\int_a ^b f(t)^2 dt.$$

Demostración. Sea $V=\mathcal{C}([a,b],\mathbb{R})$ el espacio de las funciones continuas de $[a,b]$ en los reales.

Veamos que $\langle \cdot , \cdot \rangle: V\times V \longrightarrow \mathbb{R}$ definido por $$\langle f,g \rangle = \int_a^b f(t)g(t) \, dt$$ es una forma bilineal simétrica.

Sea $f\in V$ fija. Veamos que $g\mapsto \langle f,g \rangle$ es lineal.

Sean $g,h \in V$ y $k\in F$, entonces

\begin{align*}
\langle f,g+hk \rangle &= \int_a ^b f(t)(g(t)+kh(t))dt\\
&=\int_a ^b (f(t)g(t)+kf(t)h(t)) dt\\
&=\int_a ^b f(t)g(t)dt +k \int_a ^b f(t)h(t)dt\\
&=\langle f,g \rangle + k \langle f,h \rangle .
\end{align*}

Análogamente se ve que si $g\in V$ fija, entonces $f\mapsto \langle f,g \rangle$ es lineal.

Luego,
\begin{align*}
\langle f,g \rangle &= \int_a ^b f(t)g(t)\, dt\\
&= \int_a ^b g(t)f(t)\, dt\\
&= \langle g,f \rangle.
\end{align*}
Por lo tanto $\langle \cdot, \cdot \rangle$ es una forma bilineal simétrica.

Ahora observemos que $\langle \cdot ,\cdot \rangle$ es positiva.
$$\langle f,f \rangle = \int_a ^b f(t)^2 dt \geq 0$$ pues $f^2 (t)\geq 0$. Aunque no lo necesitaremos, mostremos además que que $\langle \cdot, \cdot \rangle$ es positiva definida. Si $f$ tiene algún valor $c$ en el interior de $[a,b]$ en la que $f(c)\neq 0$, como es continua, hay un $\epsilon>0$ tal que en todo el intervalo $(c-\epsilon,c+\epsilon)$ se cumple que $|f|$ es mayor que $|f(c)|/2$, de modo que
\begin{align*}
\langle f, f \rangle &= \int_a^b f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon} f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon}\frac{f(c)^2}{4} \, dt\\
&=\frac{\epsilon f(c)^2}{2}>0.
\end{align*}

Así, para que $\langle f, f \rangle$ sea $0$, es necesario que $f$ sea $0$ en todo el intervalo $(a,b)$ y por continuidad, que sea cero en todo $[a,b]$.

Sea $q$ la forma cuadrática asociada a $\langle \cdot, \cdot \rangle$.
En vista de todo lo anterior, podemos aplicar la desigualdad de Cauchy -Schwarz tomando $g$ la función constante $1$, es decir, tal que $g(x)=1$ para todo $x$ en $[a,b]$, la cual claramente es continua.

Entonces, $$\langle f,g \rangle &\leq q(f)q(g),$$ que substituyendo las definiciones es
\begin{align*}
\left( \int_a ^b f(t)\, dt\right)^2 &\leq \left(\int_a ^b f(t)^2 \, dt\right)\left(\int_a ^b 1^2\, dt\right)\\
&= (b-a)\int_a ^b f(t)^2 \, dt
\end{align*}

$\square$

Problema 2. a) Sean $x_1, \dots, x_n \in \mathbb{R}$. Demuestra que
$$ (x_1^2+\dots +x_n^2)\left(\frac{1}{x_1^2} + \dots + \frac{1}{x_n^2}\right) \geq n^2.$$
b) Demuestra que si $f:[a,b]\longrightarrow (0,\infty)$ es una función continua, entonces $$\left ( \int_a^b f(t)dt \right) \left (\int_a^b \frac{1}{f(t)}dt \right) \geq (b-a)^2$$

Demostración. a) Considera $\mathbb{R}^n$ con el producto interior usual. Sean $a,b\in\mathbb{R}^n$ dados por
\begin{align*}
a&=(x_1,\dots,x_n)\\
b&=\left( \frac{1}{x_1},\dots, \frac{1}{x_n}\right ).
\end{align*}

La desigualdad de Cauchy-Schwarz afirma que $\lvert \langle a,b \rangle \rvert \leq \norm{a} \norm{b}$. Se tiene que

\begin{align*}
\langle a,b \rangle &= (x_1,\ldots,x_n)\cdot \left(\frac{1}{x_1},\ldots,\frac{1}{x_n}\right)\\
&=1+1+\ldots+1\\
&=n,
\end{align*}

de modo que
\begin{align*}
|n|&\leq \norm{a} \norm{b}\\
&=\sqrt{(x_1^2+\dots +x_n^2)}\sqrt{\left(\frac{1}{x_1^2}+\dots + \frac{1}{x_n^2}\right )}.
\end{align*}

Si elevamos al cuadrado ambos extremos de esta igualdad, obtenemos la desigualdad deseada.

$\square$

b) En el problema 1 de esta entrada vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t) dt$$ es un producto interior para el espacio de funciones continuas en $[a,b]$, y el espacio de este problema es un subespacio del de funciones continuas, así que también define un producto interior aquí.

Para la función $f$ dada, definamos $\phi (t)=\sqrt{f(t)}$ y $\psi (t)=\frac{1}{\sqrt{f(t)}}$.
Notemos que $\phi$ y $\psi$ son continuas, y además como $\forall t\in [a,b]$ se tiene $f(t)\in(0,\infty)$, también tenemos que $\psi (t), \phi (t)\in (0,\infty)$.

Aplicando la desigualdad de Cauchy-Schwarz $$\langle \phi, \psi \rangle^2 \leq \langle \phi , \phi \rangle \langle \psi , \psi \rangle.$$

Entonces
$$ \left(\int_a^b \phi (t) \psi (t) dt\right)^2 \leq \left(\int_a^b \phi(t)^2 dt \right)\left( \int_a^b\psi (t)^2 dt \right).$$

Luego, substituyendo los valores de $\phi$ y $\psi$:
$$ \left( \int_a^b \sqrt{f(t)}\cdot \frac{1}{\sqrt{f(t)}}dt\right )^2 \leq \left(\int_a^b f(t) dt \right)\left ( \int_a^b\frac{1}{f(t)}dt \right).$$

Finalmente, haciendo la integral a la izquierda:
$$(b-a)^2\leq \left(\int_a^b f(t) dt \right)\left (\int_a^b \frac{1}{f(t)}dt \right).$$

$\square$

Hay algunos problemas de desigualdades en los reales que necesitan que usemos herramientas de desigualdades vectoriales.

Problema 3. Sean $x,y,z$ números mayores que 1, tales que $\frac{1}{x} + \frac{1}{y} + \frac{1}{z}=2$. Muestre que
$$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$


Demostración. Considera $\mathbb{R}^3$ con el producto interior usual y $u,v\in \mathbb{R}^3$ con
\begin{align*}
u&=\left(\sqrt{\frac{x-1}{x}}, \sqrt{\frac{y-1}{y}},\sqrt{\frac{z-1}{z}}\right),\\
v&=(\sqrt{x},\sqrt{y},\sqrt{z}).
\end{align*}

Aplicamos la desigualdad de Cauchy-Schwarz a $u$ y $v$:

\begin{align*}
\sqrt{x-1} +& \sqrt{y-1} + \sqrt{z-1}\\
&\leq \sqrt{\frac{x-1}{x}+\frac{y-1}{y}+\frac{z-1}{z}}\sqrt{x+y+z}\\
&=\sqrt{(1+1+1)-\left(\frac{1}{x}+\frac{1}{y}+\frac{1}{z}\right)}\sqrt{x+y+z}\\
&=\sqrt{3-2} \cdot \sqrt{x+y+z}\\
&=\sqrt{x+y+z}.
\end{align*}

Por lo tanto, $$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$

$\square$

Problema 4. Sea $f:[a,b]\longrightarrow (0,\infty)$ una función continua.
Demuestre que $$\int_a^b f(t)dt \leq \left ( (b-a)\int_a^b f(t)^2dt\right)^\frac{1}{2}.$$

Demostración. Ya vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t)dt$$ es un producto interior para el espacio de funciones continuas.
Considera $g$ la función constante $1$.

Aplicando la desigualdad de Minkowski se tiene que
$$\sqrt{\langle f+g,f+g \rangle}\leq \sqrt{\langle f,f \rangle} + \sqrt{\langle g,g \rangle}$$

Tenemos entonces que:

$$\left ( \int_a^b (f(t)+1)^2 dt \right)^\frac{1}{2} \leq \left( \int_a^b f(t)^2 dt \right)^\frac{1}{2} + \left ( \int_a^b dt\right )^\frac{1}{2}.$$

Desarrollando el cuadrado en el lado izquierdo,
$$\left (\int_a^b f(t)^2 dt +2\int_a^b f(t)dt +(b-a) \right )^\frac{1}{2} \leq \left(\int_a^bf(t)^2dt \right)^\frac{1}{2} + (b-a)^\frac{1}{2}$$

Luego, elevando ambos lados de la ecuación al cuadrado
$$\int_a^b f(t)^2 dt + 2\int_a^b f(t) dt +(b-a)$$
$$\leq \int_a^b f(t)^2 dt +2\sqrt{b-a}\left( \int_a^b f(t)^2 dt\right)^\frac{1}{2} +(b-a)$$

Finalmente, cancelando términos igual en ambos lados, obtenemos la desigualdad deseada

$$\int_a^b f(t) dt \leq \left((b-a) \int_a^b f(t)^2 dt\right)^\frac{1}{2}.$$

$\square$

Tarea Moral

  • Resuelve el problema 2.b usando la desigualdad de Minkowski.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»