Archivo del Autor: Diego Ligani Rodríguez Trejo

Álgebra lineal II: Espacios hermitianos y bases ortogonales complejas

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra Lineal II: Repaso de bases ortogonales y Gram-Schmidt

Introducción

En esta última parte de la unidad revisaremos la definición y aplicaciones de bases ortogonales, además veremos el proceso de Gram-Schmidt, lo repasaremos de una manera un tanto superficial ya que en estas entradas (Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt) lo estudiamos un poco más a fondo.

Continuando con lo visto en la entrada anterior, juntaremos dos definiciones ya revisadas para estudiar un poco más de ellas, concluiremos esta unidad revisando todas estas definiciones esta vez para espacios vectoriales complejos.

Familias ortogonales

Entendamos en esta entrada a $V$ un espacio vectorial real con producto interno $<,>$ y su norma asociada $||\cdot||$.

Definición

Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
\begin{align*} <v_i,v_j>=0 \qquad \forall i \neq j \in I. \end{align*}
Donde $I$ es un conjunto de indices cualquiera.

Más aún, a $(v_i)_{i \in I}$ le llamaremos ortonormal si es ortogonal y
\begin{align*} ||v_i||=\sqrt{<v_i,v_i>}=1 \qquad \forall i \in I.\end{align*}
Una base $\beta$ será una base ortogonal si es una familia ortogonal.

Y una base $\beta$ será base ortonormal si es una familia ortonormal.

Como siempre, sería conveniente conocer ejemplos de estos cuatro conjuntos podemos pensar en dos muy sencillos.

Si $V= \mathbb{R}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal, puedes notar la similitud de ambas, ¿Será que siempre que tenemos un base ortogonal podemos obtener una ortonormal?

Afortunadamente la respuesta es que sí, si $\beta=\{ u_1, \cdots , u_n \}$ es una base ortogonal entonces
\begin{align*} \beta’=\{ \frac{u_1}{||u_1||}, \cdots , \frac{u_n}{||u_n||} \} \end{align*}
Es una base ortonormal

Una propiedad sumamente importante de los conjuntos ortogonales es vista en la siguiente proposición demostrada aquí.

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ es linealmente independiente.

Más aún, esto nos da otro criterio para encontrar bases.

Corolario

Toda familia ortogonal sin vectores cero en un espacio euclidiano de dimensión $n$ tiene a lo más $n$ elementos.
Más aún, una familia ortogonal $(v_i)_{i \in I}$ tiene $n$ elementos si y solo si es una base ortogonal.

La demostración a este resultado la puedes encontrar repartida en varios pedazos en esta entrada, veamos una idea rápida, como toda familia ortogonal es linealmente independiente si suponemos que hay una que tiene más de $n$ elementos esto diría que $V$ tiene dimensión $n+1$ que sería contradictorio, también sabemos que una base es un conjunto linealmente independiente con $dim(V)$ elementos lo que ayuda a la demostración la doble implicación.

Recordemos ahora la descomposición de Fourier.

Definición

Sea $V$ euclidiano de dimensión $n$ y $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal, entonces $\forall v \in V$ la descomposición de Fourier de $v$ respecto a $\beta$ es
\begin{align*} v=\sum_{i=1}^n<v,e_i>e_i.\end{align*}
Algo que debes notar es que no sabemos si algún vector de $V$ se puede descomponer de esta manera, para ello veamos el siguiente resultado.

Proposición

Sea $V$ euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal, entonces $\forall v \in V$
\begin{align*} v=\sum_{i=1}^n<v,u_i>u_i.\end{align*}
De nuevo, la demostración completa la puedes encontrar aquí (Aplicaciones de bases ortogonales y descomposición de Fourier), pero revisemos una idea rápida.

Empezaremos demostrando que si $v \in V$ es tal que $v=\sum_{i=1}^nu_iv_i$ entonces para cualquier $i \in \{1, \cdots , n \}$ $v_i=<v,u_i>$, así calculemos este producto.
\begin{align*} <v,u_i>=<\sum_{j=1}^nu_jv_j,u_i>\end{align*}
Utilizando la linealidad de $<.>$ en la primera entrada
\begin{align*} <v,u_i>=\sum_{j=1}^nv_j<u_j,u_i>\end{align*}
y como sabemos que $\beta$ es ortogonal, se tiene que si $j \neq i $ entonces $<u_j,u_i>=0$ por lo que de esta suma el único coeficiente no cero es $<u_i,u_i>$, más aún como $\beta$ es ortonormal tenemos que $<u_i,u_i>=1$, por lo tanto
\begin{align*} <v,u_i>=v_i.\end{align*}
Finalmente, la descomposición de Fourier puede ser utilizada para calcular la proyección respecto a algún conjunto $W$ ($p_W$) que vimos en la entrada anterior, esto queda reflejado en el siguiente resultado.

Proposición

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortogonal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n \frac{<v,v_i>}{||v_i||^2}v_i.\end{align*}
Como te imaginarás la demostración de este resultado está aquí (Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt).

Proceso de Gram-Schmidt

De este último resultado podemos obtener la siguiente proposición.

Proposición (Desigualdad de Bessel)

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortonormal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n <v,v_i>v_i.\end{align*}
Y
\begin{align*} d(v,W)^2=||v-\sum_{I=1}^n <v,v_i>v_i||^2=||v||^2-\sum_{I=1}^n <v,v_i>^2. \end{align*}
En particular
\begin{align*} ||v||^2 \geq \sum_{I=1}^n <v,v_i>^2. \end{align*}
La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt.

Terminaremos con dos resultados sumamente importantes.

Primero, quisiéramos garantizar que, en todo espacio euclídeo se puede encontrar una base ortonormal, para ello el siguiente resultado.

Proposición

Todo espacio euclidiano tiene una base ortonormal.

Y de hecho no lo probamos directamente, vimos una versión más fuerte e incluso un algoritmo de cómo encontrar esta base, esto es conocido como el proceso de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sea $V$ (no necesariamente de dimensión finita) y $\{u_1 , \cdots u_n \}$ un conjunto linealmente independiente, entonces existe $\{e_1 , \cdots e_n \}$ una única familia ortonormal tal que
\begin{align*} span(u_1, \cdots , u_n)=span(e_1, \cdots , e_n)\end{align*}
Y
\begin{align*} \langle e_k,u_k \rangle > 0\end{align*}
Para cualquier $k \in \{1, \cdots , n\}$.

Como en las proposiciones anteriores, la demostración está aquí (Proceso de Gram-Schmidt), aplicándolo a nuestro problema en específico, si $\{u_1 , \cdots u_n \}$ es una base (lo que implicaría que $V$ es euclídeo) entonces siempre se puede encontrar $\{e_1 , \cdots e_n \}$ una única familia ortonormal, que en particular al ser ortogonal garantiza que es linealmente independiente y esto junto al hecho de que tiene $n$ elementos en un espacio de dimensión $n$ garantiza que es una base.

Aunque no hayamos visto la demostración aquí, vale la pena recordar el proceso de Gram-Schmidt.

Si tenemos una base $\{u_1 , \cdots u_n \}$, definiremos
\begin{align*} f_k=v_k-\sum_{i=1}^{k-1}<v_k,e_i>e_i\end{align*}
Y obtendremos $e_k$ como sigue
\begin{align*} e_k=\frac{f_k}{||f_k||}\end{align*}
Para cualquier $k \in \{1,\cdots , n \}$, de esta manera el nuevo conjunto que formemos $\{e_1 , \cdots e_n \}$ es una base ortonormal

Ejemplo

Sea $V$ el espacio de polinomios en $[0,1]$ con coeficientes reales de grado a lo más 2, con el producto interior
\begin{align*}\langle p,q \rangle =\int_0^1 p(x)q(x) dx. \end{align*}

Sean $v_1=1$, $v_2=1+x$, $v_3=1+x^2$ vectores en $V$ notemos que son linealmente independientes. Así, encontremos los vectores que nos da el proceso de Gram-Schmidt.

Primero notemos que $f_1=v_1$ por lo que $e_1=\frac{f_1}{||f_1||}$ así calculemos $||f_1||$
\begin{align*} \norm{f_1}^2=\int_0^1 1 dx= 1 \end{align*}
entonces $e_1=\frac{f_1}{\norm{f_1}}=f_1=1$.

De la misma manera para $e_2$
\begin{align*}
f_2&=v_2-\langle v_2,e_1 \rangle e_1 \\
&=1+x- \int_0^1 (1+x)dx=1+x-\left(1+\frac{1}{2}\right) \\
&=x-\frac{1}{2}.
\end{align*}
Así para obtener $||f_2||$ hay que resolver $$\int_0^1 \left(x-\frac{1}{2}\right)^2 dx$$ de donde obtenemos $\norm{f_2}=\sqrt{\frac{1}{12}}$, entonces $e_2=\sqrt{12}\left(x-\frac{1}{2}\right)$.
Por último, calculemos $f_3$ así como su norma. Primero,
\begin{align*}
f_3&=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2 \\
&=(1+x^2)-\int_0^1 (1+x^2)dx – 12\left(x-\frac{1}{2}\right)\int_0^1 (1+x^2)\left(x-\frac{1}{2}\right)dx \\
&=1+x^2-\left(1+\frac{1}{3}\right)-12\left(x-\frac{1}{2}\right)\left(\frac{1}{12}\right) \\
&=x^2-\frac{1}{3}-x+\frac{1}{2} \\
&=x^2-x+\frac{1}{6},
\end{align*}

y luego, con la integral $$\int_0^1 \left(x^2-x+\frac{1}{6}\right)^2 dx$$ se calcula que $\norm{f_3}=\frac{1}{6\sqrt{5}}$, por lo tanto $e_3=6\sqrt{5}\left(x^2-x+\frac{1}{6}\right)$.

Más adelante

Con esto podemos pensar como concluida esta unidad de curso, aunque veremos una entrada más, estudiaremos como se traducen estos resultados a espacios vectoriales complejos y que cambios se deben hacer a estos.

En la siguiente unidad estudiaremos un poco más de un concepto el cual tocamos un poco pero no abundamos en él, la transformación adjunta, así como sus propiedades y esto nos servirá de punto de partida para nuevos conceptos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Revisa las demostraciones completas de cada uno de los resultados aquí vistos.
  2. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más 2, dado $p,q \in V$ definamos el producto interno en $V$ como sigue $$<p,q>=p(0)q(0)+p(1)q(1)+p(2)q(2)$$ Demuestra que $<,>$ es efectivamente un producto interno.
  3. Con la notación del problema anterior, aplica el proceso de Gram-Schmidt a $1, x, x^2 $
  4. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden?
  5. Aplica el proceso de Gram-Schmidt a los vectores
    \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*}
    En $\mathbb{R}^4$ con el producto interior canónico. ¿Es esta una base de $\mathbb{R}^4$?

Entradas relacionadas

Álgebra lineal II: Dualidad y ortogonalidad

Introducción

En entradas anteriores mencionamos y utilizamos propiedades del espacio dual y del producto interno, en esta entrada nos enfocaremos más en la relación de las formas bilineales, (específicamente el producto interno) con este concepto.

También veremos el concepto de ortogonalidad con respecto a una forma bilineal, lo que dará paso a un teorema muy importante (El teorema de representación de Riesz) e incluso nos permitirá definir conceptos como distancia entre un conjunto y un elemento.

Dualidad

De aquí en adelante, asumiremos que $V$ es un $\mathbb{R}$-espacio vectorial, no necesariamente de dimensión finita. Definamos una función que utilizaremos mucho como sigue

Sea $b$ una forma bilineal en $V$.
\begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(y)=b(\cdot, y ) \end{align*}
Donde $b( \cdot , y)$ es la función que envía $x$ a $b(x,y)$, además sabemos que es lineal ya que
$b$ es bilineal, lo que significaba que es lineal en la primera entrada, por lo que pertenece a $V^*$ (el espacio dual de V, puedes leer un poco más de este y de las bases duales aquí).

Proposición

Sea $\mathcal{B}$ base de $V$ de dimensión finita, $\beta’$ su base dual y $b$ forma bilineal en $V$. Prueba que la matriz de $\varphi_b$ respecto a $\beta$ y $\beta’$ es la matriz de $b$ respecto a $\beta$.

Demostración

Sea $\beta=\{ u_1, \cdots , u_n \}$ y $\beta’=\{ u’_1, \cdots , u’_n \}$ y sea $B$ la matriz asociada a $\varphi_b$ respecto a $\beta$ y $\beta’$, primero calcularemos su $j$-esima columna.
\begin{align*} \varphi_b(u_j)=b(\cdot,u_j) \end{align*}
Como no es natural la forma de escribir $\varphi_b(u_j)$ en términos de $\beta’$, calculemos $\varphi_b(u_j)(x)$ para algún $x \in V$
\begin{align*} \varphi_b(u_j)(x)=b(x,u_j) \end{align*}
Si $x=\sum_{i=1}^nu_ix_i$, entonces
\begin{align*} \varphi_b(u_j)(x)=b(\sum_{i=1}^nu_ix_i,u_j)= \sum_{i=1}^nx_ib(u_i,u_j)\end{align*}
Por otro lado, sabemos que para cualquier $x \in V$ $u^*_i(x)=x_i$, sustituyendo esto en la igualdad anterior
\begin{align*} \varphi_b(u_j)(x)= \sum_{i=1}^nu^*_i(x)b(u_i,u_j)\end{align*}
Para cualquier $x \in V$, por lo que
\begin{align*} \varphi_b(u_j)= \sum_{i=1}^nu^*_ib(u_i,u_j)\end{align*}
así, la $j-esima$ columna es de la forma
\begin{pmatrix} b(u_1,u_j) \\
\vdots \\
b(u_n,u_j) \end{pmatrix}
Así, podemos escribir $B$ como
B=\begin{pmatrix} b(u_1,u_1) & \cdots & b(u_1,u_n) \\
\vdots & \ddots & \vdots \\
b(u_n,u_1) & \cdots & b(u_n,u_n) \end{pmatrix}
Que sabemos es la matriz de $b$ respecto a $\beta$.

$\square$

Proposición (Teorema de representación de Riesz)

Sea $V$ un espacio euclidiano (espacio vectorial sobre $\mathbb{R}$ de dimensión finita) con producto interno $<,>$. La función $\varphi_{<,>}: V \rightarrow V^*$ es un isomorfismo.

Demostración

Empecemos con la inyectividad, sea $y \in V$ tal que $\varphi_{<,>}(y)=\overline{0}$ donde $\overline{0}$ es la función constante 0, dado esto, tenemos que para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(y)(x)=<x,y>=0 \end{align*}
Esto aplica en particular para sí mismo, por lo que
\begin{align*} \varphi_{<,>}(y)(y)=<y,y>=0 \end{align*}
Como $<,>$ es un producto interior, esto implica que $y=0$
Por lo que $ker(\varphi_{<,>})=\{0\}$, por lo que $\varphi_{<,>}$ es inyectiva.

Aparte, veamos que es lineal, calculemos $\varphi_{<,>}(\lambda a+b)$ con $\lambda \in \mathbb{R}$ y $a,b \in V$.
\begin{align*} \varphi_{<,>}(\lambda a + b)=<\cdot , \lambda a+ b> \end{align*}
calculando esto para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(\lambda a + b)(x)=<x , \lambda a + b> \end{align*}
y sabemos que $<,>$ es lineal en la segunda entrada por lo que
\begin{align*} <x , \lambda a + b>=\lambda<x , a> + < x , b >=\lambda\varphi_{<,>}(a)(x)+\varphi_{<,>}(b)(x) \end{align*}
Por lo que
\begin{align*} \varphi_{<,>}(\lambda a + b)=\lambda\varphi_{<,>}(a)+\varphi_{<,>}(b) \end{align*}
Lo por lo tanto $\varphi_{<,>}$ es lineal, finalmente, que $\varphi_{<,>}$ sea inyectiva, lineal y que $dim(V)=dim(V^*)$ implica que $\varphi_{<,>}$ es un isomorfismo.

$\square$

Ortogonalidad

Definición

Sea $V$ y $b$ una forma bilineal en $V$.

  • Dos vectores $x,y \in V$ serán ortogonales (respecto a $b$) si $b(x,y)=0$.
  • Sea $S \subseteq V$ el conjunto ortogonal de $S$ ($S^{\bot}$) es
    \begin{align*} S^{\bot}=\{v \in V : \forall s \in S, b(s,v)=0 \}.\end{align*}
  • $S,T \subseteq V$ serán ortogonales si S \subseteq $T^{\bot}$.

Observación (Teorema de Pitágoras)

Supongamos que $<,>$ es un producto interno en $V$ con $||\cdot||$ su norma asociada (es decir $||x||=\sqrt{<x,x>}$), entonces $x,y \in V$ son ortogonales si y solo si
\begin{align*} ||x+y||^2=||x||^2+||y||^2 \end{align*}
Demostración

Se sigue directamente de la identidad
\begin{align*} ||x+y||^2=||x||^2+2<x,y>||y||^2 \end{align*}

$\square$

Proposición

Sea $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
\begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*}
Y $(W^{\bot})^{\bot}=W$

Probaremos de hecho algo aún más fuerte.

Proposición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita. Entonces
\begin{align*} W \oplus W^{\bot} = V\end{align*}
Más aún $(W^{\bot})^{\bot}=W$

Demostración

Sea $<,>$ el producto interno de $V$, si tenemos que $x \in W \cap W^{\bot}$ tenemos que $x$ es ortogonal a $x$ por lo que
\begin{align*} <x,x>=0\end{align*}
lo que implica que $x=0$, por lo tanto $W \cap W^{\bot}= \{0\}$.

Por otro lado, sea $x \in V$ un vector cualquiera, podemos definir $f:W \rightarrow \mathbb{R}$ tal que $f(y):<x,y>$ que sabemos es una función lineal por lo que $f \in V^*$ como $W$ es de dimensión finita y tiene un producto interno (heredado de V) este cumple las hipótesis del teorema de representación de Riesz, así, sabemos que existe una única $z \in W$ tal que $f(y)=<z,y>$ para cualquier $y \in W$ de esta manera
\begin{align*} 0=f(y)-f(y)=<x,y>-<z,y>=<x-z,y>\end{align*}
Para cualquier $y \in W$ por lo que $x-z =w \in W^{\bot}$ entonces
\begin{align*} x=w+z\end{align*}
con $w \in W^{\bot}$ y $z \in W$, por lo tanto
\begin{align*} W + W^{\bot} = V\end{align*}
Y esto con el párrafo anterior implican que
\begin{align*} W \oplus W^{\bot} = V.\end{align*}

$\square$

Así la proposición más débil, se sigue directamente de esta, con la parte acerca de la dimensión implicada debido a que $W$ y $W^{\bot}$ están en posición de suma directa.

Definición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita, la proyección ortogonal hacia $W$ es
\begin{align*} p_W:V \rightarrow W \end{align*}
Con $p_W(x)$ el único vector en $W$ tal que $x-p_W(x) \in W^{\bot}$.

Definición

Sea $V$ euclidiano, una función lineal $p: V \rightarrow V$ será una proyección ortogonal si existe $W$ subespacio de $V$ tal que $p$ es la proyección ortogonal hacia $W$.

Proposición

Sea $V$ con producto interno $<.>$ y $|| \cdot ||$ su norma asociada. Sea $W \subseteq V$ un subespacio de dimensión finita y sea $v \in V$. Entonces
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Más aún, $p_w(v)$ es el único elemento con esta propiedad.

Demostración

Sea $x \in W$ un elemento cualquiera de $W$, primero notemos que $x – p_W(v) \in W$ y $v-p_W(v) \in W^{\bot}$, por lo que estos dos son ortogonales, así calculemos
\begin{align*} ||x-v||^2=||(x-p_W(v))+(p_W(v)-v)||^2= ||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \end{align*}
esta igualdad se cumple por el teorema de Pitágoras que fue una observación aquí arriba. Continuando con esta cadena
\begin{align*} ||x-v||^2=||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo tanto $\forall x \in W$ tenemos que $||x-v|| \geq ||(p_W(v)-v)||$ más aún por definición sabemos que $p_W(v) \in W$ por lo que
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Para probar la unicidad, supongamos que existe $x’ \in W$ tal que
\begin{align*}||v-x’||= min_{x \in W} ||x-v|| \end{align*}
Utilizando el procedimiento anterior tenemos que
\begin{align*} ||(p_W(v)-v)||^2=||x’-v||^2=||(x’-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo que se debe cumplir la desigualdad y notemos que esto pasa si y solo si
\begin{align*} 0=||(x’-p_W(v))||^2 \end{align*}
Que sucede si y solo si
\begin{align*} x’=p_W(v) \end{align*}
Por lo que $p_W(v)$ es único.

$\square$

utilizando este resultado, podemos dar una definición de distancia que coincida con las definiciones que tal vez has visto en otras materias

Definición

Con la notación del teorema anterior, la distancia de $v$ a $W$ es
\begin{align*}d(v,W)=||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}

Más adelante

En esta entrada mencionamos bases, bases duales y conjuntos ortogonales, una de las costumbres en el estudio de las matemáticas es intentar combinar resultados y definiciones con el fin de obtener resultados nuevos, por lo que no te debe de sorprender que hagamos eso mismo en las siguientes entradas.

Empezaremos en la siguiente entrada un pequeño repaso de vases ortogonales y ortonormales, así como el teorema de Gram-Schmidt. Y como es costumbre, terminaremos esta unidad revisando resultados análogos a los de estas dos entradas, pero esta vez para espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a \begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(x)=b(x, \cdot )? \end{align*} ¿Cambia algo en los resultados vistos?
  2. Demuestra sin utilizar la versión más fuerte de este resultado que dado $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
    \begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*} Y $(W^{\bot})^{\bot}=W$. ¿Es necesaria la hipótesis de que $W$ sea de dimensión finita?
  3. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$ encuentra a $W^{\bot}$ y define la proyección ortogonal hacia $W$, $p_W$.
  4. Encuentra el vector en $Span((1,2,1), (-1,3,-4))$ que es el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  5. Sea $V$ un espacio euclidiano y $T : V \rightarrow V $ una transformación lineal tal que $T^2=T$ prueba que T es una proyección ortogonal si y solo si $\forall x,y \in V$ $<T(x),y>=<x,T(y)>$.

Entradas relacionadas

Álgebra lineal II: Formas sesquilineales y matrices

Introduccíon

Como en las entradas anteriores, una vez que estudiamos formas bilineales y cuadráticas, intentamos expandir esta definición a los números complejos con las formas sesquilineales y hermitianas cuadráticas, esta vez será lo mismo, una vez que entendemos la relación entre matrices y formas bilineales, ahora intentaremos entender la relación que existe entre matrices y formas sesquilineales.

En esta entrada veremos que gran parte de la relación que había para el caso real se mantiene al pasar a los complejos, si es que, agregando una condición, por lo que veremos el análogo a la gran mayoría de resultados vistos en las últimas dos entradas, por lo que te recomendamos tener a la mano las entradas sobre formas bilineales y matrices (Ambas partes) y formas sesquilineales.

Matriz asociada

De aquí en adelante, asumiremos que $V$ siempre es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita y $\mathcal{B}=\{u_1, \cdots u_n\}$ una base de $V$. Tambien recordemos que $S(V)$ se definió como el espacio de formas sesquilineales en V.

Definición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. La matriz de $\varphi$ con respecto $\mathcal{B}$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j)\end{align*}
Para todo $i,j$ tal que $1 \leq i,j \leq n$.

Notemos que a las formas sesquilineales no se les pidió ser simétricas. (¿por qué?)

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial.

Proposición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. Prueba que $\forall x,y \in V$
\begin{align*} \varphi(x,y)=X^*AY\end{align*}
Con $X,Y$ los vectores columna con coordenadas $x_1, \cdots x_n$ y $y_1, \cdots y_n$ respectivamente tales que $x=\sum_{i=1}^nu_1x_1$ y $y=\sum_{j=1}^nu_jy_j$ y $X^*=\text{ }^t\overline{X}$.

Demostración

Calculemos $\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)$ como sabemos que $\varphi$ es sesquilineal, tenemos
\begin{align*}\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)=\sum_{i=1}^n\sum_{j=1}^n \overline{x_1} y_j\varphi(u_i,u_j)\end{align*}
Donde notemos que la única diferencia con las funciones bilineales es que en la primera coordenada, las $x_i$ salen como conjugadas.

Y notemos que esto es efectivamente igual a
\begin{align*} X^*AY\end{align*}
Por lo que tenemos la igualdad buscada.

$\square$

Proposición

Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^*AY.\end{align*}

Demostración

La demostración es completamente análoga a la vista aquí, (la primera proposición bajo Preparaciones para el teorema de Sylvester) , por lo que revisemosla rápidamente

Si suponemos que existe $A’$ tal que
\begin{align*} \varphi(x,y)=X^*A’Y\end{align*}
Entonces
\begin{align*} X^*A’Y=X^*AY\end{align*}
Por lo que
\begin{align*} A’=A\end{align*}
Por lo tanto $A$ es única.

$\square$

Proposición

Sea $ \mathcal{B}$ base de $V$, la función $\psi: S(V) \rightarrow M_n(\mathbb{C})$ que envía una forma sesquilineal a su matriz con respecto a $ \mathcal{B} $ establece un isomorfismo entre $\mathbb{C}$-espacios vectoriales.

Demostración

Primero revisemos que $\varphi$ y $\varphi’$ dos formas sesquilineales son iguales si y solo si para cualesquiera $x,y \in V$
\begin{align*} \varphi(x,y)= \varphi'(x,y)\end{align*}
dada $B$ una base, utilizando
\begin{align*}\varphi(x, y)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)\end{align*}
tenemos que
\begin{align*}\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi'(u_i,u_j)\end{align*}
y notemos que la igualdad se cumple si y solo si
\begin{align*} \varphi(u_i,u_j)=\varphi'(u_i,u_j). \end{align*}
De esta manera, hagamos otra demostración completamente análoga a la vista a entradas anteriores sean $\varphi, \varphi’$ dos formas sesquilineales, con $A $ y $A’$ sus matrices asociadas respectivamente, si suponemos que $A=A’$ entonces $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$ por lo que $\psi$ es inyectiva.

Para la suprayectividad, sea $A=[a_{ij}]$ y $x,y \in V$ tales que $x=\sum_{i=1} ^nx_iu_i$ y $y=\sum_{j=1} ^ny_ju_j$ definamos
\begin{align*} \varphi(x,y) =\sum_{i,j=1}^na_{ij}\overline{x_i}y_j \end{align*}.
También hemos visto anteriormente que esto define una forma sesquilineal.
Por lo que $b$ es tal que $\psi(b)=A$, esto implica que $\varphi$ es suprayectiva.

Finalmente, para mostrar que esto es efectivamente un isomorfismo, sea $A =\psi(\varphi+c\varphi’)$ para algún $c \in \mathbb{C}$, sabemos entonces que
\begin{align*} A=[a_{ij}] \end{align*}
Con $a_{ij}=(\varphi+c\varphi’)(u_i,u_j)=\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j) $ así.
\begin{align*} A=[\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j)] \end{align*}
Por los que
\begin{align*} A=[\varphi(u_i,u_j)] + c \cdot [\varphi'(u_i,u_j)] \end{align*}
y por como definimos $\psi$
\begin{align*} \psi(\varphi+c\varphi’)= \psi(\varphi) + c \cdot \psi(\varphi) \end{align*}

Por lo que $\psi$ es un isomorfismo.

$\square$

Proposición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Prueba que $\varphi$ es hermitiana si y solo si $A=A^*$.

Demostración

Sea $\varphi$ hermitiana, esto pasa si y solo si
\begin{align*}\varphi(x,y)=\overline{\varphi(y,x)} \end{align*}
Para cualesquiera $x,y \in V $. Notemos que esto pasa si y solo si
\begin{align*}\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)} \end{align*}
Para todo $e_i, e_j \in \mathcal{B}$, continuando esto es equivalente a
\begin{align*} a_{ij}=\overline{a_{ji}} \end{align*}
con $a_{ij}$ las entradas de la matriz $A$, finalmente esta última igualdad sucede si y solo si
\begin{align*} A=\overline{\text{ }^tA}=A^*.\end{align*}

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Diremos que $A$ es conjugada simétrica o hermitiana si
\begin{align*} A=A^*.\end{align*}
De esta manera una matriz es hermitiana si y solo si su forma sesquilineal asociada lo es.

Proposición

Sean $\mathcal{B}$ y $\mathcal{B}’$ dos bases de $V$ y $P$ la matríz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$, sean $X$ el vector columna con coordenadas $x_1, \cdots , x_n$ tales que $x=\sum_{i=1}^nx_iu_i$, análogamente definamos $Y,X’,Y’$. Prueba que si $A$ es la matriz correspondiente a una forma sesquilineal en la base $\mathcal{B}$, entonces
\begin{align*} A’=P^*AP.\end{align*}
Demostración

Al $P$ ser la matriz de cambio de base, tenemos las siguientes igualdades
\begin{align*} X=PX’ \qquad \text{y} \qquad Y=PY’ \end{align*}
Además
\begin{align*} (X’)^*A’Y’=X^*AY\end{align*}
Sustituyendo $X,Y$ en esta igualdad
\begin{align*} (X’)^*A’Y’=X^*AY=(PX’)^*A(PY’)=(X’)^*(P^*AP)Y’\end{align*}
Revisando los extremos de esta igualdad
\begin{align*} (X’)^*A’Y’=(X’)^*(P^*AP)Y’\end{align*}
Esto implica que
\begin{align*} A’=P^*AP.\end{align*}

$\square$

Finalmente, revisemos la última definición que se vio en con formas bilineales.

Definición

Una matriz hermitiana $A \in M_n(\mathbb{C})$ es positiva si $X^*AX \geq 0$ para cualquier $X \in \mathbb{C}^n$, será definida positiva si la igualdad únicamente se cumple para el $0$.

Más adelante

Tras revisar esta serie bastante larga de resultados, tanto para formas bilineales como sesquilineales, enfocaremos nuestro estudio a algo que hemos utilizado, un par de veces en la demostración de estos resultados, pero nunca hemos abundado en su utilidad, esto es la dualidad.

Más aún, veremos otro concepto igual visto anteriormente, la ortogonalidad, pero esta vez definida con respecto a una forma bilineal y probaremos varios resultados antes vistos desde un enfoque de las formas bilineales, terminaremos esta unidad haciendo un repaso de bases ortogonales y el teorema de Gram-Schmidt, así como su análogo complejo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En la tercera proposición ¿Por qué $A=A’$ implica que $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$?
  2. En esa misma proposición definimos una nueva forma que afirmamos era sesquilineal para demostrar la suprayectividad. Demuestra que $\varphi$ así definida es sesquilineal.
  3. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  4. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ $B^*B$ y $BB^*$ son hermitianas positivas.
  5. Demuestra que para cualquier matriz $A \in M_n(\mathbb{C})$ hermitiana positiva, esta puede ser escrita como
    \begin{align*} A=BB^*\end{align*}
    para alguna $B \in M_n(\mathbb{C})$.

Entradas relacionadas

Álgebra lineal II: Matrices y formas bilineales, parte 2.

Introducción

Recordemos que, en la entrada del teorema de Gauss se hacía uso de la base canónica y en la entrada anterior definimos la matriz asociada a una forma bilineal dependiente de alguna base, nuestro objetivo en esta entrada será probar resultados o encontrar propiedades independientes a la base elegida.

Si recuerdas, una propiedad con estas características era el rango de una forma cuadrática o al menos eso mencionamos, aunque no dimos una prueba, aquí escribiremos formalmente este resultado, así como su prueba.

Congruencia de matrices

En la entrada anterior revisamos como obtener matrices asociadas a una misma forma bilineal en diferentes bases, en ello llegamos a la igualdad
\begin{align*} B=\text{ } ^tPAP\end{align*}
Profundicemos un poco en matrices que estén relacionadas de esta manera
Definición

Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ diremos que $A$ es congruente con $B$ si existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Notemos que esto es equivalente a decir que $A$ y $B$ son las matrices asociadas a una forma bilineal $b$ en distintas bases.

Generalmente cuando se introduce una relación de este estilo, se define de manera que sea una relación de equivalencia, por lo que no te debería sorprender el siguiente resultado.

Proposición

Ser matrices congruentes es una relación de equivalencia.

Demostración

Empezando con la reflectividad, esto es claro ya que la matriz identidad ($1_n$) es invertible (la inversa es si misma) y es clara la igualdad
\begin{align*} A=\text{ } ^t1_nA1_n.\end{align*}

Para la simetría, si tomamos dos matrices $A,B \in M_n(\mathbb{R})$ tal que $A$ es congruente con $B$ tenemos que
\begin{align*} B=\text{ } ^tPAP\end{align*}
Con $P \in M_n(\mathbb{R})$ invertible, aprovechando esto, multipliquemos del lado izquierdo por la inversa de $^tP$ y del lado derecho por la inversa de $P$ de ambos lados de la igualdad
\begin{align*} A=\text{ } ^t(P^{-1})BP^{-1}\end{align*}
Además, es claro que $P^{-1}$ es invertible por lo que $B$ es congruente con $A$.

Finalmente, la transitividad, supongamos que $A$ es congruente con $B$ y $B$ a su vez es congruente con $C$ esto nos arroja las siguientes dos igualdades
\begin{align*} B=\text{ } ^tPAP \\
C=\text{ } ^tQBQ\end{align*}
Con $P,Q \in M_n(\mathbb{R})$ invertibles, así sustituyendo $B$ en la segunda igualdad
\begin{align*} C=\text{ } ^tQ \text{ } ^tPAP Q\end{align*}
Recordando que
\begin{align*} \text{ } ^tQ \text{ } ^tP=\text{ }^t(PQ)\end{align*}
Por lo que la igualdad anterior se puede escribir como
\begin{align*} C=\text{ }^t(PQ)AP Q\end{align*}
Más aún, sabemos que $PQ$ sigue siendo invertible, por lo tanto $A$ es congruente a $C$.

$\square$

Ahora, recordando la definición del rango de una matriz vista en esta entrada y la siguiente proposición (demostrada en esa misma entrada)

Proposición

Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Prestando especial atención a la última igualdad, procedamos con el siguiente resultado sumamente importante.

Proposición

Dos matrices congruentes tienen el mismo rango.

Demostración

La demostración, utilizando las herramientas adecuadas, es increíblemente sencilla.
Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ congruentes, entonces existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Como $P$ es invertible sabemos que la transformación lineal asociada a $^tP$ es inyectiva (es biyectiva, de hecho) y la asociada a $P$ es suprayectiva (igualmente es de hecho biyectiva), además, como todas las matrices las tomamos cuadradas, notemos que, por el punto $4$ de la proposición anterior
\begin{align*} rank(B)=rank(\text{ } ^tPAP)=rank(A).\end{align*}
Armados con estos resultados, veamos un análogo al teorema de Gauss visto anteriormente, si no es que una forma un tanto más fuerte de este, y procedamos a finalmente enunciar y demostrar el teorema de inercia de Sylvester, cuya demostración será poco más que un corolario.

Teorema de Gauss y teorema de Inercia de Sylvester.

Teorema de Gauss

Toda matriz simétrica $A \in M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración

Sea $q$ su forma cuadrática asociada en alguna base en $V=\mathbb{R}^n$ entonces
\begin{align*} q(x)=\text{ }^tXAX \text{ o visto de otra manera } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*}
Debido a la última proposición de la entrada anterior, sabemos que es suficiente mostrar la existencia de una base de $V$ bajo la cual la matriz asociada a $q$ sea diagonal.

Por el teorema de Gauss para formas cuadráticas, sabemos que podemos encontrar $\{ \alpha_1, \cdots, \alpha_r \} \subseteq \mathbb{R} $ números reales y $\{ l_1, \cdots, l_r \} \subseteq V* $ formas lineales linealmente independientes tales que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
Para cualquier $x \in V$, más aún la familia $\{ l_1, \cdots, l_r \}$ puede ser completada a una base para $V^*$ sea esta $\{ l_1, \cdots, l_n \}$ ya que esta es linealmente independiente, por una proposición vista aquí, sabemos que existe una base $\{ u_1, \cdots, u_n \}$ de $V$ con base dual $\{ l_1, \cdots, l_n \}$ más aún, sabemos que
\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$.}
\end{cases} \end{align*}
Por lo que, si $x=\sum_{i=1}^n x_iu_i$ entonces
\begin{align*} q(x)= \sum_{i=1}^n \alpha _i (l_i(x))^2= \sum_{i=1}^n \alpha _i x_i^2\end{align*}
Por lo que su matriz asociada respecto a la base $\{ u_1, \cdots, u_n \}$ es la matriz diagonal $D$ tal que
\begin{align*} D=[d_{ij}] \qquad \text{con} \qquad d_{ii}= \alpha_i \qquad \text{y} \qquad d_{ij}=0 \end{align*}
Si $i \neq j$.

Por la última proposición de la entrada anterior, $A$ es congruente con $D$.

$\square$

Anteriormente se definió rango de una forma bilineal, se esperaría por la elección de nombres que el rango de una forma cuadrática y el rango de su matriz correspondiente coincidan, redefinamos rango de una forma cuadrática y veamos que es equivalente a la antigua definición.

Definición

Sea $q$ una forma cuadrática en $V$, el rango de $q$ será el rango de su matriz asociada en alguna base de $V$.

Recordemos que el rango de $q$ lo definimos anteriormente como la cardinalidad del conjunto $\{ \alpha_1, \cdots, \alpha_r \}$ (utilizando la notación del teorema de Gauss), por la demostración anterior este número es igual al número de entradas no cero en la diagonal de la matriz asociada con respecto a la base $\{ u_1, \cdots, u_n \}$ que al ser una matriz diagonal es igual al rango de esta matriz que ya vimos es igual al rango de la matriz asociada a $q$ en cualquier base de $V$, por lo que nuestras definiciones son equivalentes.

Podemos llegar incluso más lejos, en esta entrada discutimos como podíamos hacer que dada $q$ con
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
fuera tal que todo $\alpha_i \in \{-1,1\}$ inclusive reordenando la base $\{ u_1, \cdots, u_n \}$ podemos hacer que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i x_i^2\end{align*}
Haciendo que $D$ su matriz asociada diagonal tenga como entradas únicamente a $1,0,-1$ y que el $-1$ y $1$ aparezcan únicamente en las primeras $r$-esimas entradas de la diagonal.

Culminemos esta larga sección con el teorema de Sylvester.

Proposición (Teorema de Sylvester/Ley de Inercia de Sylvester)

Sea $q$ una forma cuadrática en $V$ un espacio vectorial de dimensión finita sobre $\mathbb{R}$, el rango de $q$ son invariantes sin importar la base respecto a la que se encuentre su matriz asociada.

Demostración

Sea $A$ la matriz asociada a $q$ en una base $\beta$, sabemos que el rango es igual al de la matriz asociada a $q$ bajo una base $\beta’$ al ser matrices congruentes.

$\square$

Recordando las notas anteriores hay un tipo de formas cuadráticas de las que no hemos hablado, las formas positivas o definidas positivas, revisemos sus matrices y que propiedades extras podemos obtener de agregar esta condición

Definición

Sea una matriz simétrica $A \in M_n(\mathbb{R})$ diremos que es positiva si $^tXAX \geq 0$ para todo $X \in \mathbb{R}^n$, diremos que es definida positiva si $^tXAX > 0$ para todo $X \in \mathbb{R}^n- \{0\}$.

Otra forma de verlo, dada una matriz simétrica $A$ esta será positiva si su forma cuadrática asociada, a saber, dado $x \in \mathbb{R}^n$
\begin{align*} q(x_1, \cdots, x_n) = \sum_{i,j=1}^na_ijx_ix_j\end{align*}
Es positiva, análogamente para alguna forma definida positiva.

De esta manera notemos que una matriz definida positiva da un producto interno en $\mathbb{R}^n$ definido por
\begin{align*} <X,Y>_A=<X,AY>=\text{ }^tXAY\end{align*}
donde $<,>$ es el producto interno canónico en $\mathbb{R}^n$.

Continuando con la idea de no requerir bases, probemos la siguiente proposición.

Proposición

Sean $A,B \in M_n(\mathbb{R})$ congruentes, tal que $A$ es positiva, B es positiva tambien.

Demostración

Si son congruentes sabemos que existe $P \in M_n(\mathbb{R})$ invertible tal que
\begin{align*} B=\text{ }^tPAP\end{align*}
Así sea $X \in \mathbb{R}^n$
\begin{align*} ^tXBX=\text{ }^t X \text{ }^tPAP X=\text{ }^t (PX) A PX \end{align*}
y como $PX \in \mathbb{R}^n$ tenemos que $\text{ }^t (PX) A PX \geq 0$ ya que $A$ es positiva, por lo que
\begin{align*} ^tXBX \geq 0. \end{align*}

$\square$

Notemos también que, en una matriz diagonal positiva $D$, todas sus entradas no cero deben ser positivas, supongamos que esto es falso com $d_{ii}<0$, si $q$ es su forma cuadrática asociada entonces calculando $q(e_i)=d_{ii}<0$ con $e_i$ el elemento de la base canónica cuya unica entrada no cero es la $i$-esima, lo que es una contradicción.

Concluyamos con la siguiente proposición.

Proposición

Cualquier matriz positiva $A \in M_n(\mathbb{R})$ puede ser escrita como $^tBB$ para alguna matriz $B \in M_n(\mathbb{R})$.

Demostración

Sea $A \in M_n(\mathbb{R})$ positiva, por el teorema de Gauss sabemos que es congruente con alguna matriz diagonal, por lo que
\begin{align*} ^tPDP=A\end{align*}
Con $D=[d_{ij}]$ diagonal, además sabemos que al ser congruente con $A$ esta debe ser positiva, más aún, por lo discutido arriba sabemos que toda entrada no $0$ en $D$ debe ser positiva, por lo que podemos escribir a $D$ como sigue
\begin{align*} ^tD_1D_1=D\end{align*}
Con
\begin{align*} D_1=[\sqrt{d_{ij}}]\end{align*}
Sustituyendo esto en la igualdad de arriba
\begin{align*} A=\text{ }^tP\text{ }^tD_1D_1P=\text{ }^t(D_1P)(D_1P)\end{align*}
Y nombrando $B=D_1P$
\begin{align*} ^tBB=A.\end{align*}

$\square$

Más adelante

Con esto concluiremos por ahora nuestra revisión de formas bilineales y sus relaciones con matrices, aunque como es de esperarse no abandonaremos el tema completamente, centrándonos después en la relación que existe entre dualidad y ortogonalidad.

Antes de ello, intentaremos replicar los resultados vistos en las últimas dos entradas esta vez para formas sesquilineales y hermitianas cuadráticas, encontrando resultados análogos pero esta vez para formas en espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Como definirías el determinante de una forma bilineal simétrica basándonos en su matriz? ¿Puedes hacer esta definición independiente de la base que elijas?
  2. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  3. Demuestra que una matriz simétrica y definida positiva es invertible.
  4. Demuestra que una matriz simétrica y positiva es definida positiva si y solo si es invertible.
  5. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.

Entradas relacionadas