Archivo de la etiqueta: formas sesquilineales

Álgebra lineal II: Espacios hermitianos y bases ortogonales complejas

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra lineal II: Formas sesquilineales y matrices

Introduccíon

Como en las entradas anteriores, una vez que estudiamos formas bilineales y cuadráticas, intentamos expandir esta definición a los números complejos con las formas sesquilineales y hermitianas cuadráticas, esta vez será lo mismo, una vez que entendemos la relación entre matrices y formas bilineales, ahora intentaremos entender la relación que existe entre matrices y formas sesquilineales.

En esta entrada veremos que gran parte de la relación que había para el caso real se mantiene al pasar a los complejos, si es que, agregando una condición, por lo que veremos el análogo a la gran mayoría de resultados vistos en las últimas dos entradas, por lo que te recomendamos tener a la mano las entradas sobre formas bilineales y matrices (Ambas partes) y formas sesquilineales.

Matriz asociada

De aquí en adelante, asumiremos que $V$ siempre es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita y $\mathcal{B}=\{u_1, \cdots u_n\}$ una base de $V$. Tambien recordemos que $S(V)$ se definió como el espacio de formas sesquilineales en V.

Definición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. La matriz de $\varphi$ con respecto $\mathcal{B}$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j)\end{align*}
Para todo $i,j$ tal que $1 \leq i,j \leq n$.

Notemos que a las formas sesquilineales no se les pidió ser simétricas. (¿por qué?)

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial.

Proposición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. Prueba que $\forall x,y \in V$
\begin{align*} \varphi(x,y)=X^*AY\end{align*}
Con $X,Y$ los vectores columna con coordenadas $x_1, \cdots x_n$ y $y_1, \cdots y_n$ respectivamente tales que $x=\sum_{i=1}^nu_1x_1$ y $y=\sum_{j=1}^nu_jy_j$ y $X^*=\text{ }^t\overline{X}$.

Demostración

Calculemos $\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)$ como sabemos que $\varphi$ es sesquilineal, tenemos
\begin{align*}\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)=\sum_{i=1}^n\sum_{j=1}^n \overline{x_1} y_j\varphi(u_i,u_j)\end{align*}
Donde notemos que la única diferencia con las funciones bilineales es que en la primera coordenada, las $x_i$ salen como conjugadas.

Y notemos que esto es efectivamente igual a
\begin{align*} X^*AY\end{align*}
Por lo que tenemos la igualdad buscada.

$\square$

Proposición

Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^*AY.\end{align*}

Demostración

La demostración es completamente análoga a la vista aquí, (la primera proposición bajo Preparaciones para el teorema de Sylvester) , por lo que revisemosla rápidamente

Si suponemos que existe $A’$ tal que
\begin{align*} \varphi(x,y)=X^*A’Y\end{align*}
Entonces
\begin{align*} X^*A’Y=X^*AY\end{align*}
Por lo que
\begin{align*} A’=A\end{align*}
Por lo tanto $A$ es única.

$\square$

Proposición

Sea $ \mathcal{B}$ base de $V$, la función $\psi: S(V) \rightarrow M_n(\mathbb{C})$ que envía una forma sesquilineal a su matriz con respecto a $ \mathcal{B} $ establece un isomorfismo entre $\mathbb{C}$-espacios vectoriales.

Demostración

Primero revisemos que $\varphi$ y $\varphi’$ dos formas sesquilineales son iguales si y solo si para cualesquiera $x,y \in V$
\begin{align*} \varphi(x,y)= \varphi'(x,y)\end{align*}
dada $B$ una base, utilizando
\begin{align*}\varphi(x, y)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)\end{align*}
tenemos que
\begin{align*}\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi'(u_i,u_j)\end{align*}
y notemos que la igualdad se cumple si y solo si
\begin{align*} \varphi(u_i,u_j)=\varphi'(u_i,u_j). \end{align*}
De esta manera, hagamos otra demostración completamente análoga a la vista a entradas anteriores sean $\varphi, \varphi’$ dos formas sesquilineales, con $A $ y $A’$ sus matrices asociadas respectivamente, si suponemos que $A=A’$ entonces $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$ por lo que $\psi$ es inyectiva.

Para la suprayectividad, sea $A=[a_{ij}]$ y $x,y \in V$ tales que $x=\sum_{i=1} ^nx_iu_i$ y $y=\sum_{j=1} ^ny_ju_j$ definamos
\begin{align*} \varphi(x,y) =\sum_{i,j=1}^na_{ij}\overline{x_i}y_j \end{align*}.
También hemos visto anteriormente que esto define una forma sesquilineal.
Por lo que $b$ es tal que $\psi(b)=A$, esto implica que $\varphi$ es suprayectiva.

Finalmente, para mostrar que esto es efectivamente un isomorfismo, sea $A =\psi(\varphi+c\varphi’)$ para algún $c \in \mathbb{C}$, sabemos entonces que
\begin{align*} A=[a_{ij}] \end{align*}
Con $a_{ij}=(\varphi+c\varphi’)(u_i,u_j)=\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j) $ así.
\begin{align*} A=[\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j)] \end{align*}
Por los que
\begin{align*} A=[\varphi(u_i,u_j)] + c \cdot [\varphi'(u_i,u_j)] \end{align*}
y por como definimos $\psi$
\begin{align*} \psi(\varphi+c\varphi’)= \psi(\varphi) + c \cdot \psi(\varphi) \end{align*}

Por lo que $\psi$ es un isomorfismo.

$\square$

Proposición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Prueba que $\varphi$ es hermitiana si y solo si $A=A^*$.

Demostración

Sea $\varphi$ hermitiana, esto pasa si y solo si
\begin{align*}\varphi(x,y)=\overline{\varphi(y,x)} \end{align*}
Para cualesquiera $x,y \in V $. Notemos que esto pasa si y solo si
\begin{align*}\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)} \end{align*}
Para todo $e_i, e_j \in \mathcal{B}$, continuando esto es equivalente a
\begin{align*} a_{ij}=\overline{a_{ji}} \end{align*}
con $a_{ij}$ las entradas de la matriz $A$, finalmente esta última igualdad sucede si y solo si
\begin{align*} A=\overline{\text{ }^tA}=A^*.\end{align*}

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Diremos que $A$ es conjugada simétrica o hermitiana si
\begin{align*} A=A^*.\end{align*}
De esta manera una matriz es hermitiana si y solo si su forma sesquilineal asociada lo es.

Proposición

Sean $\mathcal{B}$ y $\mathcal{B}’$ dos bases de $V$ y $P$ la matríz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$, sean $X$ el vector columna con coordenadas $x_1, \cdots , x_n$ tales que $x=\sum_{i=1}^nx_iu_i$, análogamente definamos $Y,X’,Y’$. Prueba que si $A$ es la matriz correspondiente a una forma sesquilineal en la base $\mathcal{B}$, entonces
\begin{align*} A’=P^*AP.\end{align*}
Demostración

Al $P$ ser la matriz de cambio de base, tenemos las siguientes igualdades
\begin{align*} X=PX’ \qquad \text{y} \qquad Y=PY’ \end{align*}
Además
\begin{align*} (X’)^*A’Y’=X^*AY\end{align*}
Sustituyendo $X,Y$ en esta igualdad
\begin{align*} (X’)^*A’Y’=X^*AY=(PX’)^*A(PY’)=(X’)^*(P^*AP)Y’\end{align*}
Revisando los extremos de esta igualdad
\begin{align*} (X’)^*A’Y’=(X’)^*(P^*AP)Y’\end{align*}
Esto implica que
\begin{align*} A’=P^*AP.\end{align*}

$\square$

Finalmente, revisemos la última definición que se vio en con formas bilineales.

Definición

Una matriz hermitiana $A \in M_n(\mathbb{C})$ es positiva si $X^*AX \geq 0$ para cualquier $X \in \mathbb{C}^n$, será definida positiva si la igualdad únicamente se cumple para el $0$.

Más adelante

Tras revisar esta serie bastante larga de resultados, tanto para formas bilineales como sesquilineales, enfocaremos nuestro estudio a algo que hemos utilizado, un par de veces en la demostración de estos resultados, pero nunca hemos abundado en su utilidad, esto es la dualidad.

Más aún, veremos otro concepto igual visto anteriormente, la ortogonalidad, pero esta vez definida con respecto a una forma bilineal y probaremos varios resultados antes vistos desde un enfoque de las formas bilineales, terminaremos esta unidad haciendo un repaso de bases ortogonales y el teorema de Gram-Schmidt, así como su análogo complejo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En la tercera proposición ¿Por qué $A=A’$ implica que $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$?
  2. En esa misma proposición definimos una nueva forma que afirmamos era sesquilineal para demostrar la suprayectividad. Demuestra que $\varphi$ así definida es sesquilineal.
  3. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  4. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ $B^*B$ y $BB^*$ son hermitianas positivas.
  5. Demuestra que para cualquier matriz $A \in M_n(\mathbb{C})$ hermitiana positiva, esta puede ser escrita como
    \begin{align*} A=BB^*\end{align*}
    para alguna $B \in M_n(\mathbb{C})$.

Entradas relacionadas

Álgebra lineal II: Formas hermitianas cuadráticas

Introducción

Continuando con la entrada anterior, revisaremos las formas hermitianas cuadráticas siendo estas el equivalente a las formas cuadráticas, para números complejos, así como algunas de sus propiedades.

Análogamente a lo que vimos con formas cuadráticas y bilineales, definiremos también una forma polar y terminaremos enunciando un análogo al teorema de Gauss.

Formas hermitianas cuadráticas

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal en $V$ hermitiana.

Llamaremos forma hermitiana cuadrática a la función $\Phi: V \rightarrow \mathbb{C}$ tal que para cualquier $x \in V$
\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}
Llamaremos a la función $\varphi $ la forma polar de $\Phi$.

Ejemplo

Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1 \cdots x_n)= |x_1|^2 + \cdots + |x_n|^2 \end{align*}
Para cualquier $(x_1, \cdots x_n) \in V$.

Solución

En este caso, recordando un poco la definición de norma en el campo de los complejos nos puede dar una buena idea, recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$.
Así propongamos $\varphi$ como sigue
\begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
Para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.

Ejemplo

Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt \end{align*}
Para cualquier $f \in V$.

Solución

Para este caso la solución es bastante análoga
Porpongamos $\varphi$ como sigue
\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
Para cualquier par $f_1,f_2 \in V$.

Cabe aclarar que para terminar de demostrar que estos ejemplos son formas hermitianas cuadráticas, habría que demostrar que $\varphi$ definida en cada uno es sesquilineal hermitiana.

Así, para demostrar que una función es una forma hermitiana cuadrática necesitamos encontrar su forma polar, veremos una forma para hacerlo en la siguiente proposición.

Proposición (Identidad de polarización)

Sea $\Phi: V \rightarrow \mathbb{C}$ una forma hermitiana cuadrática, existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, esta se puede encontrar de la siguiente manera:
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4}.\end{align*}.

Demostración

Por definición, como $\Phi$ es una forma hermitiana cuadrática, existe $s$ una forma sesquilineal hermitiana tal que $s(x,x)=\Phi(x)$ así, definamos una función
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4} \end{align*}
Además, como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{ s(y+x,y+x) – s(y-x,y-x) + i [ s(y+xi,y+xi) – s(y-ix,y-xi)]}{4} \end{align*}
Desarrollando los primeros dos sumandos tenemos que
\begin{align*} s(y+x,y+x) – s(y-x,y-x) =2s(y,x) + 2s(x,y)\end{align*}
Por otro lado, desarrollemos los últimos dos sumandos
\begin{align*} i [ s(y+xi,y+xi) – s(y-ix,y-xi)]= 2s(x,y) – 2s(y,x) \end{align*}
Sustituyendo esto en la función original tenemos que
\begin{align*} \varphi(x,y)=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}=s(x,y). \end{align*}

De esta igualdad podemos concluir varias cosas.

Primero, $\varphi = s$ por lo que $\varphi$ es efectivamente la forma polar de $\Phi$.

La forma polar en única ya que si existiera otra función $s’$ tal que $s'(x,x)=\Phi(x)$ para toda $x \in V$ sustituyendo en la identidad de polarización y repitiendo los pasos llegariamos a que $s’=\varphi$.

$\square$

Propiedades de formas hermitianas cuadráticas

Veamos algunas otras propiedades que nos pueden resultar útiles en entradas siguientes.

En las siguientes tres proposiciones, sea $V$ es un espacio vectorial sobre $\mathbb{C}$, $\Phi$ una forma hermitiana cuadrática con $\varphi$ su polar y $x,y \in V$ elementos cualesquiera.

Proposición

$\Phi(x) \in \mathbb{R}$.

Demostración

Sabemos que $\Phi(x)=\varphi(x,x)$ y como $\varphi$ es hermitiana por definición, tenemos que \begin{align*} \varphi(x,x)=\overline{\varphi(x,x)} \end{align*}
Y sabemos que esto pasa si y solo si $\Phi(x)=\varphi(x,x) \in \mathbb{R}$.

$\square$

Proposición

Sea $a \in \mathbb{C}$, entonces $\Phi(ax)=|a|^2\Phi(x)$.

Demostración

Utilizando de nuevo que $\Phi(x)=\varphi(x,x)$
\begin{align*} \varphi(ax,ax)=\overline{a}a\varphi(x,x)=|a|^2 \Phi(x). \end{align*}

$\square$

Proposición

$\Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y)$.

Demostración

Como en las anteriores usemos que $\Phi(x+y)=\varphi(x+y,x+y)$
\begin{align*} \varphi(x+y,x+y)=\varphi(x,x)+\varphi(x,y)+ \varphi(y,x)+ \varphi(y,y) \end{align*}
como $\varphi$ es hermitiana, tenemos que $\varphi(y,x)=\overline{\varphi(x,y)}$ por lo que
\begin{align*} \varphi(x+y,x+y)=\Phi(x)+\varphi(x,y)+ \overline{\varphi(x,y)}+ \Phi(y) \end{align*}
Y recordemos que
\begin{align*} \varphi(x,y)+ \overline{\varphi(x,y)} = 2 Re(\varphi (x,y)) \end{align*}
Por lo tanto
\begin{align*} \Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y). \end{align*}

$\square$

Para concluir, también enunciaremos el análogo de el teorema de Gauss para formas cuadráticas.

Teorema de Gauss

Sea $\Phi$ una función hermitiana cuadrática en $\mathbb{C}^n$, existen $\alpha_1, \cdots , \alpha_r \in \{ -1, 1 \}$ y funciones linealmente independientes $l_1, \cdots l_r$ en $\mathbb{C}^n$ tal que, $\forall x \in \mathbb{C}^n$
\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Más adelante

Con esto concluimos nuestro pequeño repaso de formas bilineales y sesquilineales, basándonos en esto, veremos una aplicación de estas que te puede resultar bastante más familiar, los productos internos.

Al repasar productos internos concluiremos revisando dos desigualdades sumamente importantes para cualquier teoría en donde se utilicen espacios con producto interno (no abundaremos en este curso sobre este concepto, pero seguro conoces un par de espacios vectoriales que tienen definido un producto interno) siendo estas las desigualdades de Cauchy-Schwarz y de Minkowski, cuyas aplicaciones se extienden desde la geometría, el análisis e incluso la mecánica cuántica.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi$
    \begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\varphi$ definida como sigue $\varphi$ como sigue
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
    Para cualquier par $f_1, f_2 \in V$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma hermitiana cuadrática, prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)) \end{align*}.
  4. ¿Como definirías el concepto de producto interno en $\mathbb{R}$ utilizando formas cuadráticas o hermitianas cuadráticas?
  5. Demuestra el Teorema de Gauss para formas hermitianas cuadráticas.

Entradas relacionadas

Álgebra lineal II: Formas sesquilineales

Introducción

Como mencionamos anteriormente, las formas bilineales, aunque muy útiles, son muy restringidas en como las definimos, intentaremos extender un poco esta definición al menos a espacios vectoriales sobre los complejos, aunque esto aún es limitado, para fines de este curso esto bastará.

La forma de extenderla será mediante formas sesquilineales, veremos su definición, así como un par de propiedades y se verán un par de propiedades que darán paso al tema siguiente las formas hermitianas cuadráticas.

Formas sesquilineales

Vale la pena empezar entendiendo a que se refiere la palabra sesquilineal, como seguramente notaste, una forma bilineal era llamada así porque era «dos veces lineal», con esto nos referimos a que debía ser lineal en cada una de sus entradas.
Similarmente, las formas sesquilineales deben su nombre a la raíz latina sesqui que significa uno y medio, como esto no nos indica naturalmente a que se refiere sesquilineal, veamos la definición.

Definición
Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Una forma sesquilineal en $V$ es una función $\varphi: V \times V \rightarrow \mathbb{C} $ tal que

  • Para cualesquiera $x_1,x_2,y \in V$ y para cualquier $\lambda \in \mathbb{C}$ $\varphi (\lambda x_1+x_2, y) = \overline{\lambda} \varphi (x_1,y)+ \varphi(x_2 , y)$.
  • Para cualesquiera $y_1,y_2,x \in V$ y para cualquier $\lambda \in \mathbb{C}$ $\varphi (x,\lambda y_1+y_2) = \lambda\varphi (x,y_1)+ \varphi(x, y_2)$.


Sabiendo esto, la «media» linealidad se refiere a que en la primera entrada se pide que $\varphi$ sea lineal conjugada.

Además, una forma sesquilineal $\varphi$ se llamará conjugada simétrica o hermitiana si $\overline{ \varphi(y,x) }= \varphi(x,y)$ para cualesquiera $x, y \in V$.

Cabe aclarar que esto no es lo mismo que una forma cuadrática hermitiana, que empezaremos a ver en la siguiente entrada.

Propiedades de formas sesquilineales

A partir de esto, podemos definir el siguiente conjunto

\begin{align*} S(V) : = \{ \varphi: V \times V \rightarrow \mathbb{C} \; | \; \varphi \text{ es sesquilineal} \} \end{align*}
Y de manera análoga a lo que sucedía con las formas bilineales, $S(V)$ es un subespacio vectorial del $\mathbb{C}$-espacio de todas las funciones de $V \times V $ en $\mathbb{C}$.
También, podemos definir
\begin{align*} H(V) : = \{ \varphi \in S(V) \; | \; \overline{ \varphi(y,x) }= \varphi(x,y) \; \forall x , y \in V \} \end{align*}
el conjunto de formas hermitianas.

Algo que siempre hay que revisar después de la definición de algún conjunto es que este es no vacío, por suerte es generalmente sencillo comprobar esto, en nuestro caso es claro que la función $0$ es sesquilineal y hermitiana.

Con esto investiguemos un poco la relación existente entre $S(V)$ y $H(V)$
Proposición

$H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

Demostración

Sabemos que $H(V) \subseteq S(Y)$ y que ambos son distintos del vacío, así empecemos probando que $H(V)$ es cerrado bajo la suma y multiplicación escalar.

Sean $\varphi_1, \varphi_2 \in H(V)$, $x,y \in V$ y $\lambda \in \mathbb{R}$.

Sabemos por cómo está definida la suma que
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \varphi_1(x,y) + \varphi_2 (x,y) \end{align*}
Además, como $\varphi_1, \varphi_2 \in H(V)$
\begin{align*} \varphi_1(x,y) = \overline{\varphi_1(y,x)} \qquad \text{y} \qquad \varphi_2(x,y) = \overline{\varphi_2(y,x)} \end{align*}
por lo que
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)} \end{align*}
También, sabemos que $\overline{a+b}= \overline{a}+ \overline{b}$ para cualquier par de números complejos, en particular
\begin{align*} \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)} = \overline{\varphi_1(y,x) + \varphi_2(y,x) } = \overline{ (\varphi_1+\varphi_2) (y,x) }\end{align*}
Así, finalmente
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \overline{ (\varphi_1+\varphi_2) (y,x) } \end{align*}
De donde se concluye que $\varphi_1 + \varphi_2 \in H(V)$

Procedamos análogamente para la multiplicación
\begin{align*} (\lambda \varphi_1) (x,y)= \lambda (\varphi_1(x,y))=\lambda (\overline{ \varphi_1(y,x)}) \end{align*}
Más aún, tenemos que $\overline{\lambda} = \lambda$ (¿Por qué?)
\begin{align*} (\lambda \varphi_1) (x,y)= \lambda (\overline{ \varphi_1(y,x)}) = \overline{ \lambda \varphi_1(y,x)}= \overline{ (\lambda \varphi_1)(y,x)}\end{align*}
De donde se termina concluyendo que $\lambda \varphi_1 \in H(V)$

Con estas dos, basta para afirmar que $H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

$\square$

Proposición

Sea $V$ un espacio vectorial sobre $\mathbb{C}$, $S(V)$ el subespacio de formas sesquilineales y $H(V)$ el subespacio de formas hermitianas, $S(V)$ se puede descomponer como la suma directa de $H(V)$ y $iH(V)$.

Un recordatorio de la suma directa lo puedes encontrar aquí.

Demostración

Empecemos probando que $S(V)$ efectivamente se puede descomponer como la suma de $H(V)$ y $iH(V)$.
Para esto, basta demostrar que cualquier forma sesquilineal se puede expresar como suma de dos formas hermitianas, de esta manera sea $\varphi \in S(V)$ definamos $h_1, h_2$ como sigue
\begin{align*} h_1(x,y)=\frac{\varphi(x,y)+ \overline{\varphi(y,x)}}{2} \qquad \text{y} \qquad h_2(x,y)=\frac{\varphi(x,y)- \overline{\varphi(y,x)}}{2i}\end{align*}
Comencemos mostrando que $h_2$ es hermitiana, de esta manera dados cualesquiera $x,y \in \mathbb{C}$, calculemos $\overline{h_2(y,x)}$.
\begin{align*} \overline{h_2(y,x)}=\overline{(\frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i})} \end{align*}
En particular sabemos que
\begin{align*} \frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}=\frac{-\varphi(y,x)i+ \overline{\varphi(x,y)}i}{2} \end{align*}
Así
\begin{align*} \overline{h_2(y,x)}=\overline{(\frac{-\varphi(y,x)i + \overline{\varphi(x,y)}i}{2})}\end{align*}
Además, para cualquier $c \in \mathbb{C}$ tenemos que $\overline{ci}=-\overline{c}i$, por lo que
\begin{align*} \overline{h_2(y,x)}= \frac{\overline{\varphi (y,x)}i -\varphi (x,y)i}{2}\end{align*}
Finalmente multiplicando por $\frac{i}{i} $
\begin{align*} \overline{h_2(y,x)}= \frac{-\overline{\varphi (y,x)} + \varphi (x,y)}{2i}=\frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2i}=h_2(x,y) \end{align*}
Por lo que $h_2 \in H(V)$
De manera análoga y se puede mostrar que $h_1$ es hermitiana.
Dado esto tenemos que
\begin{align*} h_1 \in H(V) \qquad \text{y} \qquad ih_2 \in iH(V) \end{align*}
Con
\begin{align*} ih_2= \frac{\varphi (x,y)- \overline{ \varphi (y,x)}}{2} \end{align*}
Y es claro que, para cualesquiera $x,y \in \mathbb{C}$
\begin{align*} \varphi (x,y) =\frac{\varphi (x,y)+ \overline{\varphi (y,x)}}{2} + \frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2} =h_1(x,y)+ih_2(x,y)\end{align*}
Así en general
\begin{align*} \varphi =h_1+ih_2\end{align*}
Por lo que
\begin{align*} S(V)=H(V)+iH(V)\end{align*}
Demostrar que $H(V)$ y $iH(V)$ están en posición de suma directa es más sencillo.

Sea $h \in H(V) \cap iH(V)$ en particular $h \in iH(V)$ por lo que existe $h_1 \in H(V)$ tal que $h=ih_1$ así, para cualesquiera $x,y \in \mathbb{C}$
\begin{align*} h(x,y)=\overline{h(y,x)}=\overline{ih_1(y,x)}=-i\overline{h_1(y,x)}=-ih_1(x,y)=-h(x,y) \end{align*}
De esta cadena concluimos que $h(x,y)=-h(x,y)$ y sabemos que el único complejo que cumple esto es el $0$.

Por lo tanto $h(x,y)=0$ por lo que $h=0$ que finalmente nos arroja que $H(V) \cap iH(V)= \{ 0 \}$.

Esto es suficiente para saber qué $H(V)$ y $iH(V)$ están en posición de suma directa.

Por lo tanto
\begin{align*} S(V)= H(V) \oplus iH(V)\end{align*}.

$\square$

Más adelante

De esta manera definimos a las formas sesquilineales como un análogo en $\mathbb{C}$ a las formas bilineales, así que como es de esperarse, también definiremos un análogo a las formas cuadráticas siendo estas las formas hermitianas cuadráticas y finalizaremos esta pequeña sección enunciando el análogo al teorema de Gauss.

Después procederemos a ver un repaso de productos interiores y su relación con formas cuadráticas incluso probaremos un par de desigualdades muy importantes, siendo una de estas la desigualdad de Cauchy-Schwarz.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Puede $H(V)$ definida como arriba ser un subespacio vectorial de $S(V)$ sobre $\mathbb{C}$.
  2. En la segunda proposición, demuestra que $h_1$ definida como arriba es hermitiana.
  3. Sean $m.n \in \mathbb{N}$, $a_1, \cdots a_n, b_1, \cdots b_m \in H$ y $\lambda_1, \cdots \lambda_n, \mu_1, \cdots \mu_m \in H$ entonces
    \begin{align*} \varphi(\sum_{i=1}^n \lambda_ia_i , \sum_{j=1}^m\mu_jb_j)=\sum_{i=1}^n\sum_{j=1}^m\overline{\lambda_i}\mu_j\varphi(a_i,b_j)\end{align*}
  4. Sea $\varphi$ hermitiana, demuestra que $\varphi(x,x) \in \mathbb{R}$ $\forall x \in V $
  5. Sea $\varphi$ hermitiana, demuestra que $\varphi(ax,ax) = |a|^2\varphi(x,x)$ $\forall x \in V $ y $\forall a \in \mathbb{C}$

Entradas relacionadas