Archivo de la etiqueta: álgebra lineal

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices de formas bilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Al principio de esta unidad, especialmente en la entrada del teorema de Gauss empezamos a hablar de una relación entre formas bilineales y matrices. Aquí formalizaremos esta relación. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.

Matriz asociada a una forma bilineal y una forma cuadrática

En toda esta entrada, $V$ es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Definición. Sea $ e_1, \cdots , e_n$ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal de $V$. La matriz de $b$ con respecto a la base $e_1,\ldots, e_n$ es la matriz

\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j),\end{align*}

para todo $i,j$ tal que $1 \leq i,j \leq n$.

Para definir la forma matricial de una forma cuadrática tenemos que ser un poco más cuidadosos. Hay más de una forma bilineal que puede generar a una misma forma cuadrática. Sin embargo, por la identidad de polarización tenemos que esta forma bilineal es única si pedimos adicionalmente que sea simétrica. De aquí obtenemos la siguiente definición.

Definición. Sea $e_1, \cdots , e_n$ una base de $V$ y $q$ una forma cuadrática de $V$, la matriz de $q$ con respecto a la base $e_1, \ldots, e_n$ es la matriz de su forma polar en esa misma base.

Problema. Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1,\end{align*}

para cada $x=(x_1,x_2,x_3)\in \mathbb{R}^3$.

Encuentra su matriz asociada $A$ en la base canónica y su matriz asociada $B$ en la base \begin{align*}u_1&=(1,1,0),\\ u_2&=(1,0,1),\\ u_3&=(0,1,1).\end{align*}

Solución. Primero, mediante la identidad de polarización tenemos que la forma polar $b$ de $q$ cumple que $b(x,x’)$ es

\begin{align*} \frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} ,\end{align*}

para $x=(x_1,x_2,x_3)$ y $x’=(x’_1,x’_2,x’_3)$.

Ahora, calculemos qué le hace esta forma bilineal a la base canónica de par en par.

\begin{align*}
&b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \\
\text{y} \quad &b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}.
\end{align*}

Por lo que su matriz asociada en la base canónica es

\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}

Por otro lado, calculando lo que $b$ le hace a nuestra otra base

\begin{align*}
&b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \\
\text{y} \quad &b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}
\end{align*}

Y construyendo esta otra matriz:

\begin{align*}
B=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1
\end{pmatrix}
\end{align*}

$\triangle$

Evaluar la forma bilineal con su matriz

En la entrada del teorema de Gauss vimos que si $b$ es una forma bilineal de $V$ y $e_1,\ldots,e_n$ es una base, entonces para cualesquiera vectores

\begin{align*}
x&=x_1e_1+\ldots+x_ne_n\\
y&=y_1e_1+\ldots+y_ne_n
\end{align*}

tenemos que $$b(x,y)=\sum_{i=1}^n \sum_{j=1}^n x_i y_j b(e_i,e_j).$$

Por la regla del producto de matrices, la expresión de la derecha es precisamente lo que se obtiene al realizar la siguiente operación:

$$^t{X} \begin{pmatrix}b(e_1,e_1) & b(e_1,e_2) & \ldots & b(e_1,e_n)\\ b(e_2,e_1) & b(e_2,e_2) & \ldots & b(e_2,e_n)\\ \vdots & & \ddots & \vdots \\ b(e_n,e_1) & b(e_n,e_2) & \ldots & b(e_n,e_n) \end{pmatrix} Y,$$

donde $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$.

Notemos que en medio tenemos justo la forma matricial de $b$ en la base $e_1,\ldots,e_n$. Al lado izquierdo tenemos al transpuesto del vector de coordenadas de $x$ en la base $e_1,\ldots, e_n$ y al lado derecho tenemos al vector de coordenadas de $y$ en esta misma base. Hemos demostrado lo siguiente.

Proposición. Sea $b$ una forma bilineal de $V$ y $\beta$ una base de $V$. Sea $A$ la matriz de $b$ en la base $\beta$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\beta$, respectivamente. Entonces $$b(x,y)=\text{}^tXAY.$$

Algunas consecuencias de la proposición anterior son:

  • Una forma bilineal es simétrica si y sólo si su matriz en una base cualquiera es simétrica.
  • Si fijamos la base $\beta$ y la forma bilineal $b$, entonces la matriz que hace que $b(x,y)=\text{}^tXAY$ para todos $x,y$ es única.

La discusión anterior nos permite comenzar con una forma bilineal $b$ y una base $\beta$ y obtener una (y sólo una) matriz. Partiendo de una matriz y una base $\beta$ también podemos obtener una forma bilineal mediante la regla $$b(x,y)=\text{}^tXAY.$$

Cambios de base

En los resultados anteriores al fijar un espacio vectorial $V$ de dimensión $n$ y una base $\beta$ obtenemos una asociación biyectiva (de hecho un isomorfismo) entre formas bilineales de $V$ y matrices en $M_n(\mathbb{R})$.

Sin embargo, al cambiar la base de $V$, la matriz que representa a una forma bilineal puede cambiar.

Proposición. Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$. Sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$. Entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

Demostración. Sean $x,y \in V$ dos vectores cualesquiera. Escribamos $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$. Usando $\beta$ escribamos

\begin{align*} x=x_1u_1 + \cdots + x_nu_n.\end{align*}

Definamos a $X$ como el vector columna de las coordenadas de $x$ en la base $\beta$, es decir:

$$X=\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}.$$

Definimos análogamente a $X’, Y, Y’$ como los vectores columnas de coordenadas de $x$ en la base $\beta’$, de $y$ en la base $\beta$ y de $y$ en la base $\beta’$, respectivamente.

Sabemos entonces que

\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}

Además, sabemos que

\begin{align*}
X&=PX’\\
Y&=PY’
\end{align*}

De aquí se tiene la siguiente cadena de igualdades:

\begin{align*}
\text{ }^tX’A’Y’&= b(x,y)\\
&=\text{ }^tXAY\\
&=\text{ }^t(PX’)A(PY’)\\
&=\text{ }^tX’\text{ }^tPAPY’.
\end{align*}

Fijándonos en los extremos

\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’. \end{align*}

Por la unicidad de la matriz que representa a $b$ en la base $\beta’$, finalmente concluimos que

\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante…

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices. Podemos ver que ésta nos dio otra manera de entender y calcular a las formas bilineales. Algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal. Antes de llegar a eso, primero veremos el análogo complejo de lo que acabamos de estudiar.

Otro problema que enfrentamos es la dependencia de las matrices a su base. Aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida. Esto lo abordaremos un poco más adelante. De hecho, cuando lo hagamos estaremos listos para enunciar y demostrar un resultado muy interesante: la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su forma polar. ¿Es esta forma cuadrática $q$ positiva definida? ¿Es positiva?
  2. Encuentra la matriz $A$ asociada a la forma cuadrática $q$ del ejercicio anterior con respecto a la base canónica y la matriz $B$ asociada a $q$ con respecto a la base $(1,1,1), (0,-1,-1),(0,0,2)$.
  3. Encuentra las matrices de cambio de base entre la base canónica y la base del inciso anterior. Verifica que se cumple el resultado de cambios de base.
  4. Encuentra una expresión de Gauss para $q$.
  5. Encuentra el rango de $A$ y de $B$. Encuentra el determinante de $A$ y de $B$ ¿Notas algo en particular?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Espacios euclideanos y espacios hermitianos

Por Diego Ligani Rodríguez Trejo

Introducción

Hasta ahora hemos hablado de las formas bilineales, las formas bilineales simétricas, las formas cuadráticas y todos sus análogos complejos. Vimos también cómo podemos representar mediante matrices a estas formas.

Una de las aplicaciones más útiles de estos conceptos es que nos permitirán hablar de espacios vectoriales «con geometría». Este concepto ya lo exploramos en el primer curso de Álgebra Lineal, cuando hablamos de producto interior y de espacios euclideanos.

Por un lado, en esta entrada haremos un breve recordatorio de estos temas. Por otro lado, hablaremos de cómo dar los análogos complejos. Esto nos llevará al concepto de espacios hermitianos.

Un acuerdo sobre el mundo real y complejo

Como hemos visto anteriormente, los resultados relacionados con formas bilineales tienen frecuentemente sus análogos en el mundo complejo. A veces hay algunas diferencias importantes, pero la mayoría de los casos son mínimas. Por esta razón, a partir de ahora dejaremos varias de las demostraciones de los casos complejos como ejercicios. En caso de ser necesario, haremos el énfasis pertinente en las diferencias entre el caso real y el complejo.

Formas positivas

Para poder «tener geometría» en un espacio vectorial, es necesario que tenga una forma bilineal un poco más especial que las que hemos estudiado. En el caso real requerimos lo siguiente.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Tomemos una forma bilineal $b: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

En el caso complejo hay que ser un poco más cuidadosos. Si $\varphi$ es una forma sesquilineal, podría suceder que $\varphi(x,x)$ no sea un número real y entonces no pueda establecerse una desigualdad entre $\varphi(x,x)$ y $0$. Sin embargo, bajo la hipótesis adicional de que $\varphi$ sea hermitiana, vimos que $\varphi(x,x)$ sí es real.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos una forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $\varphi$ es positiva si $\varphi(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $\varphi$ es positiva definida si $\varphi(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

Adicionalmente, diremos que una forma cuadrática de un espacio vectorial sobre $\mathbb{R}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida). Y diremos que una forma cuadrática hermitiana de un espacio vectorial sobre $\mathbb{C}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida).

Desigualdades de Cauchy-Schwarz real y compleja

Una de las consecuencias de tener formas positivas es que se cumple una desigualdad entre las evaluaciones de una forma cuadrática (o cuadrática hermitiana) y su forma polar. A continuación enunciamos la versión real que demostramos en el primer curso.

Teorema (desigualdad de Cauchy-Schwarz real). Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su forma polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

La versión compleja es casi análoga, pero hay que tener el cuidado de usar la norma al evaluar la forma sesquilineal para obtener un número real que podamos comparar con otro.

Teorema (desigualdad de Cauchy-Schwarz compleja). Sea $\Phi: V \rightarrow \mathbb{R}$ una forma cuadrática hermitiana y $\varphi$ su forma polar.

  • Si $\varphi$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y). \end{align*}
  • Más aún, si $\varphi$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

$\square$

La demostración es muy parecida a la del caso real, y queda como ejercicio.

Espacios euclideanos y hermitianos

La sección anterior da la pista de que hay sutiles diferencias entre tener formas positivas y positivas definidas. La noción de que una forma sea positiva definida es más restrictiva, y por ello deberíamos esperar que un espacio vectorial (real o complejo) con una forma positiva definida tenga más propiedades.

Definición. Un producto interior para un espacio vectorial $V$ sobre los reales es una forma bilineal, simétrica y positiva definida.

Definición. Un producto interior hermitiano para un espacio vectorial $V$ sobre los complejos es una forma sesquilineal, hermitiana y positiva definida.

Típicamente se usa una notación especial para los productos interiores (o interiores hermitianos). En vez de referirnos a ellos con expresiones del estilo $b(x,y)$ (o $\varphi(x,y)$), más bien usamos expresiones del estilo $\langle x, y \rangle$. Cuando no queremos poner los argumentos, usualmente dejamos sólo unos puntos, así: $\langle \cdot, \cdot \rangle$.

Si el espacio vectorial además tiene dimensión finita, entonces estamos en un tipo de espacios muy especiales, en los que podremos probar varios resultados. Estos espacios son tan especiales que tienen su propio nombre.

Definición. Un espacio euclideano es un espacio vectorial sobre $\mathbb{R}$, de dimensión finita, y con un producto interior $\langle \cdot, \cdot \rangle$.

Definición. Un espacio hermitiano es un espacio vectorial sobre $\mathbb{C}$, de dimensión finita, y con un producto interior hermitiano $\langle \cdot, \cdot \rangle$.

Ejemplo. Tomemos $\mathbb{C}^n$ y la función $\langle \cdot, \cdot \rangle: \mathbb{C}^n \times \mathbb{C}^n \to \mathbb{C}$ dada por $$ \langle x, y\rangle = \sum_{i=1}^n \overline{x_i}y_i.$$

Se puede verificar que $\langle \cdot, \cdot \rangle$ es una forma sesquilineal, hermitiana y positiva definida. De este modo, $\mathbb{C}^n$ con este producto interior hermitiano es un espacio hermitiano.

$\triangle$

Normas, distancias y ángulos

Si tenemos un espacio vectorial con producto interior (o producto interior hermitiano), entonces ahora sí podemos introducir varias nociones geométricas: la de norma, la de distancia y la de ángulos. Además, estas nociones tendrán las propiedades geométricas que esperamos.

En las siguientes definiciones tenemos que $V$ es un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$.

Definición. Para $x\in V$, definimos la norma de $x$ como $$\norm{x}:=\sqrt{\langle x,x \rangle}.$$

Definición. Para $x, y\in V$, definimos la distancia de $x$ a $y$ como $$d(x,y):=\norm{x-y}.$$

Definición. Para $x, y\in V$, definimos el ángulo entre $x$ y $y$ como $$\text{ang}(x,y)=\cos^{-1}\left(\frac{|\langle x,y\rangle|}{\norm{x}\norm{y}}\right).$$

En esta última definición, las barras indican el valor absoluto en el caso real y la norma en el caso complejo. Observa que implícitamente estamos usando la desigualdad de Cauchy-Schwarz para asegurarnos de que el argumento de $\cos^{-1}$ en efecto es un número entre $0$ y $1$.

A continuación tenemos dos proposiciones clave que nos dicen que la norma y la distancia que definimos sí tienen todas las propiedades «que deben tener» una norma y una distancia.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entonces, la función norma $\norm{\cdot}:V\to \mathbb{R}$ cumple lo siguiente:

  • Para todo $x\in V$, se tiene que $\norm{x}$ es un número real, con $\norm{x}\geq 0$ y $\norm{x}=0$ si y sólo si $x=0$.
  • Para todo $x\in V$ y $c$ en $\mathbb{R}$ (o $\mathbb{C}$), se tiene que $\norm{cx}=|c|\norm{x}$.
  • Desigualdad del triángulo. Para cualesquiera $x,y \in V$, se tiene que $$\norm{x+y}\leq \norm{x}+\norm{y}.$$

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entones, la función distancia $d:V\times V \to \mathbb{R}$ cumple lo siguiente:

  • Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)$ es un número real, con $d(x,y)\geq 0$ y $d(x,y)=0$ si y sólo si $x=y$.
  • Simetría. Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)=d(y,x)$.
  • Desigualdad del triángulo. Para cualesquiera $x,y,z \in V$, se tiene que $$d(x,z)\leq d(x,y)+d(y,z).$$

La última proposición puede también resumirse como que $V$ con la función $d$ es un espacio métrico. Una métrica en un conjunto permite establecer una topología. Así, en un espacio con producto interior (o producto interior hermitiano), es posible establecer nociones de continuidad, convergencia, cálculo, etc. Es interesante saber que se pueden tomar estos caminos, pero queda fuera de los alcances de nuestro curso.

Más adelante…

Con esto concluimos nuestro pequeño repaso de producto interior y espacios euclideanos. Así mismo, con esto establecemos las bases de los productos interiores hermitianos y de los espacios hermitianos. Como puedes ver, ambas nociones están muy relacionadas entre sí. Los conceptos de norma y distancia dan pie a un sin fin de teoría muy interesante. Es útil poder llegar a ellos desde un enfoque puramente algebraico, y nos muestra el poder que tiene este campo de estudio.

¿Cómo se ven las nociones de positividad y positividad definida en términos de matrices? Esto es algo que estudiaremos en la siguiente entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$ como sigue:
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es positiva definida?
  2. Sea $n$ un entero positivo y $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n$. Prueba que
    \begin{align*} \langle P, Q\rangle :=\sum_{i=0}^nP(i)Q(i) \end{align*}
    es un producto interno en $V$. ¿Cómo construirías un producto interno hermitiano análogo en el caso de $W$ el espacio de polinomios con coeficientes complejos cuyos grados no excedan $n$?
  3. Revisa la demostración de la desigualdad de Cauchy-Schwarz en los espacios reales. Usa esto para dar una demostración para la versión análoga compleja. Recuerda también demostrar cuándo se da la igualdad si el producto interno hermitiano es positivo definido.
  4. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}
  5. Revisa la demostración de las propiedades de la norma y de la distancia para el caso real. Tomando esto como base, realiza la demostración para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas cuadráticas hermitianas

Por Diego Ligani Rodríguez Trejo

Introducción

El análogo complejo a las formas cuadráticas son las formas cuadráticas hermitianas. En esta entrada las definiremos, enfatizaremos algunas diferencias con el caso real y veremos algunas de sus propiedades.

Al final enunciaremos una versión compleja del teorema de Gauss.

Formas cuadráticas hermitianas

Definición Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal hermitiana de $V$. La forma cuadrática hermitiana correspondiente a $\varphi$ es la función $\Phi: V\to \mathbb{C}$ tal que para cualquier $x$ en $V$ se tiene que

\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}

Observa que aquí, de entrada, estamos pidiendo que $\varphi$ sea sesquilineal. Esto entra en contraste con el caso real, en donde no nos importaba si la forma bilineal que tomábamos inicialmente era simétrica o no. Como veremos un poco más abajo, dada la forma cuadrática hermitiana $\Phi$, hay una única forma sesquilineal hermitiana de la que viene. Por esta razón, llamaremos a la función $\varphi$ la forma polar de $\Phi$.

Problema 1. Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1, \ldots, x_n)= |x_1|^2 + \cdots + |x_n|^2.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. Recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$. Así propongamos $\varphi$ como sigue:

\begin{align*}
\varphi(x,y):= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n).
\end{align*}

Es sencillo mostrar que $\varphi$ así definida es una forma sesquilineal hermitiana, y queda como ejercicio.

$\square$

Problema 2. Sea $V$ el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. La solución es muy parecida. Proponemos $\varphi$ como sigue:

\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}

Es sencillo mostrar que $\varphi(f,f)=\Phi(f)$ y que $\varphi$ es forma sesquilineal hermitiana. Ambas cosas quedan como ejercicio.

$\square$

Propiedades básicas de formas cuadráticas hermitianas

Veamos algunas propiedades de las formas cuadráticas hermitianas.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$, $\varphi$ una forma sesquilinear hermitiana y $\Phi(x)$ su forma cuadrática asociada.

  1. Para todo $x\in V$, se tiene que $\Phi(x)=\varphi(x,x)$ siempre es un número real.
  2. Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\Phi(ax)=|a|\Phi(x)$.
  3. Para cualesquiera $x,y$ en $V$ se tiene que $\Phi(x+y)=\Phi(x)+\Phi(y)+2\text{Re}(\varphi(x,y))$.

Demostración. Los incisos 1) y 2) son consecuencia inmediata de los ejercicios de la entrada anterior. Para el inciso 3) usamos que la suma de un número con su conjugado es el doble de su parte real para obtener la siguiente cadena de igualdades:

\begin{align*}
\Phi(x+y)&=\varphi(x+y,x+y)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\varphi(y,x)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\overline{\varphi(x,y)}\\
&=\Phi(x) + \Phi(y) + 2\text{Re}(\varphi(x,y)).
\end{align*}

$\square$

Identidad de polarización compleja

Para demostrar que una función es una forma cuadrática hermitiana, usualmente necesitamos a una función que sea la candidata a ser la forma sesquilineal hermitiana que la induzca. Es decir, necesitamos un método para proponer la forma polar. Podemos hacer esto mediante la identidad de polarización compleja.

Proposición (Identidad de polarización). Sea $\Phi: V \rightarrow \mathbb{C}$ una forma cuadrática hermitiana. Existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, ésta se puede encontrar de la siguiente manera:

\begin{align*} \varphi(x,y)= \frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Aquí $i$ es el complejo tal que $i^2=-1$. Esta suma tiene cuatro sumandos, correspondientes a las cuatro potencias de $i$: $1,i,-1,-i$.

Demostración. Por definición, como $\Phi$ es una forma cuadrática hermitiana, existe $s:V\times V\to \mathbb{C}$ una forma sesquilineal hermitiana tal que $\Phi(x)=s(x,x)$. Veamos que la fórmula propuesta en el enunciado coincide con $s$. La definición en el enunciado es la siguiente:

\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k s(y+i^kx,y+i^kx)\end{align*}

Desarrollando los sumandos correspondientes a $k=0$ y $k=2$, y simplificando, se obtiene

\begin{align*}2s(y,x) + 2s(x,y).\end{align*}

Del mismo modo, los sumandos para $k=1$ y $k=3$ quedan como

\begin{align*} 2s(x,y) – 2s(y,x) \end{align*}

Sustituyendo esto en la definición original de $\varphi$ tenemos que

\begin{align*} \varphi(x,y)&=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}\\&=s(x,y). \end{align*}

De esta igualdad podemos concluir que $\varphi = s$, por lo que 1) $\varphi$ es forma sesquilineal hermitiana y 2) la forma cuadrática hermitiana de $\varphi$ es $\Phi$. Esta forma debe ser única pues si hubiera otra forma sesquilineal hermitiana tal que $s'(x,x)=\Phi(x)$, los pasos anteriores darían $s'(x,x)=\varphi(x,y)$ nuevamente.

$\square$

En particular, esta identidad nos dice que formas sesquilineales hermitianas distintas van a formas cuadráticas hermitianas distintas. Es por ello que podemos llamar a la función $\varphi$ dada por la fórmula en el enunciado la forma polar de $\Phi$.

Teorema de Gauss complejo

Enunciamos a continuación la versión compleja del teorema de Gauss.

Teorema. Sea $\Phi$ una función cuadrática hermitiana $\mathbb{C}^n$. Existen $\alpha_1, \cdots , \alpha_r$ números complejos y formas lineales $l_1, \cdots l_r$ linealmente independiente de $\mathbb{C}^n$ tales que para todo $x$ en $\mathbb{C}^n$ se tiene:

\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Observa que en la expresión de la derecha no tenemos directamente a las formas lineales, sino a las normas de éstas.

Más adelante…

Ya hablamos de formas bilineales y de formas sesquilineales. ¿Habrá una forma alternativa de representarlas? Cuando teníamos transformaciones lineales entre espacios vectoriales, podíamos representarlas por matrices. Resulta que a las formas bilineales también podemos representarlas por matrices. Veremos cómo hacer esto (y cuáles son las ventajas de hacer eso) en las siguientes dos entradas. En una veremos los resultados correspondientes a formas bilineales y en la otra los resultados correspondientes a formas sesquilineales.

Un poco más adelante aprovecharemos esta representación matricial para retomar el estudio de los productos interiores.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi:V\times V \to \mathbb{C}$ como sigue:
    \begin{align*} \varphi(x,y)= \overline{x_1}y_1 + \cdots + \overline{x_n}y_n, \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas del intevalo $[0,1]$ a $\mathbb{C}$ y $\varphi: V\times V \to \mathbb{C}$ definida como sigue:
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt,\end{align*}
    para cualquier par $f_1, f_2 \in V$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma cuadrática hermitiana. Prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)).\end{align*} ¿Cómo se compara con la identidad del paralelogramo real?
  4. Compara la identidad de polarización real con la identidad de polarización compleja. ¿Por qué son tan distintas entre sí?
  5. Demuestra el Teorema de Gauss para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Como mencionamos anteriormente, las formas bilineales que hemos estudiado son restringidas en el sentido de que sólo pueden ser definidas en espacios vectoriales sobre los reales. En este curso estudiaremos una noción muy relacionada, que en algunos sentidos extiende lo que hemos visto a espacios vectoriales sobre los complejos.

Probablemente en estas entradas tengas una sensación de ya haber visto todo. Como un déjà vu. Es bastante normal. Los resultados son casi análogos a los del caso real. Sin embargo, hay algunas diferencias importantes en las que haremos énfasis.

Formas sesquilineales

La palabra «bilineal» tiene que ver con que ambas entradas de una forma bilineal son lineales. ¿A qué se refiere «sesquilineal»? La raíz latina sesqui que significa uno y medio, y precisamente veremos esto reflejado en la definición.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Una forma sesquilineal en $V$ es una función $\varphi: V \times V \rightarrow \mathbb{C} $ tal que:

  • Para cualesquiera $x_1,x_2,y \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (\lambda x_1+x_2, y) = \overline{\lambda} \varphi (x_1,y)+ \varphi(x_2 , y).$$
  • Para cualesquiera $y_1,y_2,x \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (x,\lambda y_1+y_2) = \lambda\varphi (x,y_1)+ \varphi(x, y_2).$$

De esta manera, la «media» linealidad se refiere a que en la primera entrada de $\varphi$ las sumas sí se abren, pero los escalares «salen conjugados». Debido a esto, no es tan común que una forma sesquilineal sea simétrica. Sin embargo, tenemos una noción similar que resultará fundamental.

Definición. Una forma sesquilineal $\varphi$ se llamará hermitiana si $\overline{ \varphi(y,x) }= \varphi(x,y)$ para cualesquiera $x, y \in V$.

Como comentario, en algunos contextos las formas sesquilineales son lineales en la primer coordenada y semi-lineales en la segunda. Asegúrate de verificar la definición cada que cambies de contexto. A las formas sesquilineales hermitianas también se les conoce como conjugadas simétricas.

Propiedades de formas sesquilineales

Las formas sesquilineales son parecidas a las formas bilineales en el sentido de que basta saber cómo son en parejas de elementos de una base para conocerlas por completo. De hecho, como en el caso de formas bilineales tenemos un resultado un poco más general. Sin embargo, ten cuidado. Observa que todo el tiempo debemos cuidar que los escalares de la primera entrada salen conjugados.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Sean $m,n$ enteros positivos, $a_1, \cdots a_n, b_1, \cdots b_m$ vectores en $V$, $\lambda_1, \cdots \lambda_n, \mu_1, \cdots \mu_m$ números complejos y $\varphi$ una forma sesquilineal. Se cumple que:
\begin{align*}
\varphi\left(\sum_{i=1}^n \lambda_ia_i , \sum_{j=1}^m\mu_jb_j\right)=\sum_{i=1}^n\sum_{j=1}^m\overline{\lambda_i}\mu_j\varphi(a_i,b_j)
\end{align*}

La demostración queda como ejercicio. Usando esta proposición se puede demostrar un resultado en términos de bases.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ de dimensión $n$ y $e_1,\ldots,e_n$ una base de $V$. Sean $a_{ij}$ números complejos para $i,j=1,\ldots,n$. Existe una y sólo una forma sesquilineal $\varphi:V\times V\to \mathbb{C}$ tal que $\varphi(e_i,e_j)=a_{ij}$.

Los espacios de formas sesquilineales y hermitianas

Dado un espacio vectorial complejo $V$, podemos definir los siguientes dos conjuntos, de todas las formas sesquilineales y todas las formas hermitianas, respectivamente:

\begin{align*} S(V) &:= \{ \varphi: V \times V \rightarrow \mathbb{C} \; | \; \varphi \text{ es sesquilineal} \}\\
H(V) &:= \{ \varphi \in S(V) \; | \; \varphi \text{ es hermitiana}\}
\end{align*}
Los conjuntos son no vacíos, pues la función constante $0$ es forma sesquilineal y hermitiana.

De manera análoga a lo que sucedía con las formas bilineales, el conjunto $S(V)$ es un subespacio vectorial del espacio complejo de todas las funciones de $V \times V $ en $\mathbb{C}$. Esto puedes verificarlo por tu cuenta. Sin embargo, $H(V)$ no es un subespacio vectorial de dicho subespacio. De hecho, ni siquiera es un espacio vectorial sobre $\mathbb{C}$. En los problemas puedes encontrar un contraejemplo de que sea cerrado bajo multiplicación escalar.

Sin embargo, no todo está perdido. Podemos pensar a $S(V)$ como un espacio vectorial sobre los reales. Simplemente limitamos los productos escalares a números reales. En este contexto, resulta que $H(V)$ sí es un subespacio de $S(V)$ (y por lo tanto un espacio vectorial sobre $\mathbb{R}$). Veamos esto.

Proposición. El conjunto $H(V)$ es un subespacio vectorial de $S(V)$, pensando a este último como espacio vectorial sobre $\mathbb{R}$.

Demostración. Sabemos que $H(V) \subseteq S(V)$ y que ambos son distintos del vacío, así que basta probar que $H(V)$ es cerrado bajo la suma y multiplicación por escalares reales.

Sean $\varphi_1, \varphi_2 \in H(V)$, $x,y \in V$ y $\lambda \in \mathbb{R}$. Sabemos por cómo está definida la suma que

\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \varphi_1(x,y) + \varphi_2 (x,y) \end{align*}

Además, como $\varphi_1, \varphi_2 \in H(V)$, tenemos que

\begin{align*} \varphi_1(x,y) &= \overline{\varphi_1(y,x)}\\\varphi_2(x,y) &= \overline{\varphi_2(y,x)} \end{align*}

por lo que

\begin{align*} (\varphi_1 + \varphi_2) (x,y) &= \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)}\\&= \overline{ (\varphi_1+\varphi_2) (y,x) }
\end{align*}

De aquí se concluye que $\varphi_1 + \varphi_2 \in H(V)$.

Para la multiplicación tenemos la siguiente cadena de igualdades, en donde estamos usando $\overline(\lambda)=\lambda$ (¿por qué?):

\begin{align*}
(\lambda \varphi_1) (x,y) &= \lambda (\varphi_1(x,y))\\
&=\lambda (\overline{ \varphi_1(y,x)})\\
&= \overline{\lambda\varphi_1(y,x)}
\end{align*}

Se concluye que $\lambda \varphi_1 \in H(V)$.

Con las dos propiedades mostradas basta para afirmar que $H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

$\square$

El espacio $H(V)$ no es únicamente un subespacio de $S(V)$. De hecho es un subespacio importante, pues nos permite escribir a $S(V)$ fácilmente como suma directa de dos subespacios.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos a $S(V)$ como espacio vectorial sobre $\mathbb{R}$. Tenemos la siguiente descomposición: $$S(V)=H(V)\oplus iH(V).$$

Un recordatorio de la suma directa lo puedes encontrar aquí.

Demostración. Empecemos probando que $S(V)$ efectivamente se puede descomponer como la suma de $H(V)$ e $iH(V)$.
Para esto, basta demostrar que cualquier forma sesquilineal se puede expresar como suma de una forma hermitiana e $i$ veces otra forma hermitiana. Para ello, dada $\varphi \in S(V)$ definimos $h_1, h_2$ como sigue:

\begin{align*} h_1(x,y)&=\frac{\varphi(x,y)+ \overline{\varphi(y,x)}}{2}\\h_2(x,y)&=\frac{\varphi(x,y)- \overline{\varphi(y,x)}}{2i}\end{align*}

Claramente $\varphi=h_1+ih_2$, así que basta mostrar que $h_1$ y $h_2$ son hermitianas. Lo haremos para $h_2$ y $h_1$ quedará como ejercicio.

Tomemos cualesquiera $x,y$ en $V$. Calculemos $\overline{h_2(y,x)}$:

\begin{align*}
\overline{h_2(y,x)}=\overline{\left(\frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}\right)} \end{align*}

Nota que se cumple la siguiente identidad:
\begin{align*} \frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}=\frac{-\varphi(y,x)i+ \overline{\varphi(x,y)}i}{2} \end{align*}

Así,

\begin{align*} \overline{h_2(y,x)}=\overline{\left(\frac{-\varphi(y,x)i + \overline{\varphi(x,y)}i}{2}\right)}\end{align*}

Además, para cualquier $c \in \mathbb{C}$ tenemos que $\overline{ci}=-\overline{c}i$, por lo que

\begin{align*} \overline{h_2(y,x)}= \frac{\overline{\varphi (y,x)}i -\varphi (x,y)i}{2}\end{align*}

Finalmente multiplicando por $\frac{i}{i}:$

\begin{align*} \overline{h_2(y,x)}&= \frac{-\overline{\varphi (y,x)} + \varphi (x,y)}{2i}\\&=\frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2i}\\&=h_2(x,y) \end{align*}

Concluimos que $h_2 \in H(V)$. Hasta ahora, hemos mostrado que $$S(V)=H(V)+iH(V).$$ Demostrar que $H(V)$ y $iH(V)$ están en posición de suma directa es más sencillo.

Sea $h \in H(V) \cap iH(V)$. En particular $h \in iH(V)$ por lo que existe $h_1 \in H(V)$ tal que $h=ih_1$ así, para cualesquiera $x,y \in \mathbb{C}$

\begin{align*} h(x,y)&=\overline{h(y,x)}\\&=\overline{ih_1(y,x)}\\&=-i\overline{h_1(y,x)}\\&=-ih_1(x,y)\\&=-h(x,y).\end{align*}

De esta cadena concluimos que $h(x,y)=-h(x,y)$ y sabemos que el único complejo que cumple esto es el $0$. Por lo tanto $h(x,y)=0$, así que $h=0$ y entonces $H(V) \cap iH(V)= \{ 0 \}$. Esto es suficiente para saber qué $H(V)$ y $iH(V)$ están en posición de suma directa. Concluimos que
\begin{align*} S(V)= H(V) \oplus iH(V).\end{align*}

$\square$

Más adelante…

En esta entrada definimos a las formas sesquilineales como un análogo en $\mathbb{C}$ a las formas bilineales. Como es de esperarse, también definiremos un análogo a las formas cuadráticas. Las «nuevas» formas cuadráticas que definiremos también tendrán su teorema de Gauss.

Un poco después de eso podremos hablar de las formas matriciales para formas bilineales y para formas sesquilineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Muestra que $H(V)$ en general no es un espacio vectorial sobre $\mathbb{C}$. Para ello, muestra que si $V$ es $\mathbb{C}^2$ y $\varphi((x_1,x_2),(y_1,y_2))=\overline{x_1}x_1+\overline{x_2}y_2$, entonces $\varphi$ es hermitiana, pero $i\varphi$ no lo es.
  2. Demuestra la proposición sobre aplicar una forma sesquilineal en combinaciones lineales.
  3. Demuestra la proposición sobre formas sesquilineales y bases. En ese contexto, ¿cómo deben ser los $a_{ij}$ para que la forma sea hermitiana?
  4. Sea $\varphi$ una forma hermitiana en un espacio vectorial complejo $V$. Demuestra que:
    • Para todo $x\in V$ la expresión $\varphi(x,x)$ es un número real.
    • Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\varphi(ax,ax) = |a|^2\varphi(x,x)$.
  5. En el contexto de la proposición de descomposición de $S(V)$ como suma directa de $H(V)$ y $iH(V)$, demuestra que $h_1$ es hermitiana.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»