Archivo del Autor: Diego Ligani Rodríguez Trejo

Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada $V$ es un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ y norma asociada $\norm{\cdot}$.

Definición. Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
para cualesquiera $i,j$ en $I$ se tiene que $$\langle v_i,v_j \rangle =0.$$ Aquí $I$ es un conjunto de índices cualquiera.

Definición. Diremos que una $(v_i)_{i \in I}$ es ortonormal si es ortogonal y además cada vector tiene norma $1$.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores $(v_i)_{i\in I}$ cualquiera podemos obtener una familia en donde todos los vectores tienen norma $1$. Basta con reemplazar $v_i$ por $\frac{v_i}{\norm{v_i})$ para todo $i\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal $$\sum_{i\in I} \alpha_i v_i=0,$$ entonces hacemos producto interior por cada $v_i$. Tras esto, como la familia es ortogonal, el único elemento que queda es $\alpha_i\langle v_i, v_i\rangle$ y está igualdado a cero. Por ser producto interior, $\langle v_i, v_i\rangle\neq 0$, así que $\alpha_i=0$.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea $V$ un espacio euclideano de dimensión $n$ con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero tiene a lo más $n$ elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortogonal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\langle u_i,u_i\rangle} u_i\\
&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\norm{u_i}^2} u_i.
\end{align*}

En otras palabras, «la coordenada correspondiente a $u_i$ se obtiene haciendo producto interior con $u_i$ y dividiendo entre el cuadrado de la norma de $u_i$». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a $v$ como combinación lineal de los elementos de $\beta$ y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada $u_i$ son $1$ y entonces obtenemos lo siguiente.

Corolario. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal $u_1,\ldots,u_n$ son las formas lineales $\langle \cdot, u_1\rangle, \ldots, \langle \cdot, u_n\rangle$.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base $u_1,\ldots,u_n$ de un espacio euclideano, la expresión

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

es muy importante, y se le conoce como la descomposición de Fourier de $v$ con respecto a $\beta$. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros conextos en donde no necesariamente tenemos dimensión finita, y en donde el vector $v$ al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ se obtiene de manera inmediata la norma de un vector.

Proposición. Si $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ para una base ortonormal $u_1,\ldots,u_n$, entonces $\norm{x}^2=\sum_{i=1}^n \langle v,u_i\rangle^2$.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea $V$ un espacio euclideano y $W$ un subespacio. Sea $u_1,\ldots,u_r$ una base ortonormal de $W$. Entonces para todo vector $v\in V$ se tiene que $$p_W(v)=\sum_{i=1}^r \langle v, u_i \rangle u_i.$$

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea $V$ un espacio euclideano y $u_1,\ldots,u_r$ un conjunto ortonormal de vectores. Entonces $$\sum_{i=1}^r \langle v, v_i \rangle ^2\leq \norm{v}^2$$ para todo $v$ en $V$.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a $W$ el espacio generado por $u_1,\ldots,u_r$ y calcular $d(v,W)$ usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial $V$ con producto interior. En la siguiente entrada recordaremos un resultado crucial: si $V$ es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en $M_n(\mathbb{R})$ tienen un producto interior dado por $\langle A,B\rangle=\text{traza}(\text{ }^tAB)$. Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de $\mathbb{R}^n$ cómo es la matriz de cambio de base de una base ortogonal $\beta$ de $\mathbb{R}^n$ a otra base ortogonal $\beta’$.
  4. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más $2$. Definimos la función $\langle \cdot,\cdot \rangle: V\times V\to\mathbb{R}$ como sigue: $$\langle p,q\rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1).$$ Demuestra que $\langle \cdot, \cdot \rangle$ así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Álgebra Lineal II: Dualidad y representación de Riesz en espacios euclideanos

Introducción

En Álgebra Lineal I introdujimos el concepto de espacio dual. A grandes rasgos, era un espacio vectorial en donde estaban todas las formas lineales de un espacio hacia el campo en donde estaba definido. Por otro lado, en entradas recientes hicimos un recordatorio de qué era un producto interior. Lo que haremos ahora es relacionar ambos conceptos. Esta relación no debería ser tan inesperada, pues finalmente un producto interior es una forma bilineal, y al fijar una entrada de una forma bilineal obtenemos una forma lineal.

Lo primero que haremos es ver cómo conectar la matiz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».

Nos enfocaremos únicamente a los resultados en el caso lineal. Los casos en el caso complejo son muy parecidos, y se exploran en los ejercicios.

La matriz de una transformación que «crea» formas lineales

Sea $V$ un espacio vectorial real con una forma bilineal $b$. A partir de $b$ podemos construir muchas formas lineales, a través de la función $\varphi_b:V\to V^\ast$ que asigna a cada vector $y$ de $V$ a la forma lineal $\varphi_b(y):=b(\cdot,y)$.

Podemos pensar a $\varphi_b$ como «una maquinita que genera formas lineales» que depende del vector $b$. Claramente $\varphi_b(y)$ es lineal, pues $b$ es lineal en su primera entrada. Y también claramente $\varphi_b$ es lineal, pues $b$ es lineal en su segunda entrada. En cierto sentido, la matriz correspondiente a la forma bilineal $b$ coincide con la matriz correspondiente a $\varphi_b$.

Proposición. Sea $\beta$ una base de un espacio vectorial $V$ de dimensión finita sobre los reales. Sea $\beta^\ast$ su base dual. Tomemos $b$ una forma bilineal en $V$. La matriz de $\varphi_b$ con respecto a las bases $\beta$ y $\beta’$ es igual a la matriz de $b$ con respecto a la base $\beta$.

Demostración. Llamemos a los elementos de la base $\beta$ como $u_1,\ldots,u_n$ y a los de la base $\beta^ \ast$ como $l_1,\ldots,l_n$. Para encontrar la $j$-ésima columna de la matriz de $\varphi_b$ con respecto a $\beta$ y $\beta^\ast$, debemos expresar a cada $\varphi_b(u_j)$ como combinación lineal de los elementos $l_1,\ldots,l_n$. Para hacer esto, es más sencillo ver cómo es $\varphi_b(u_j)(x)$ para cada $x\in V$ y usar que los $l_i$ «leen» las coordenadas en la base $\beta$.

Para ello, tomemos $x=\sum_{i=1}^nu_ix_i$. Tenemos lo siguiente:

\begin{align*}
\varphi_b(u_j)(x)&=b(\sum_{i=1}^nu_ix_i,u_j)\\
&= \sum_{i=1}^nx_ib(u_i,u_j)\\
&= \sum_{i=1}^n l_i(x) b(u_i,u_j).
\end{align*}

Como esto sucede para cada vector $x$, tenemos entonces que $$\varphi_b(u_j)=\sum_{i=1}^n b(u_i,u_j) l_i.$$

Pero esto es justo lo que queremos. Las entradas de la $j$-ésima columna de la matriz que representa a $\varphi_b$ son entonces los coeficientes $b(u_1,u_j),b(u_2,u_j),\ldots,b(u_n,u_j)$. Pero esas son justo las entradas de la $j$-ésima columna de la matriz que representa a $b$ en la base $\beta$.

$\square$

Teorema de representación de Riesz

La sección anterior explica cómo de una forma bilineal $b$ podemos obtener una «máquinita» que genera formas lineales $\varphi_b$. Si $b$ es mucho más especial (un producto interior), entonces esta maquinita es «más potente», en el sentido de que puede generar cualquier forma lineal del espacio. A este resultado se le conoce como el teorema de representación de Riesz. Aunque sus versiones más generales incluyen ciertos espacios de dimensión infinita, y el enunciado dice algo más general, en este curso nos limitaremos a enunciar y demostrar la versión en espacios vectoriales de dimensión finita.

Teorema (teorema de representación de Riesz). Sea $V$ un espacio euclidiano con producto interno $\langle \cdot, \cdot \rangle$. La función $\varphi_{\langle \cdot, \cdot \rangle}: V \rightarrow V^\ast$ es un isomorfismo.

Demostración. Debemos probar que $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal biyectiva hacia $V^\ast$. Como mencionamos en la sección anterior, cada $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es una forma lineal pues el producto interior es lineal en su primera entrada. Además, $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal pues el producto interior es lineal en su segunda entrada.

Por los resultados que se vieron en el curso de Álgebra Lineal I, se tiene que $\dim V = \dim V^\ast$. De esta manera, basta ver que $\varphi_{\langle\cdot,\cdot \rangle}$ es inyectiva. Y para ello, basta ver que el único vector $y$ tal que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero es $y=0$.

Supongamos entonces que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero. Si este es el caso, entonces para cualquier $x$ en $V$ tendríamos que $\langle x, y \rangle = 0$. En particular, esto sería cierto para $x=y$, de modo que $\langle y, y \rangle =0$. Pero como el producto interior es positivo definido, esto implica que $y=0$.

Esto muestra que $\varphi_{\langle \cdot, \cdot \rangle}$ es inyectiva. Como es transformación lineal entre espacios de la misma dimensión, entonces es biyectiva.

$\square$

Ejemplo de representación de Riesz

Las operaciones que se hacen para calcular una forma lineal no siempre son sencillas. Lo que nos dice el teorema de representación de Riesz es que podemos tomar un «vector representante» de una forma lineal para que evaluarla corresponda «simplemente» a hacer un producto interior. Si es fácil hacer ese producto interior, entonces podemos simplificar la evaluación de la forma lineal.

Ejemplo. Tomemos $V$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $2$. Hemos visto con anterioridad que $\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}$ dado por: $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2) $$ es un producto interior.

Hemos visto también que $I:V\to \mathbb{R}$ dada por $I(p)=\int_0^1 p(x)\, dx$ es una forma lineal. El teorema de representación de Riesz nos garantiza que $I$, que es una integral definida, debería poder de «representarse» como el producto interior con un polinomio especial $q$. Esto parecen ser buenas noticias: para $I(p)$ necesitamos hacer una integral. Para hacer el producto interior, sólo son unas multiplicaciones y sumas.

El polinomio «mágico» que funciona en este caso es el polinomio $q(x)=-\frac{x^2}{2}+\frac{3}{4}x+\frac{5}{12}$. Puedes verificar que:

\begin{align*}
q(0)&=\frac{5}{12}\\
q(1)&=\frac{2}{3}\\
q(2)&=-\frac{1}{12}.
\end{align*}

De esta manera, si hacemos el producto interior con cualquier otro polinomio $p(x)=ax^2+bx+c$ obtenemos:

\begin{align*}
\langle p, q \rangle &= p(0)q(0) + p(1)q(1)+p(2)q(2)\\
&= c\cdot \frac{5}{12} + (a+b+c)\cdot \frac{2}{3} + (4a+2b+c) \cdot \left(-\frac{1}{12}\right)\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

Si por otro lado hacemos la integral, obtenemos:

\begin{align*}
\int_0^1 ax^2 + bx + c \, dx &= \left. \left(\frac{ax^3}{3}+\frac{bx^2}{2}+cx \right)\right|_0^1\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

En ambos casos se obtiene lo mismo.

$\square$

Se podría tener una discusión más profunda para explicar cómo se obtuvo el polinomio $q$ del ejemplo anterior. Sin embargo, dejaremos la experimentación de esto para los ejercicios. Por ahora, la mayor ventaja que le encontraremos al teorema de representación de Riesz es la garantía teórica de que dicho vector que representa a una forma lineal dado un producto interior siempre existe en los espacios euclideanos.

Más adelante…

Hemos enunciado y demostrado una versión del teorema de Riesz para espacios euclieanos. Este teorema tiene versiones más generales en el contexto de espacios de Hilbert. Así mismo, una versión más extensa del teorema de Riesz nos dice cómo es la norma del vector que representa a un producto interior. Estos resultados son muy interesantes, pero quedan fuera del alcance de este curso. Es posible que los estudies si llevas un curso de análisis funcional.

Un poco más adelante, en la Unidad 3, usaremos el teorema de representación de Riesz para definir a las transformaciones adjuntas, a las simétricas y a las ortogonales. Por ahora, nos enfocaremos en estudiar más definiciones y propiedades en espacios euclideanos. La siguiente definición que repasaremos es la de ortogonalidad para vectores y para espacios vectoriales. Es un concepto que se estudia por encima en Álgebra Lineal I, pero ahora tenemos herramientas para poder decir más.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a $\varphi_b: V \rightarrow V^*$ en la otra entrada? Es decir, como la función tal que $\varphi_b(x)=b(x,\cdot)$? Si hacemos esto, ¿cambian en algo los resultados que vimos?
  2. Considera el espacio vectorial de matrices en $M_n(\mathbb{R})$. Anteriormente vimos que $b(A,B)=\text{tr}(\text{ }^t A B)$ es un producto interior y que sacar traza es una forma lineal. De acuerdo al teorema de representación de Riesz, debe haber una matriz $T$ que representa a la traza, es decir, tal que $\text{tr}(A)=b(A,T)$. ¿Quién es esta matriz $T$? Ahora, si tomamos la transformación que manda una matriz $A$ a la suma de las entradas en su antidiagonal, esto también es una forma lineal. ¿Quién es la matriz que representa a esta forma lineal con el producto interior dado?
  3. Enuncia y demuestra un teorema de igualdad de formas matriciales para el caso de formas sesquilineales. ¿Necesitas alguna hipótesis adicional?
  4. Enuncia y demuestra un teorema de representación de Riesz para espacios hermitianos. Deberás tener cuidado, pues el vector que representa a una forma lineal tendrá que estar en la coordenada que conjuga escalares. ¿Por qué?
  5. ¿Será cierto el teorema de representación de Riesz si la forma bilineal no es un producto interior? Identifica dónde falla la prueba que dimos. Luego, construye un contraejemplo para ver que la hipótesis de que $b$ sea positiva definida es fundamental. Es decir, encuentra un espacio vectorial $V$ real con una forma bilineal simétrica y positiva $b$, en donde exista una forma lineal $l$ tal que sea imposible encontrar un vector $y$ tal que para todo $x$ en $V$ se tenga que $l(x)=b(x,y)$. Sugerencia. Parace que hay muchos cuantificadores. Intenta dar un contraejemplo lo más sencillo posible, por ejemplo, en $\mathbb{R}^2$.

Entradas relacionadas

Álgebra Lineal II: Matrices de formas sesquilineales

Introducción

En la entrada anterior dimos una relación entre matrices y formas bilineales. Como hemos hecho anteriormente, extenderemos este conocimiento para el caso de espacios vectoriales complejos. En esta entrada daremos una relación entre formas sesquilineales, formas cuadráticas hermitianas y matrices. Daremos la definición y veremos sus propiedades.

Gran parte de la relación que había para el caso real se mantiene al pasar a los complejos. Las demostraciones en la mayoría de los casos son análogas, así que la mayoría de ellas quedarán como tarea moral. Sin embargo, haremos énfasis en las partes que hacen que el caso real y el complejo sean distintos. Te recomendamos tener a la mano las entradas sobre formas bilineales y matrices y formas sesquilineales.

Matriz asociada a una forma sesquilineal y una forma cuadrática hermitiana

A partir de aquí, en esta entrada, asumiremos que $V$ es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita. Recordemos que $S(V)$ se definió como el espacio de formas sesquilineales de $V$.

Definición. Sea $u_1, \ldots, u_n$ una base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal de $V$. La matriz de $\varphi$ con respecto a la base $u_1, \ldots, u_n$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j),\end{align*}
para todo $i,j$ tal que $1 \leq i,j \leq n$.

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial. Así como en el caso real, también podemos definir la matriz de una forma cuadrática usando su forma polar.

Definición. Sea $u_1, \cdots , u_n$ una base de $V$ y $q$ una forma cuadrática hermitiana de $V$, la matriz de $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz de su forma polar en esa misma base.

Hasta ahora todo es muy parecido al caso real.

Evaluar la forma sesquilineal con su matriz

Como en el caso real, podemos la matriz de una forma sesquilineal para evaluarla. Sin embargo, hay que ser cuidadosos pues por la sesquilinealidad debemos conjugar el vector de coordenadas de la primer entrada de la forma sesquilineal.

Proposición. Sea $\varphi$ una forma sesquilineal de $V$ y $\mathcal{B}$ una base de $V$. Sea $A$ la matriz de $\varphi$ en la base $\mathcal{B}$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\mathcal{B}$, respectivamente. Entonces: $$\varphi(x,y)=X^\ast AY.$$

La demostración es análoga al caso real, cuidando en que en la primer entrada de una forma sesquilineal los escalares salen conjugados. Por ello, queda como ejercicio.

Tenemos dos consecuencias importantes de la proposición anterior:

  • La matriz $A$ que hace $$\varphi(x,y)=X^\ast AY$$ para cualesquiera $x,y$, es única.
  • Se tiene que $\varphi$ es hermitiana si y sólo si su matriz $A$ cumple $A=A^\ast$.

En el caso real no vimos las demostraciones de las afirmaciones análogas, así que ahora sí veremos las demostraciones de estas.

Proposición. Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^ \ast AY.\end{align*}

Demostración. Supongamos que tenemos otra matriz $A’=[a’_{ij}]$ tal que \begin{align*} \varphi(x,y)=X^*A’Y.\end{align*} Tomando elementos $u_i$ y $u_j$ de la base $\mathcal{B}$, obtenemos que el vector de coordenadas $U_i$ (resp. $U_j$) de $u_i$ (resp. $u_j$) es el vector con $1$ en la entrada $i$ (resp. $j$) y cero en las demás. De este modo:

\begin{align*}
a’_{ij}&=U_i^*A’U_j\\
&=b(u_i,u_j)\\
&=a_{ij}.
\end{align*}

Esto muestra que las matrices $A$ y $A’$ son iguales entrada a entrada, de modo que $A$ es única.

$\square$

Proposición. Con la notación de arriba, $\varphi$ es hermitiana si y sólo si $A=A^*$.

Demostración. Supongamos primero que $\varphi$ es hermitiana. En particular, para $u_i$ y $u_j$ elementos de la base obtenemos que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}.$ En términos de las entradas de la matriz $A$ obtenemos entonces que:

\begin{align*}
a_{ij}&=\varphi(u_i,u_j)\\
&= \overline{\varphi(u_j,u_i)}\\
&=\overline{a_{ji}}.
\end{align*}

Esto nos dice que $A=A^\ast$.

Ahora, suponiendo que $A=A^ \ast $ se tiene directamente que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}$ para cualquier par de elementos $u_i$ y $u_j$ de la base. De este modo, la forma sesquilineal es hermitiana en parejas de elementos de la base. Si tenemos ahora cualesquiera dos vectores $x$ y $y$ en $V$, basta con escribirlos en términos de la base $x=\sum_{i=1}^n x_iu_i$, $y=\sum_{j=1}^n y_ju_j$ y usar la proposición de la entrada de formas sesquilineales para obtener

\begin{align*}
\varphi(x,y)&=\sum_{i=1}^n \sum_{j=1}^n \overline{x_i}y_j \varphi(u_i,u_j)\\
&= \sum_{i=1}^n \sum_{j=1}^n \overline{x_i \overline{y_j}\varphi(u_j,u_i)}\\
&=\overline{\varphi(y,x)},
\end{align*}

tal y como queríamos.

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición. Sea $A\in M_n(\mathbb{C})$. Diremos que $A$ es conjugada simétrica o hermitiana si $A=A^*.$

Cambios de base

En el caso real, dos matrices que representan a una misma matriz difieren en un producto dado por una matriz de cambio de base y su transpuesta. En el caso complejo sucede algo parecido, pero debemos usar una matriz de cambio de base y su transpuesta conjugada.

Proposición. Supongamos que una forma sesquilineal $\varphi$ tiene asociada una matriz $A$ con respecto a una base $\mathcal{B}$ y una matriz $A’$ con respecto a otra base $\mathcal{B}’$ . Sea $P$ la matriz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$ . Entonces

\begin{align*} A’=P^\ast AP.\end{align*}

La demostración es análoga al caso real, cuidando la conjugación de los escalares que salen de la primera entrada de una forma sesquilineal.

Más adelante…

Hasta ahora ya hemos hablado de formas bilineales, sesquilineales y sus formas matriciales. También platicamos de algunos conceptos que surgen de estas ideas, como las formas cuadráticas y las cuadráticas hermitianas. La importancia de estos conceptos es que nos permiten hacer geometría en espacios vectoriales reales o complejos.

En la siguiente entrada explicaremos esto más a detalle. Un poco más adelante veremos cómo en espacios «con geometría» podemos definir conceptos de dualidad y ortogonalidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Considera la matriz $\begin{pmatrix}1+i & 0 \\ 5 & 1+2i \end{pmatrix}$. ¿Con cuál forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base canónica? ¿Y con forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base $(1+i,1)$, $(1,2+i)$?
  2. Prueba la proposición que dice cómo evaluar una forma sesquilineal usando su forma matricial y los vectores coordenada de vectores en cierta base dada.
  3. Prueba la proposición de cambios de base para la forma matricial de una forma sesquilineal.
  4. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$ se tiene que
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  5. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ se tiene que las matrices $B^*B$ y $BB^*$ son hermitianas.

Entradas relacionadas

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos $$A= \text{ }^t P D P = ( \text{ }^t P \text{ }^t S) (SP)= \text{ }^t (SP) SP = \text{ }^t B B,$$ como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas