Archivo de la etiqueta: teorema de Sylvester

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices de formas bilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Al principio de esta unidad, especialmente en la entrada del teorema de Gauss empezamos a hablar de una relación entre formas bilineales y matrices. Aquí formalizaremos esta relación. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.

Matriz asociada a una forma bilineal y una forma cuadrática

En toda esta entrada, $V$ es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Definición. Sea $ e_1, \cdots , e_n$ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal de $V$. La matriz de $b$ con respecto a la base $e_1,\ldots, e_n$ es la matriz

\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j),\end{align*}

para todo $i,j$ tal que $1 \leq i,j \leq n$.

Para definir la forma matricial de una forma cuadrática tenemos que ser un poco más cuidadosos. Hay más de una forma bilineal que puede generar a una misma forma cuadrática. Sin embargo, por la identidad de polarización tenemos que esta forma bilineal es única si pedimos adicionalmente que sea simétrica. De aquí obtenemos la siguiente definición.

Definición. Sea $e_1, \cdots , e_n$ una base de $V$ y $q$ una forma cuadrática de $V$, la matriz de $q$ con respecto a la base $e_1, \ldots, e_n$ es la matriz de su forma polar en esa misma base.

Problema. Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1,\end{align*}

para cada $x=(x_1,x_2,x_3)\in \mathbb{R}^3$.

Encuentra su matriz asociada $A$ en la base canónica y su matriz asociada $B$ en la base \begin{align*}u_1&=(1,1,0),\\ u_2&=(1,0,1),\\ u_3&=(0,1,1).\end{align*}

Solución. Primero, mediante la identidad de polarización tenemos que la forma polar $b$ de $q$ cumple que $b(x,x’)$ es

\begin{align*} \frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} ,\end{align*}

para $x=(x_1,x_2,x_3)$ y $x’=(x’_1,x’_2,x’_3)$.

Ahora, calculemos qué le hace esta forma bilineal a la base canónica de par en par.

\begin{align*}
&b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \\
\text{y} \quad &b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}.
\end{align*}

Por lo que su matriz asociada en la base canónica es

\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}

Por otro lado, calculando lo que $b$ le hace a nuestra otra base

\begin{align*}
&b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \\
\text{y} \quad &b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}
\end{align*}

Y construyendo esta otra matriz:

\begin{align*}
B=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1
\end{pmatrix}
\end{align*}

$\triangle$

Evaluar la forma bilineal con su matriz

En la entrada del teorema de Gauss vimos que si $b$ es una forma bilineal de $V$ y $e_1,\ldots,e_n$ es una base, entonces para cualesquiera vectores

\begin{align*}
x&=x_1e_1+\ldots+x_ne_n\\
y&=y_1e_1+\ldots+y_ne_n
\end{align*}

tenemos que $$b(x,y)=\sum_{i=1}^n \sum_{j=1}^n x_i y_j b(e_i,e_j).$$

Por la regla del producto de matrices, la expresión de la derecha es precisamente lo que se obtiene al realizar la siguiente operación:

$$^t{X} \begin{pmatrix}b(e_1,e_1) & b(e_1,e_2) & \ldots & b(e_1,e_n)\\ b(e_2,e_1) & b(e_2,e_2) & \ldots & b(e_2,e_n)\\ \vdots & & \ddots & \vdots \\ b(e_n,e_1) & b(e_n,e_2) & \ldots & b(e_n,e_n) \end{pmatrix} Y,$$

donde $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$.

Notemos que en medio tenemos justo la forma matricial de $b$ en la base $e_1,\ldots,e_n$. Al lado izquierdo tenemos al transpuesto del vector de coordenadas de $x$ en la base $e_1,\ldots, e_n$ y al lado derecho tenemos al vector de coordenadas de $y$ en esta misma base. Hemos demostrado lo siguiente.

Proposición. Sea $b$ una forma bilineal de $V$ y $\beta$ una base de $V$. Sea $A$ la matriz de $b$ en la base $\beta$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\beta$, respectivamente. Entonces $$b(x,y)=\text{}^tXAY.$$

Algunas consecuencias de la proposición anterior son:

  • Una forma bilineal es simétrica si y sólo si su matriz en una base cualquiera es simétrica.
  • Si fijamos la base $\beta$ y la forma bilineal $b$, entonces la matriz que hace que $b(x,y)=\text{}^tXAY$ para todos $x,y$ es única.

La discusión anterior nos permite comenzar con una forma bilineal $b$ y una base $\beta$ y obtener una (y sólo una) matriz. Partiendo de una matriz y una base $\beta$ también podemos obtener una forma bilineal mediante la regla $$b(x,y)=\text{}^tXAY.$$

Cambios de base

En los resultados anteriores al fijar un espacio vectorial $V$ de dimensión $n$ y una base $\beta$ obtenemos una asociación biyectiva (de hecho un isomorfismo) entre formas bilineales de $V$ y matrices en $M_n(\mathbb{R})$.

Sin embargo, al cambiar la base de $V$, la matriz que representa a una forma bilineal puede cambiar.

Proposición. Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$. Sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$. Entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

Demostración. Sean $x,y \in V$ dos vectores cualesquiera. Escribamos $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$. Usando $\beta$ escribamos

\begin{align*} x=x_1u_1 + \cdots + x_nu_n.\end{align*}

Definamos a $X$ como el vector columna de las coordenadas de $x$ en la base $\beta$, es decir:

$$X=\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}.$$

Definimos análogamente a $X’, Y, Y’$ como los vectores columnas de coordenadas de $x$ en la base $\beta’$, de $y$ en la base $\beta$ y de $y$ en la base $\beta’$, respectivamente.

Sabemos entonces que

\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}

Además, sabemos que

\begin{align*}
X&=PX’\\
Y&=PY’
\end{align*}

De aquí se tiene la siguiente cadena de igualdades:

\begin{align*}
\text{ }^tX’A’Y’&= b(x,y)\\
&=\text{ }^tXAY\\
&=\text{ }^t(PX’)A(PY’)\\
&=\text{ }^tX’\text{ }^tPAPY’.
\end{align*}

Fijándonos en los extremos

\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’. \end{align*}

Por la unicidad de la matriz que representa a $b$ en la base $\beta’$, finalmente concluimos que

\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante…

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices. Podemos ver que ésta nos dio otra manera de entender y calcular a las formas bilineales. Algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal. Antes de llegar a eso, primero veremos el análogo complejo de lo que acabamos de estudiar.

Otro problema que enfrentamos es la dependencia de las matrices a su base. Aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida. Esto lo abordaremos un poco más adelante. De hecho, cuando lo hagamos estaremos listos para enunciar y demostrar un resultado muy interesante: la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su forma polar. ¿Es esta forma cuadrática $q$ positiva definida? ¿Es positiva?
  2. Encuentra la matriz $A$ asociada a la forma cuadrática $q$ del ejercicio anterior con respecto a la base canónica y la matriz $B$ asociada a $q$ con respecto a la base $(1,1,1), (0,-1,-1),(0,0,2)$.
  3. Encuentra las matrices de cambio de base entre la base canónica y la base del inciso anterior. Verifica que se cumple el resultado de cambios de base.
  4. Encuentra una expresión de Gauss para $q$.
  5. Encuentra el rango de $A$ y de $B$. Encuentra el determinante de $A$ y de $B$ ¿Notas algo en particular?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Teorema de Sylvester

Por Diego Ligani Rodríguez Trejo

Introducción

En entradas anteriores estudiamos las formas bilineales y las cuadráticas. También vimos las matrices que las representan. Introdujimos una noción de congruencia de matrices relacionada con todo esto. Y vimos que la congruencia de matrices preserva una noción de positividad para matrices. Ahora daremos un paso más y veremos que de hecho la congruencia de matrices preserva más que sólo eso.

Para ello, introduciremos la noción de la signatura de una matriz. A grandes rasgos, esta noción nos dice «qué tan positiva» es una matriz simétrica. Para definir esta noción, lo haremos primero para las matrices diagonales. Luego lo definiremos para todas las matrices simétricas a través del teorema que demostramos la entrada anterior. Toda la discusión la haremos en el caso real. El caso complejo tiene sus versiones análogas, que quedarán descritas en los ejercicios.

Signatura de una matriz diagonal

Comenzamos con la siguiente definición.

Definición. Sea $A$ una matriz diagonal en $M_n(\mathbb{R})$. Sea $P$ la cantidad de entradas positivas en la diagonal y $N$ la cantidad de entradas negativas en la diagonal. A $(P,N)$ le llamamos la signatura de $A$.

En cierto sentido, la signatura generaliza tanto la noción de rango, como la noción de positividad y de positividad definida. Esto queda plasmado en las siguientes observaciones.

Observación. Una matriz diagonal ya está en forma escalonada reducida. Y el rango de una matriz en forma escalonada reducida coincide con la cantidad de renglones no cero. Así, si la signatura de una matriz diagonal es $(P,N)$, entonces su rango es $P+N$.

Observación. Por lo que vimos en la entrada anterior, una matriz diagonal en $M_n(\mathbb{R})$ es positiva si y sólo si ninguna de sus entradas diagonales es negativa. Esto pasa si y sólo si su signatura es de la forma $(k,0)$ para algún $0\leq k\leq n$.

Observación. Por un resultado análogo al de la entrada anterior, una matriz diagonal es $M_n(\mathbb{R})$ es positiva definida si y sólo si todas sus entradas diagonales son positivas. Esto pasa si y sólo si su signatura es $(n,0)$.

La signatura es invariante bajo congruencias

El resultado clave de esta entrada es el siguiente lema.

Lema. Sean $A$ y $B$ matrices diagonales en $M_n(\mathbb{R})$ congruentes entre sí. Entonces la signatura de $A$ y la de $B$ son iguales.

Demostración. Llamemos $(P,N)$ a la signatura de $A$ y $(Q,M)$ a la signatura de $B$.

Como $A$ y $B$ son congruentes, entonces representan a una misma forma cuadrática $q:\mathbb{R}^n\to \mathbb{R}$, pero quizás en diferentes bases. Sea $\alpha$ la base en la cual $q$ tiene matriz $A$ y $\beta$ la la base en la cual $q$ tiene matriz $B$. Sea $b$ la forma polar de $p$.

Como la signatura de $A$ es $(P,N)$, entonces $q$ es positivo (resp. negativo, cero) para $P$ (resp. $N$, $n-P-N$) elementos de la base $\alpha$. Tenemos algo análogo para $B$. Así, podemos llamar a las bases

\begin{align*}
\alpha&=\{a^+_1,\ldots,a^+_P,a^-_1,\ldots, a^-_N,a^0_1\ldots, a^0_{n-P-N}\},\\
\beta&= \{b^+_1,\ldots,b^+_Q,b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}\},\\
\end{align*}

en donde $q$ aplicado a alguno de estos elementos tiene el signo del superíndice.

Demostraremos que $P=Q$ por contradicción. Supongamos que no. Sin perder generalidad, $P>Q$. Consideremos $V$ el subespacio de $\mathbb{R}^n$ generado por los vectores $a^+_1,\ldots,a^+_P$ y $W$ el subespacio de $\mathbb{R}^n$ generado por los vectores $b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}.$ Estos espacios tienen dimensión $P$ y $n-Q$ respectivamente. Como $P>Q$, tenemos que $P+(n-Q)>Q+(n-Q)=n$. Así, los espacios $V$ y $W$ tienen intersección no trivial, y por lo menos hay un vector $v$ distinto de $0$ en $V\cap W$. ¿Cuánto vale $q(v)$?

Por un lado, $v$ está en $V$ así que es combinación lineal de elementos $a^+_i$: $$v=\sum_{i=1}^P r_i a^+_i.$$ De este modo:

\begin{align*}
q(v)=\sum_{i=1}^P r_i^2 q(a^+_i) + 2\sum_{i=1}^P\sum_{j=1}^P b(a^+_i,a^+_j).
\end{align*}

El primer sumando es positivo pues $q$ es positivo en todo $a^+_i$. El segundo sumando es cero pues cada término es $0$ por ser una entrada $(i,j)$ con $i\neq j$ de la matriz diagonal $A$. Así, $q(v)>0$.

Similarmente, $v$ está en $W$ así que es combinación lineal de elementos $b^-_i$ y elementos $b^0_i$, de donde se puede mostrar que $q(v)\leq 0$.

Hemos encontrado una contradicción que surgió de suponer $P\neq Q$, así que $P=Q$. De manera análoga se demuestra que $N=M$. Así, la signatura de $A$ y de $B$ debe ser la misma.

$\square$

Signatura para matrices simétricas

En la entrada anterior vimos que cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a alguna matriz diagonal. Es posible que sea congruente a más de una matriz diagonal.

Definición. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Sea $D$ una matriz diagonal congruente a $A$. Definimos la signatura de $A$ como la signatura de $D$.

El lema de la sección anterior nos permite asegurarnos de que la siguiente definición está bien hecha. Si $A$ fuera congruente a dos matrices diagonales $D$ y $E$, entonces $D$ y $E$ serían congruentes entre sí. De este modo, la signatura de $A$ no cambia si la tomamos con respecto a $D$ o con respecto a $E$.

Pensemos que dos matrices $A$ y $B$ son congruentes entre sí. Sean $D$ y $E$ matrices diagonales congruentes a $A$ y $B$ respectivamente. Por transitividad, $D$ y $E$ son congruentes, así que tienen la misma signatura. Así, $A$ y $B$ tienen la misma signatura.

Una última observación es la siguiente. Si $A$ y $B$ son simétricas y congruentes entre sí, entonces están relacionadas mediante un producto con matrices invertibles. Como el producto por matrices invertibles no afecta el rango, concluimos que $A$ y $B$ tienen el mismo rango. Juntando esto con observaciones anteriores, una matriz simétrica $A$ de signatura $(P,N)$ tiene rango $P+N$.

Resumimos todo esto en el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices simétricas.

  • Si la signatura de $A$ es $(P,N)$, entonces su rango es $P+N$.
  • Si $A$ y $B$ son congruentes, entonces tienen la misma signatura. En particular:
    • Tienen el mismo rango.
    • Si una es positiva, la otra también lo es.
    • Si una es positiva definida, la otra también lo es.

El teorema de Sylvester

Enunciemos las versiones análogas a lo anterior en términos de formas cuadráticas. Comencemos con el teorema de Gauss. Tomemos una forma cuadrática $q$ de $\mathbb{R}^n$ y escribámosla como $$q=\sum_{i=1}^r a_i l_i^2$$ con $a_1,\ldots,a_r$ reales y $l_1,\ldots,l_r$ formas lineales linealmente independientes.

Podemos quitar todos los términos con $a_i=0$ sin afectar la igualdad. Además, si $a_i$ es positivo podemos factorizarlo en $l_i^2$ para definir $m_i=(\sqrt{a_i}l_i)^2$, y si $a_i$ es negativo podemos factorizar $-a_i$ en $l_i^2$ para obtener $m_i=(\sqrt{-a_i}l_i)^2$. En otras palabras, de cualquier expresión de Gauss podemos llegar a una de la forma $$q=\sum_{i=1}^r \epsilon_i m_i^2,$$

en donde los $\epsilon_i$ son $1$ o $-1$. Si tenemos $P$ valores de $\epsilon_i$ iguales a $1$ y $N$ valores de $\epsilon_i$ iguales a $-1$ diremos que la signatura de $q$ es $(P,N)$ y que el rango de $q$ es $P+N$.

¿Por qué esto está bien definido? Porque ya vimos que cada forma de Gauss de $q$ da una base en la cual la matriz que representa a $q$ es diagonal. Las entradas de la diagonal son los coeficientes de la forma de Gauss. Dos matrices que salen así son congruentes, así que por el lema de la sección anterior tienen la misma signatura. Esto garantiza que en ambas expresiones de Gauss de las de arriba hay la misma cantidad de $1$s y $-1$s.

El gran resumen de todo esto es el siguiente teorema.

Teorema (ley de inercia de Sylvester). Sea $q$ una forma cuadrática de $\mathbb{R}^n$. Entonces existen $\epsilon_1,\ldots,\epsilon_r$ iguales a $1$ o a $-1$ y formas lineales $l_1,\ldots,l_r$ linealmente independientes tales que $$q=\sum_{i=1}^r \epsilon_i l_i^2.$$

Cualesquiera dos expresiones de este estilo tienen la misma cantidad de coeficientes positivos, y la misma cantidad de coeficientes negativos.

Dato curioso: ¿Por qué ley de inercia?

En esta entrada nos hemos referido al teorema de Sylvester de dos maneras intercambiables: teorema de Sylvester y ley de inercia de Sylvester. La intuición diría que quizás existe alguna relación con la física. Quizás es porque algún uso especial de este teorema lo hace importante para el cálculo de la inercia. Esto no es así.

El nombre, curiosamente, viene de esta frase de Sylvester:

Este número constante de signos positivos que se asocian a una función cuadrática bajo cualquier transformación […] puede ser llamado, convenientemente, su inercia, hasta que una mejor palabra sea encontrada.

J. J. Sylvester, On the Theory of the Syzygetic Relations… (1853)

Aparentemente no se encontró una mejor palabra y ahora es el térimo que se usa. Interpretando un poco lo que dice Sylvester, la inercia se refiere a la resistencia de un cuerpo de cambiar de estado. Así, tal vez Sylvester pensó en la «resistencia a cambiar» de la signatura de una forma cuadrática bajo cambios de base.

Más adelante…

Hay mucha más teoría que se puede enunciar y demostrar para formas cuadráticas en general. Por ahora detendremos nuestra exploración hasta aquí, y ya sólo nos enfocaremos en las formas bilineales simétricas y positivas, es decir, en los productos interiores. Queremos enunciar y demostrar varios resultados para espacios con producto interior y para espacios euclideanos.

Dos conceptos que estudiaremos a continuidad son el de dualidad y el de ortogonalidad. Esto nos abrirá las puertas a entender correctamente algunos tipos de transformaciones lineales muy importantes, como las transformaciones simétricas, las normales y las ortogonales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, ayudan para repasar los conceptos vistos en esta entrada.

En los siguientes ejercicios, usa el algoritmo de Gauss para escribir cada forma como combinación cuadrática de formas lineales linealmente independientes. Además encuentra su rango y signatura.

  1. Encuentra el rango y la signatura de la forma cuadrática$q : \mathbb{R}^4 \rightarrow \mathbb{R}$ dada por
    \begin{align*} q(x,y,z,t)= xy + yz + zt+tx. \end{align*}
  2. Completa algunos detalles faltantes en las demostraciones anteriores. Por ejemplo:
    1. ¿Por qué las formas $m_i$ de la discusión del teorema de Sylvester son linealmente independientes?
    2. ¿Por qué son análogas las demostraciones faltantes en el lema que demostramos?
  3. Demuestra que cualquier matriz simétrica es congruente a una matriz diagonal cuya diagonal es de la forma $1,\ldots,1,-1\ldots,-1,0,\ldots,0$.
  4. Enuncia y demuestra un resultado análogo al lema principal de esta entrada, pero para matrices con entradas complejas. Recuerda que en este caso debes usar matrices hermitianas y las congruencias son a través de usar una matriz invertible y su traspuesta conjutada.
  5. Enuncia y demuestra una ley de inercia de Sylvester para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»