Introducción
En entradas anteriores estudiamos las formas bilineales y las cuadráticas. También vimos las matrices que las representan. Introdujimos una noción de congruencia de matrices relacionada con todo esto. Y vimos que la congruencia de matrices preserva una noción de positividad para matrices. Ahora daremos un paso más y veremos que de hecho la congruencia de matrices preserva más que sólo eso.
Para ello, introduciremos la noción de la signatura de una matriz. A grandes rasgos, esta noción nos dice «qué tan positiva» es una matriz simétrica. Para definir esta noción, lo haremos primero para las matrices diagonales. Luego lo definiremos para todas las matrices simétricas a través del teorema que demostramos la entrada anterior. Toda la discusión la haremos en el caso real. El caso complejo tiene sus versiones análogas, que quedarán descritas en los ejercicios.
Signatura de una matriz diagonal
Comenzamos con la siguiente definición.
Definición. Sea $A$ una matriz diagonal en $M_n(\mathbb{R})$. Sea $P$ la cantidad de entradas positivas en la diagonal y $N$ la cantidad de entradas negativas en la diagonal. A $(P,N)$ le llamamos la signatura de $A$.
En cierto sentido, la signatura generaliza tanto la noción de rango, como la noción de positividad y de positividad definida. Esto queda plasmado en las siguientes observaciones.
Observación. Una matriz diagonal ya está en forma escalonada reducida. Y el rango de una matriz en forma escalonada reducida coincide con la cantidad de renglones no cero. Así, si la signatura de una matriz diagonal es $(P,N)$, entonces su rango es $P+N$.
Observación. Por lo que vimos en la entrada anterior, una matriz diagonal en $M_n(\mathbb{R})$ es positiva si y sólo si ninguna de sus entradas diagonales es negativa. Esto pasa si y sólo si su signatura es de la forma $(k,0)$ para algún $0\leq k\leq n$.
Observación. Por un resultado análogo al de la entrada anterior, una matriz diagonal es $M_n(\mathbb{R})$ es positiva definida si y sólo si todas sus entradas diagonales son positivas. Esto pasa si y sólo si su signatura es $(n,0)$.
La signatura es invariante bajo congruencias
El resultado clave de esta entrada es el siguiente lema.
Lema. Sean $A$ y $B$ matrices diagonales en $M_n(\mathbb{R})$ congruentes entre sí. Entonces la signatura de $A$ y la de $B$ son iguales.
Demostración. Llamemos $(P,N)$ a la signatura de $A$ y $(Q,M)$ a la signatura de $B$.
Como $A$ y $B$ son congruentes, entonces representan a una misma forma cuadrática $q:\mathbb{R}^n\to \mathbb{R}$, pero quizás en diferentes bases. Sea $\alpha$ la base en la cual $q$ tiene matriz $A$ y $\beta$ la la base en la cual $q$ tiene matriz $B$. Sea $b$ la forma polar de $p$.
Como la signatura de $A$ es $(P,N)$, entonces $q$ es positivo (resp. negativo, cero) para $P$ (resp. $N$, $n-P-N$) elementos de la base $\alpha$. Tenemos algo análogo para $B$. Así, podemos llamar a las bases
\begin{align*}
\alpha&=\{a^+_1,\ldots,a^+_P,a^-_1,\ldots, a^-_N,a^0_1\ldots, a^0_{n-P-N}\},\\
\beta&= \{b^+_1,\ldots,b^+_Q,b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}\},\\
\end{align*}
en donde $q$ aplicado a alguno de estos elementos tiene el signo del superíndice.
Demostraremos que $P=Q$ por contradicción. Supongamos que no. Sin perder generalidad, $P>Q$. Consideremos $V$ el subespacio de $\mathbb{R}^n$ generado por los vectores $a^+_1,\ldots,a^+_P$ y $W$ el subespacio de $\mathbb{R}^n$ generado por los vectores $b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}.$ Estos espacios tienen dimensión $P$ y $n-Q$ respectivamente. Como $P>Q$, tenemos que $P+(n-Q)>Q+(n-Q)=n$. Así, los espacios $V$ y $W$ tienen intersección no trivial, y por lo menos hay un vector $v$ distinto de $0$ en $V\cap W$. ¿Cuánto vale $q(v)$?
Por un lado, $v$ está en $V$ así que es combinación lineal de elementos $a^+_i$: $$v=\sum_{i=1}^P r_i a^+_i.$$ De este modo:
\begin{align*}
q(v)=\sum_{i=1}^P r_i^2 q(a^+_i) + 2\sum_{i=1}^P\sum_{j=1}^P b(a^+_i,a^+_j).
\end{align*}
El primer sumando es positivo pues $q$ es positivo en todo $a^+_i$. El segundo sumando es cero pues cada término es $0$ por ser una entrada $(i,j)$ con $i\neq j$ de la matriz diagonal $A$. Así, $q(v)>0$.
Similarmente, $v$ está en $W$ así que es combinación lineal de elementos $b^-_i$ y elementos $b^0_i$, de donde se puede mostrar que $q(v)\leq 0$.
Hemos encontrado una contradicción que surgió de suponer $P\neq Q$, así que $P=Q$. De manera análoga se demuestra que $N=M$. Así, la signatura de $A$ y de $B$ debe ser la misma.
$\square$
Signatura para matrices simétricas
En la entrada anterior vimos que cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a alguna matriz diagonal. Es posible que sea congruente a más de una matriz diagonal.
Definición. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Sea $D$ una matriz diagonal congruente a $A$. Definimos la signatura de $A$ como la signatura de $D$.
El lema de la sección anterior nos permite asegurarnos de que la siguiente definición está bien hecha. Si $A$ fuera congruente a dos matrices diagonales $D$ y $E$, entonces $D$ y $E$ serían congruentes entre sí. De este modo, la signatura de $A$ no cambia si la tomamos con respecto a $D$ o con respecto a $E$.
Pensemos que dos matrices $A$ y $B$ son congruentes entre sí. Sean $D$ y $E$ matrices diagonales congruentes a $A$ y $B$ respectivamente. Por transitividad, $D$ y $E$ son congruentes, así que tienen la misma signatura. Así, $A$ y $B$ tienen la misma signatura.
Una última observación es la siguiente. Si $A$ y $B$ son simétricas y congruentes entre sí, entonces están relacionadas mediante un producto con matrices invertibles. Como el producto por matrices invertibles no afecta el rango, concluimos que $A$ y $B$ tienen el mismo rango. Juntando esto con observaciones anteriores, una matriz simétrica $A$ de signatura $(P,N)$ tiene rango $P+N$.
Resumimos todo esto en el siguiente resultado.
Proposición. Sean $A$ y $B$ matrices simétricas.
- Si la signatura de $A$ es $(P,N)$, entonces su rango es $P+N$.
- Si $A$ y $B$ son congruentes, entonces tienen la misma signatura. En particular:
- Tienen el mismo rango.
- Si una es positiva, la otra también lo es.
- Si una es positiva definida, la otra también lo es.
El teorema de Sylvester
Enunciemos las versiones análogas a lo anterior en términos de formas cuadráticas. Comencemos con el teorema de Gauss. Tomemos una forma cuadrática $q$ de $\mathbb{R}^n$ y escribámosla como $$q=\sum_{i=1}^r a_i l_i^2$$ con $a_1,\ldots,a_r$ reales y $l_1,\ldots,l_r$ formas lineales linealmente independientes.
Podemos quitar todos los términos con $a_i=0$ sin afectar la igualdad. Además, si $a_i$ es positivo podemos factorizarlo en $l_i^2$ para definir $m_i=(\sqrt{a_i}l_i)^2$, y si $a_i$ es negativo podemos factorizar $-a_i$ en $l_i^2$ para obtener $m_i=(\sqrt{-a_i}l_i)^2$. En otras palabras, de cualquier expresión de Gauss podemos llegar a una de la forma $$q=\sum_{i=1}^r \epsilon_i m_i^2,$$
en donde los $\epsilon_i$ son $1$ o $-1$. Si tenemos $P$ valores de $\epsilon_i$ iguales a $1$ y $N$ valores de $\epsilon_i$ iguales a $-1$ diremos que la signatura de $q$ es $(P,N)$ y que el rango de $q$ es $P+N$.
¿Por qué esto está bien definido? Porque ya vimos que cada forma de Gauss de $q$ da una base en la cual la matriz que representa a $q$ es diagonal. Las entradas de la diagonal son los coeficientes de la forma de Gauss. Dos matrices que salen así son congruentes, así que por el lema de la sección anterior tienen la misma signatura. Esto garantiza que en ambas expresiones de Gauss de las de arriba hay la misma cantidad de $1$s y $-1$s.
El gran resumen de todo esto es el siguiente teorema.
Teorema (ley de inercia de Sylvester). Sea $q$ una forma cuadrática de $\mathbb{R}^n$. Entonces existen $\epsilon_1,\ldots,\epsilon_r$ iguales a $1$ o a $-1$ y formas lineales $l_1,\ldots,l_r$ linealmente independientes tales que $$q=\sum_{i=1}^r \epsilon_i l_i^2.$$
Cualesquiera dos expresiones de este estilo tienen la misma cantidad de coeficientes positivos, y la misma cantidad de coeficientes negativos.
Dato curioso: ¿Por qué ley de inercia?
En esta entrada nos hemos referido al teorema de Sylvester de dos maneras intercambiables: teorema de Sylvester y ley de inercia de Sylvester. La intuición diría que quizás existe alguna relación con la física. Quizás es porque algún uso especial de este teorema lo hace importante para el cálculo de la inercia. Esto no es así.
El nombre, curiosamente, viene de esta frase de Sylvester:
Este número constante de signos positivos que se asocian a una función cuadrática bajo cualquier transformación […] puede ser llamado, convenientemente, su inercia, hasta que una mejor palabra sea encontrada.
J. J. Sylvester, On the Theory of the Syzygetic Relations… (1853)
Aparentemente no se encontró una mejor palabra y ahora es el térimo que se usa. Interpretando un poco lo que dice Sylvester, la inercia se refiere a la resistencia de un cuerpo de cambiar de estado. Así, tal vez Sylvester pensó en la «resistencia a cambiar» de la signatura de una forma cuadrática bajo cambios de base.
Más adelante…
Hay mucha más teoría que se puede enunciar y demostrar para formas cuadráticas en general. Por ahora detendremos nuestra exploración hasta aquí, y ya sólo nos enfocaremos en las formas bilineales simétricas y positivas, es decir, en los productos interiores. Queremos enunciar y demostrar varios resultados para espacios con producto interior y para espacios euclideanos.
Dos conceptos que estudiaremos a continuidad son el de dualidad y el de ortogonalidad. Esto nos abrirá las puertas a entender correctamente algunos tipos de transformaciones lineales muy importantes, como las transformaciones simétricas, las normales y las ortogonales.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, ayudan para repasar los conceptos vistos en esta entrada.
En los siguientes ejercicios, usa el algoritmo de Gauss para escribir cada forma como combinación cuadrática de formas lineales linealmente independientes. Además encuentra su rango y signatura.
- Encuentra el rango y la signatura de la forma cuadrática$q : \mathbb{R}^4 \rightarrow \mathbb{R}$ dada por
\begin{align*} q(x,y,z,t)= xy + yz + zt+tx. \end{align*} - Completa algunos detalles faltantes en las demostraciones anteriores. Por ejemplo:
- ¿Por qué las formas $m_i$ de la discusión del teorema de Sylvester son linealmente independientes?
- ¿Por qué son análogas las demostraciones faltantes en el lema que demostramos?
- Demuestra que cualquier matriz simétrica es congruente a una matriz diagonal cuya diagonal es de la forma $1,\ldots,1,-1\ldots,-1,0,\ldots,0$.
- Enuncia y demuestra un resultado análogo al lema principal de esta entrada, pero para matrices con entradas complejas. Recuerda que en este caso debes usar matrices hermitianas y las congruencias son a través de usar una matriz invertible y su traspuesta conjutada.
- Enuncia y demuestra una ley de inercia de Sylvester para formas cuadráticas hermitianas.
Entradas relacionadas
- Ir a Álgebra Lineal II
- Entrada anterior del curso: Matrices positivas y congruencia de matrices
- Siguiente entrada del curso: Dualidad y representación de Riesz en espacios euclideanos
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»
Hola, entonces si consigo expresar a una forma cuadratica (no importa el camino que siga) en Rn como combinacion de formas lineales elevadas al cuadrado y linealmente independientes, entonces la signatura y el rango siempre van a ser el mismo?? por ejemplo, si en el primer ejemplo haciamos x_1 = y, x_2=z, x_3=x obtenemos los mismos números?
Así es. Ese es justo el resultado. Es muy interesante que aunque haya muchas formas de escribir a una forma cuadrática así, siempre se usa la misma cantidad de coeficientes no cero, de coeficientes positivos, y de coeficientes negativos.
Y en el caso que propones no es necesario el teorema, ya que como sólo estamos reproduciendo la demostración, y esa se hace en general, no importa los nombres que decidas asignar, justo por eso en la entrada anterior podíamos no perder generalidad aunque hiciéramos el caso únicamente para x_n, si no se pudiera bastaría cambiar nombres como sea conveniente
Con estos nombres, q se puede reescribir como
En la expresión de abajo creo que falta un signo dentro de la raiz
Hola Sebastián. Gracias por el comentario. Ya cambiamos la entrada bastante. Me parece que el comentario que pones ya está remediado en la nueva versión.