Archivo de la etiqueta: forma cuadrática

Álgebra Lineal II: Problemas de formas bilineales, cuadráticas y teorema de Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores nos dedicamos a recordar las definiciones y algunas propiedades de formas bilineales y cuadráticas en $\mathbb{R}^n$ con el fin de enunciar y demostrar el teorema de Gauss. La prueba da un método para representar cualquier forma cuadrática de este modo, pero es mucho más claro cómo se hace este método mediante ejemplos. En esta entrada veremos un par de problemas para seguir repasando formas bilineales y cuadráticas y luego veremos al teorema de Gauss en acción.

Ver que una función es una forma bilineal

Problema. Tomemos $V= \mathbb{R}^n$ y vectores $x,y$ en $V$ de coordenadas $x=(x_1, . . . , x_n)$ y $y =(y_1, . . . , y_n)$. Tomemos reales $a_1,\ldots, a_n$. Definamos a $b:V\times V\to \mathbb{R}$ como sigue:
\begin {align*} b(x,y)=a_1x_1y_1+ . . . + a_nx_ny_n.\end{align*}

Probemos que así definida, $b$ es una forma bilineal.

Solución. Para probar que $b$ es bilineal, probaremos que la función $b(x, \cdot)$ es lineal para cada $x \in \mathbb{R}^n$ fijo.

Sean $p,q \in \mathbb{R}^n$ y $\lambda \in \mathbb{R}$. Tenemos que:
\begin{align*} b(x,\lambda p+q)=\sum_{i=1}^n a_ix_i (\lambda p_i+q_i).\end{align*}

Como todos los miembros de esta operación son números reales, utilicemos las propiedades distributiva y conmutativa. Obtenemos:

\begin{align*} b(x,\lambda p+q)=&\sum_{i=1}^n a_ix_i \lambda p_i + \sum_{i=1}^n a_ix_iq_i\\
&=\lambda \sum_{i=1}^n a_ix_ip_i+ \sum_{i=1}^n a_ix_iq_i\\&=\lambda b(x,p) + b(x,q). \end{align*}

La demostración de que la función $b(\cdot,y)$ también es lineal para cada $y\in \mathbb{R}^n$ fijo es análoga.

$\square$

En particular, si tenemos que $a_1, \ldots, a_n =1$, obtenemos que $b$ es el producto interno canónico de $\mathbb{R}^n$, es decir el producto punto.

Ver que una función no es una forma cuadrática

Problema. Sea $q: \mathbb{R}^2 \rightarrow \mathbb{R}$ dada como sigue

\begin{align*} q(x,y)=x^2+y^2-8x. \end{align*}

¿Es $q$ una forma cuadrática?

Solución. La respuesta es que no. Con el fin de encontrar una contradicción, supongamos que $q$ sí es una forma cuadrática. Entonces su forma polar $b$ debe cumplir:

\begin{align*} b((x,y),(x,y))=x^2+y^2-8x.\end{align*}

Aplicando lo anterior al par $(-x,-y)$ obtendríamos:

\begin{align*} b((-x,-y),(-x,-y))=x^2+y^2+8x.\end{align*}

Por otro lado, sacando escalares en ambas entradas:

\begin{align*} b((-x,-y),(-x,-y))&=(-1)(-1)b((x,y),(x,y))\\&=b((x,y),(x,y)).\end{align*}

Juntando las igualdades, concluimos que

\begin{align*} x^2+y^2-8x=x^2+y^2+8x \end{align*}

por lo que

\begin{align*} 16x=0. \end{align*}

Pero esto no es cierto en general pues falla, por ejemplo, para la pareja $(1,0)$. Este error nació de suponer que $q$ era una forma cuadrática. Por lo tanto $q$ no es forma cuadrática.

$\triangle$

El teorema de Gauss en acción

Para simplificar el lenguaje, si logramos escribir a una forma cuadrática $q$ como nos dice el teorema de Gauss, es decir, de la forma \begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2,\end{align*} entonces diremos que $q$ es combinación cuadrática de las $l_i$ con coeficientes $\alpha_i$.

Problema. Toma la forma cuadrática $q$ de $\mathbb{R}^3$ definida como sigue:

\begin{align*} q(x,y,z)= 4xy+yz+xz \end{align*}

Escribe a $q$ como combinación cuadrática de formas lineales linealmente independientes.

Solución. Revisando la demostración dada en la entrada anterior, tenemos tres casos:

  • Que la forma cuadrática sea la forma cuadrática cero.
  • Que tenga «términos puros».
  • Que no tenga «términos puros», es decir, que tenga sólo «términos cruzados».

Como en este caso la forma $q$ no es la forma cero, ni aparecen términos $x^2$, $y^2$ o $z^2$, estamos en el tercer caso. La estrategia era tomar dos de las variables y separar los términos que sí las tengan de los que no. Luego, hay que usar las identidades:

\begin{align} AXY+BX+CY=A\left(X+\frac{C}{A}\right) \left(Y+\frac{B}{A}\right)-\frac{BC}{A},\end{align}

\begin{align} DE= \frac{1}{4}(D+E)^2 – \frac{1}{4} (D-E)^2.\end{align}

Tomemos por ejemplo $x$ y $y$. En la forma cuadrática todos los términos tienen $x$ ó $y$, así que podemos usar la identidad $(1)$ para escribir (nota que reordenamos algunos términos para hacer más cómodas las cuentas con las identidades):

\begin{align*}
4xy+zx+zy&= 4 \left(x+\frac{z}{4}\right) \left(y+\frac{z}{4}\right)-\frac{z^2}{4}
\end{align*}

Luego, continuamos mediante la identidad $(2)$:

\begin{align*}
= \left(x+y+\frac{z}{2}\right)^2 – (x-y)^2- \frac{1}{4} z^2.
\end{align*}

Esta expresión ya tiene la forma buscada. Tenemos que $q$ es combinación cuadrática de las formas lineales $x+y+\frac{z}{2}$, $x-y$ y $z$. Verifica que en efecto estas formas lineales son linealmente independientes.

$\triangle$

Cambiando el orden de los pasos

Problema. ¿Qué pasaría si en el ejemplo anterior en vez de hacer el paso inductivo con $x$ y $y$ hacemos el paso inductivo con $y$ y $z$?

Solución. Las cuentas cambian y obtenemos una nueva forma de escribir a $q$. En efecto, aplicando las identidades $(1)$ y $(2)$ pero ahora a $y$ y $z$ obtendríamos:

\begin{align*}
yz+4xy+xz&= (y+x) (z+4x)-4x^2\\
&=\frac{1}{4}(y+z+5x)^2-\frac{1}{4}(y-z-3x)^2-4x^2.
\end{align*}

Esta es otra forma válida de expresar a $q$ como combinación cuadrática de formas lineales linealmente independientes. Lo que nos dice es que la expresión para $q$ no necesariamente es única.

Sin embargo, un poco más adelante veremos que aunque haya muchas formas de expresar a $q$, en todas ellas permanece constante cuántos sumandos positivos y cuántos negativos hay.

$\triangle$

Cuidado con la independencia lineal

Problema. Toma la forma cuadrática $q$ de $\mathbb{R}^3$ definida como sigue:

\begin{align*} q(x,y,z)= (x – y)^2+(y – z)^2+ (z – x)^2 \end{align*}

Escribe a $q$ como combinación cuadrática de formas lineales linealmente independientes.

Solución. Sería fácil asumir que $q$ ya está de la forma deseada, sin embargo, una revisión rápida nos deja ver qué $x – y$, $y-z$ y $z-x$ no son linealmente independientes en $(\mathbb{R}^3)^*$.

Primero desarrollemos todo

\begin{align*} q(x,y,z)= 2x^2+2y^2+2z^2 -2xy-2xz-2yz \end{align*}

Ahora sí hay «términos puros» pues en particular el coeficiente de $x^2$ no es cero.

En este caso hay que pensar a $q$ como polinomio de segundo grado en $x$ para completar un cuadrado:

\begin{align*} 2x^2+&2y^2+2z^2 -2xy-2xz-2yz\\
&= 2 \left( x- \frac{y+z}{2}\right)^2 – \frac{(y+z)^2}{2} + 2y^2 +2z^2-2yz \end{align*}

La demostración asegura que inductivamente los términos sin $x$ (en este caso $ – \frac{(y+z)^2}{2} + 2y^2 +2z^2-2yz$)se pueden escribir como una combinación cuadrática de formas lineales linealmente independientes. Es decir, a ese término ahora podemos aplicar nuevamente el procedimiento hasta llegar a un caso pequeño.

Sin embargo, para nuestra suerte, una pequeña manipulación muestra que
\begin{align*} – \frac{(y+z)^2}{2} + 2y^2 +2z^2-2yz = \frac{3}{2}(y – z)^2.\end{align*}

También, afortunadamente, $y-z$ es linealmente independiente con $x- \frac{y+z}{2}$. De este modo, una posible combinación cuadrática es la siguiente:

\begin{align*} q(x,y,z)= 2 \left( x- \frac{y+z}{2}\right)^2 + \frac{3}{2}(y – z)^2 \end{align*}

$\triangle$

El algoritmo

Con esto visto, podemos describir un algoritmo para encontrar una combinación cuadrática en 4 pasos.

  1. Desarrollar todos los términos $q$ si es necesario.
  2. Revisar qué forma tiene $q$ con respecto a los 3 casos que se vieron en la demostración.
  3. Reproducir el caso elegido de la demostración, dependiendo de la forma de $q$.
  4. Dentro de este paso, puede ser necesario repetir desde el paso 1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices de formas bilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Al principio de esta unidad, especialmente en la entrada del teorema de Gauss empezamos a hablar de una relación entre formas bilineales y matrices. Aquí formalizaremos esta relación. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.

Matriz asociada a una forma bilineal y una forma cuadrática

En toda esta entrada, $V$ es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Definición. Sea $ e_1, \cdots , e_n$ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal de $V$. La matriz de $b$ con respecto a la base $e_1,\ldots, e_n$ es la matriz

\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j),\end{align*}

para todo $i,j$ tal que $1 \leq i,j \leq n$.

Para definir la forma matricial de una forma cuadrática tenemos que ser un poco más cuidadosos. Hay más de una forma bilineal que puede generar a una misma forma cuadrática. Sin embargo, por la identidad de polarización tenemos que esta forma bilineal es única si pedimos adicionalmente que sea simétrica. De aquí obtenemos la siguiente definición.

Definición. Sea $e_1, \cdots , e_n$ una base de $V$ y $q$ una forma cuadrática de $V$, la matriz de $q$ con respecto a la base $e_1, \ldots, e_n$ es la matriz de su forma polar en esa misma base.

Problema. Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1,\end{align*}

para cada $x=(x_1,x_2,x_3)\in \mathbb{R}^3$.

Encuentra su matriz asociada $A$ en la base canónica y su matriz asociada $B$ en la base \begin{align*}u_1&=(1,1,0),\\ u_2&=(1,0,1),\\ u_3&=(0,1,1).\end{align*}

Solución. Primero, mediante la identidad de polarización tenemos que la forma polar $b$ de $q$ cumple que $b(x,x’)$ es

\begin{align*} \frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} ,\end{align*}

para $x=(x_1,x_2,x_3)$ y $x’=(x’_1,x’_2,x’_3)$.

Ahora, calculemos qué le hace esta forma bilineal a la base canónica de par en par.

\begin{align*}
&b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \\
\text{y} \quad &b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}.
\end{align*}

Por lo que su matriz asociada en la base canónica es

\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}

Por otro lado, calculando lo que $b$ le hace a nuestra otra base

\begin{align*}
&b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \\
\text{y} \quad &b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}
\end{align*}

Y construyendo esta otra matriz:

\begin{align*}
B=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1
\end{pmatrix}
\end{align*}

$\triangle$

Evaluar la forma bilineal con su matriz

En la entrada del teorema de Gauss vimos que si $b$ es una forma bilineal de $V$ y $e_1,\ldots,e_n$ es una base, entonces para cualesquiera vectores

\begin{align*}
x&=x_1e_1+\ldots+x_ne_n\\
y&=y_1e_1+\ldots+y_ne_n
\end{align*}

tenemos que $$b(x,y)=\sum_{i=1}^n \sum_{j=1}^n x_i y_j b(e_i,e_j).$$

Por la regla del producto de matrices, la expresión de la derecha es precisamente lo que se obtiene al realizar la siguiente operación:

$$^t{X} \begin{pmatrix}b(e_1,e_1) & b(e_1,e_2) & \ldots & b(e_1,e_n)\\ b(e_2,e_1) & b(e_2,e_2) & \ldots & b(e_2,e_n)\\ \vdots & & \ddots & \vdots \\ b(e_n,e_1) & b(e_n,e_2) & \ldots & b(e_n,e_n) \end{pmatrix} Y,$$

donde $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$.

Notemos que en medio tenemos justo la forma matricial de $b$ en la base $e_1,\ldots,e_n$. Al lado izquierdo tenemos al transpuesto del vector de coordenadas de $x$ en la base $e_1,\ldots, e_n$ y al lado derecho tenemos al vector de coordenadas de $y$ en esta misma base. Hemos demostrado lo siguiente.

Proposición. Sea $b$ una forma bilineal de $V$ y $\beta$ una base de $V$. Sea $A$ la matriz de $b$ en la base $\beta$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\beta$, respectivamente. Entonces $$b(x,y)=\text{}^tXAY.$$

Algunas consecuencias de la proposición anterior son:

  • Una forma bilineal es simétrica si y sólo si su matriz en una base cualquiera es simétrica.
  • Si fijamos la base $\beta$ y la forma bilineal $b$, entonces la matriz que hace que $b(x,y)=\text{}^tXAY$ para todos $x,y$ es única.

La discusión anterior nos permite comenzar con una forma bilineal $b$ y una base $\beta$ y obtener una (y sólo una) matriz. Partiendo de una matriz y una base $\beta$ también podemos obtener una forma bilineal mediante la regla $$b(x,y)=\text{}^tXAY.$$

Cambios de base

En los resultados anteriores al fijar un espacio vectorial $V$ de dimensión $n$ y una base $\beta$ obtenemos una asociación biyectiva (de hecho un isomorfismo) entre formas bilineales de $V$ y matrices en $M_n(\mathbb{R})$.

Sin embargo, al cambiar la base de $V$, la matriz que representa a una forma bilineal puede cambiar.

Proposición. Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$. Sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$. Entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

Demostración. Sean $x,y \in V$ dos vectores cualesquiera. Escribamos $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$. Usando $\beta$ escribamos

\begin{align*} x=x_1u_1 + \cdots + x_nu_n.\end{align*}

Definamos a $X$ como el vector columna de las coordenadas de $x$ en la base $\beta$, es decir:

$$X=\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}.$$

Definimos análogamente a $X’, Y, Y’$ como los vectores columnas de coordenadas de $x$ en la base $\beta’$, de $y$ en la base $\beta$ y de $y$ en la base $\beta’$, respectivamente.

Sabemos entonces que

\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}

Además, sabemos que

\begin{align*}
X&=PX’\\
Y&=PY’
\end{align*}

De aquí se tiene la siguiente cadena de igualdades:

\begin{align*}
\text{ }^tX’A’Y’&= b(x,y)\\
&=\text{ }^tXAY\\
&=\text{ }^t(PX’)A(PY’)\\
&=\text{ }^tX’\text{ }^tPAPY’.
\end{align*}

Fijándonos en los extremos

\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’. \end{align*}

Por la unicidad de la matriz que representa a $b$ en la base $\beta’$, finalmente concluimos que

\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante…

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices. Podemos ver que ésta nos dio otra manera de entender y calcular a las formas bilineales. Algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal. Antes de llegar a eso, primero veremos el análogo complejo de lo que acabamos de estudiar.

Otro problema que enfrentamos es la dependencia de las matrices a su base. Aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida. Esto lo abordaremos un poco más adelante. De hecho, cuando lo hagamos estaremos listos para enunciar y demostrar un resultado muy interesante: la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su forma polar. ¿Es esta forma cuadrática $q$ positiva definida? ¿Es positiva?
  2. Encuentra la matriz $A$ asociada a la forma cuadrática $q$ del ejercicio anterior con respecto a la base canónica y la matriz $B$ asociada a $q$ con respecto a la base $(1,1,1), (0,-1,-1),(0,0,2)$.
  3. Encuentra las matrices de cambio de base entre la base canónica y la base del inciso anterior. Verifica que se cumple el resultado de cambios de base.
  4. Encuentra una expresión de Gauss para $q$.
  5. Encuentra el rango de $A$ y de $B$. Encuentra el determinante de $A$ y de $B$ ¿Notas algo en particular?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Espacios euclideanos y espacios hermitianos

Por Diego Ligani Rodríguez Trejo

Introducción

Hasta ahora hemos hablado de las formas bilineales, las formas bilineales simétricas, las formas cuadráticas y todos sus análogos complejos. Vimos también cómo podemos representar mediante matrices a estas formas.

Una de las aplicaciones más útiles de estos conceptos es que nos permitirán hablar de espacios vectoriales «con geometría». Este concepto ya lo exploramos en el primer curso de Álgebra Lineal, cuando hablamos de producto interior y de espacios euclideanos.

Por un lado, en esta entrada haremos un breve recordatorio de estos temas. Por otro lado, hablaremos de cómo dar los análogos complejos. Esto nos llevará al concepto de espacios hermitianos.

Un acuerdo sobre el mundo real y complejo

Como hemos visto anteriormente, los resultados relacionados con formas bilineales tienen frecuentemente sus análogos en el mundo complejo. A veces hay algunas diferencias importantes, pero la mayoría de los casos son mínimas. Por esta razón, a partir de ahora dejaremos varias de las demostraciones de los casos complejos como ejercicios. En caso de ser necesario, haremos el énfasis pertinente en las diferencias entre el caso real y el complejo.

Formas positivas

Para poder «tener geometría» en un espacio vectorial, es necesario que tenga una forma bilineal un poco más especial que las que hemos estudiado. En el caso real requerimos lo siguiente.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Tomemos una forma bilineal $b: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

En el caso complejo hay que ser un poco más cuidadosos. Si $\varphi$ es una forma sesquilineal, podría suceder que $\varphi(x,x)$ no sea un número real y entonces no pueda establecerse una desigualdad entre $\varphi(x,x)$ y $0$. Sin embargo, bajo la hipótesis adicional de que $\varphi$ sea hermitiana, vimos que $\varphi(x,x)$ sí es real.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos una forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $\varphi$ es positiva si $\varphi(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $\varphi$ es positiva definida si $\varphi(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

Adicionalmente, diremos que una forma cuadrática de un espacio vectorial sobre $\mathbb{R}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida). Y diremos que una forma cuadrática hermitiana de un espacio vectorial sobre $\mathbb{C}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida).

Desigualdades de Cauchy-Schwarz real y compleja

Una de las consecuencias de tener formas positivas es que se cumple una desigualdad entre las evaluaciones de una forma cuadrática (o cuadrática hermitiana) y su forma polar. A continuación enunciamos la versión real que demostramos en el primer curso.

Teorema (desigualdad de Cauchy-Schwarz real). Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su forma polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

La versión compleja es casi análoga, pero hay que tener el cuidado de usar la norma al evaluar la forma sesquilineal para obtener un número real que podamos comparar con otro.

Teorema (desigualdad de Cauchy-Schwarz compleja). Sea $\Phi: V \rightarrow \mathbb{R}$ una forma cuadrática hermitiana y $\varphi$ su forma polar.

  • Si $\varphi$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y). \end{align*}
  • Más aún, si $\varphi$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

$\square$

La demostración es muy parecida a la del caso real, y queda como ejercicio.

Espacios euclideanos y hermitianos

La sección anterior da la pista de que hay sutiles diferencias entre tener formas positivas y positivas definidas. La noción de que una forma sea positiva definida es más restrictiva, y por ello deberíamos esperar que un espacio vectorial (real o complejo) con una forma positiva definida tenga más propiedades.

Definición. Un producto interior para un espacio vectorial $V$ sobre los reales es una forma bilineal, simétrica y positiva definida.

Definición. Un producto interior hermitiano para un espacio vectorial $V$ sobre los complejos es una forma sesquilineal, hermitiana y positiva definida.

Típicamente se usa una notación especial para los productos interiores (o interiores hermitianos). En vez de referirnos a ellos con expresiones del estilo $b(x,y)$ (o $\varphi(x,y)$), más bien usamos expresiones del estilo $\langle x, y \rangle$. Cuando no queremos poner los argumentos, usualmente dejamos sólo unos puntos, así: $\langle \cdot, \cdot \rangle$.

Si el espacio vectorial además tiene dimensión finita, entonces estamos en un tipo de espacios muy especiales, en los que podremos probar varios resultados. Estos espacios son tan especiales que tienen su propio nombre.

Definición. Un espacio euclideano es un espacio vectorial sobre $\mathbb{R}$, de dimensión finita, y con un producto interior $\langle \cdot, \cdot \rangle$.

Definición. Un espacio hermitiano es un espacio vectorial sobre $\mathbb{C}$, de dimensión finita, y con un producto interior hermitiano $\langle \cdot, \cdot \rangle$.

Ejemplo. Tomemos $\mathbb{C}^n$ y la función $\langle \cdot, \cdot \rangle: \mathbb{C}^n \times \mathbb{C}^n \to \mathbb{C}$ dada por $$ \langle x, y\rangle = \sum_{i=1}^n \overline{x_i}y_i.$$

Se puede verificar que $\langle \cdot, \cdot \rangle$ es una forma sesquilineal, hermitiana y positiva definida. De este modo, $\mathbb{C}^n$ con este producto interior hermitiano es un espacio hermitiano.

$\triangle$

Normas, distancias y ángulos

Si tenemos un espacio vectorial con producto interior (o producto interior hermitiano), entonces ahora sí podemos introducir varias nociones geométricas: la de norma, la de distancia y la de ángulos. Además, estas nociones tendrán las propiedades geométricas que esperamos.

En las siguientes definiciones tenemos que $V$ es un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$.

Definición. Para $x\in V$, definimos la norma de $x$ como $$\norm{x}:=\sqrt{\langle x,x \rangle}.$$

Definición. Para $x, y\in V$, definimos la distancia de $x$ a $y$ como $$d(x,y):=\norm{x-y}.$$

Definición. Para $x, y\in V$, definimos el ángulo entre $x$ y $y$ como $$\text{ang}(x,y)=\cos^{-1}\left(\frac{|\langle x,y\rangle|}{\norm{x}\norm{y}}\right).$$

En esta última definición, las barras indican el valor absoluto en el caso real y la norma en el caso complejo. Observa que implícitamente estamos usando la desigualdad de Cauchy-Schwarz para asegurarnos de que el argumento de $\cos^{-1}$ en efecto es un número entre $0$ y $1$.

A continuación tenemos dos proposiciones clave que nos dicen que la norma y la distancia que definimos sí tienen todas las propiedades «que deben tener» una norma y una distancia.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entonces, la función norma $\norm{\cdot}:V\to \mathbb{R}$ cumple lo siguiente:

  • Para todo $x\in V$, se tiene que $\norm{x}$ es un número real, con $\norm{x}\geq 0$ y $\norm{x}=0$ si y sólo si $x=0$.
  • Para todo $x\in V$ y $c$ en $\mathbb{R}$ (o $\mathbb{C}$), se tiene que $\norm{cx}=|c|\norm{x}$.
  • Desigualdad del triángulo. Para cualesquiera $x,y \in V$, se tiene que $$\norm{x+y}\leq \norm{x}+\norm{y}.$$

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entones, la función distancia $d:V\times V \to \mathbb{R}$ cumple lo siguiente:

  • Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)$ es un número real, con $d(x,y)\geq 0$ y $d(x,y)=0$ si y sólo si $x=y$.
  • Simetría. Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)=d(y,x)$.
  • Desigualdad del triángulo. Para cualesquiera $x,y,z \in V$, se tiene que $$d(x,z)\leq d(x,y)+d(y,z).$$

La última proposición puede también resumirse como que $V$ con la función $d$ es un espacio métrico. Una métrica en un conjunto permite establecer una topología. Así, en un espacio con producto interior (o producto interior hermitiano), es posible establecer nociones de continuidad, convergencia, cálculo, etc. Es interesante saber que se pueden tomar estos caminos, pero queda fuera de los alcances de nuestro curso.

Más adelante…

Con esto concluimos nuestro pequeño repaso de producto interior y espacios euclideanos. Así mismo, con esto establecemos las bases de los productos interiores hermitianos y de los espacios hermitianos. Como puedes ver, ambas nociones están muy relacionadas entre sí. Los conceptos de norma y distancia dan pie a un sin fin de teoría muy interesante. Es útil poder llegar a ellos desde un enfoque puramente algebraico, y nos muestra el poder que tiene este campo de estudio.

¿Cómo se ven las nociones de positividad y positividad definida en términos de matrices? Esto es algo que estudiaremos en la siguiente entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$ como sigue:
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es positiva definida?
  2. Sea $n$ un entero positivo y $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n$. Prueba que
    \begin{align*} \langle P, Q\rangle :=\sum_{i=0}^nP(i)Q(i) \end{align*}
    es un producto interno en $V$. ¿Cómo construirías un producto interno hermitiano análogo en el caso de $W$ el espacio de polinomios con coeficientes complejos cuyos grados no excedan $n$?
  3. Revisa la demostración de la desigualdad de Cauchy-Schwarz en los espacios reales. Usa esto para dar una demostración para la versión análoga compleja. Recuerda también demostrar cuándo se da la igualdad si el producto interno hermitiano es positivo definido.
  4. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}
  5. Revisa la demostración de las propiedades de la norma y de la distancia para el caso real. Tomando esto como base, realiza la demostración para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Teorema de Sylvester

Por Diego Ligani Rodríguez Trejo

Introducción

En entradas anteriores estudiamos las formas bilineales y las cuadráticas. También vimos las matrices que las representan. Introdujimos una noción de congruencia de matrices relacionada con todo esto. Y vimos que la congruencia de matrices preserva una noción de positividad para matrices. Ahora daremos un paso más y veremos que de hecho la congruencia de matrices preserva más que sólo eso.

Para ello, introduciremos la noción de la signatura de una matriz. A grandes rasgos, esta noción nos dice «qué tan positiva» es una matriz simétrica. Para definir esta noción, lo haremos primero para las matrices diagonales. Luego lo definiremos para todas las matrices simétricas a través del teorema que demostramos la entrada anterior. Toda la discusión la haremos en el caso real. El caso complejo tiene sus versiones análogas, que quedarán descritas en los ejercicios.

Signatura de una matriz diagonal

Comenzamos con la siguiente definición.

Definición. Sea $A$ una matriz diagonal en $M_n(\mathbb{R})$. Sea $P$ la cantidad de entradas positivas en la diagonal y $N$ la cantidad de entradas negativas en la diagonal. A $(P,N)$ le llamamos la signatura de $A$.

En cierto sentido, la signatura generaliza tanto la noción de rango, como la noción de positividad y de positividad definida. Esto queda plasmado en las siguientes observaciones.

Observación. Una matriz diagonal ya está en forma escalonada reducida. Y el rango de una matriz en forma escalonada reducida coincide con la cantidad de renglones no cero. Así, si la signatura de una matriz diagonal es $(P,N)$, entonces su rango es $P+N$.

Observación. Por lo que vimos en la entrada anterior, una matriz diagonal en $M_n(\mathbb{R})$ es positiva si y sólo si ninguna de sus entradas diagonales es negativa. Esto pasa si y sólo si su signatura es de la forma $(k,0)$ para algún $0\leq k\leq n$.

Observación. Por un resultado análogo al de la entrada anterior, una matriz diagonal es $M_n(\mathbb{R})$ es positiva definida si y sólo si todas sus entradas diagonales son positivas. Esto pasa si y sólo si su signatura es $(n,0)$.

La signatura es invariante bajo congruencias

El resultado clave de esta entrada es el siguiente lema.

Lema. Sean $A$ y $B$ matrices diagonales en $M_n(\mathbb{R})$ congruentes entre sí. Entonces la signatura de $A$ y la de $B$ son iguales.

Demostración. Llamemos $(P,N)$ a la signatura de $A$ y $(Q,M)$ a la signatura de $B$.

Como $A$ y $B$ son congruentes, entonces representan a una misma forma cuadrática $q:\mathbb{R}^n\to \mathbb{R}$, pero quizás en diferentes bases. Sea $\alpha$ la base en la cual $q$ tiene matriz $A$ y $\beta$ la la base en la cual $q$ tiene matriz $B$. Sea $b$ la forma polar de $p$.

Como la signatura de $A$ es $(P,N)$, entonces $q$ es positivo (resp. negativo, cero) para $P$ (resp. $N$, $n-P-N$) elementos de la base $\alpha$. Tenemos algo análogo para $B$. Así, podemos llamar a las bases

\begin{align*}
\alpha&=\{a^+_1,\ldots,a^+_P,a^-_1,\ldots, a^-_N,a^0_1\ldots, a^0_{n-P-N}\},\\
\beta&= \{b^+_1,\ldots,b^+_Q,b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}\},\\
\end{align*}

en donde $q$ aplicado a alguno de estos elementos tiene el signo del superíndice.

Demostraremos que $P=Q$ por contradicción. Supongamos que no. Sin perder generalidad, $P>Q$. Consideremos $V$ el subespacio de $\mathbb{R}^n$ generado por los vectores $a^+_1,\ldots,a^+_P$ y $W$ el subespacio de $\mathbb{R}^n$ generado por los vectores $b^-_1,\ldots, b^-_M,b^0_1\ldots, b^0_{n-Q-M}.$ Estos espacios tienen dimensión $P$ y $n-Q$ respectivamente. Como $P>Q$, tenemos que $P+(n-Q)>Q+(n-Q)=n$. Así, los espacios $V$ y $W$ tienen intersección no trivial, y por lo menos hay un vector $v$ distinto de $0$ en $V\cap W$. ¿Cuánto vale $q(v)$?

Por un lado, $v$ está en $V$ así que es combinación lineal de elementos $a^+_i$: $$v=\sum_{i=1}^P r_i a^+_i.$$ De este modo:

\begin{align*}
q(v)=\sum_{i=1}^P r_i^2 q(a^+_i) + 2\sum_{i=1}^P\sum_{j=1}^P b(a^+_i,a^+_j).
\end{align*}

El primer sumando es positivo pues $q$ es positivo en todo $a^+_i$. El segundo sumando es cero pues cada término es $0$ por ser una entrada $(i,j)$ con $i\neq j$ de la matriz diagonal $A$. Así, $q(v)>0$.

Similarmente, $v$ está en $W$ así que es combinación lineal de elementos $b^-_i$ y elementos $b^0_i$, de donde se puede mostrar que $q(v)\leq 0$.

Hemos encontrado una contradicción que surgió de suponer $P\neq Q$, así que $P=Q$. De manera análoga se demuestra que $N=M$. Así, la signatura de $A$ y de $B$ debe ser la misma.

$\square$

Signatura para matrices simétricas

En la entrada anterior vimos que cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a alguna matriz diagonal. Es posible que sea congruente a más de una matriz diagonal.

Definición. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Sea $D$ una matriz diagonal congruente a $A$. Definimos la signatura de $A$ como la signatura de $D$.

El lema de la sección anterior nos permite asegurarnos de que la siguiente definición está bien hecha. Si $A$ fuera congruente a dos matrices diagonales $D$ y $E$, entonces $D$ y $E$ serían congruentes entre sí. De este modo, la signatura de $A$ no cambia si la tomamos con respecto a $D$ o con respecto a $E$.

Pensemos que dos matrices $A$ y $B$ son congruentes entre sí. Sean $D$ y $E$ matrices diagonales congruentes a $A$ y $B$ respectivamente. Por transitividad, $D$ y $E$ son congruentes, así que tienen la misma signatura. Así, $A$ y $B$ tienen la misma signatura.

Una última observación es la siguiente. Si $A$ y $B$ son simétricas y congruentes entre sí, entonces están relacionadas mediante un producto con matrices invertibles. Como el producto por matrices invertibles no afecta el rango, concluimos que $A$ y $B$ tienen el mismo rango. Juntando esto con observaciones anteriores, una matriz simétrica $A$ de signatura $(P,N)$ tiene rango $P+N$.

Resumimos todo esto en el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices simétricas.

  • Si la signatura de $A$ es $(P,N)$, entonces su rango es $P+N$.
  • Si $A$ y $B$ son congruentes, entonces tienen la misma signatura. En particular:
    • Tienen el mismo rango.
    • Si una es positiva, la otra también lo es.
    • Si una es positiva definida, la otra también lo es.

El teorema de Sylvester

Enunciemos las versiones análogas a lo anterior en términos de formas cuadráticas. Comencemos con el teorema de Gauss. Tomemos una forma cuadrática $q$ de $\mathbb{R}^n$ y escribámosla como $$q=\sum_{i=1}^r a_i l_i^2$$ con $a_1,\ldots,a_r$ reales y $l_1,\ldots,l_r$ formas lineales linealmente independientes.

Podemos quitar todos los términos con $a_i=0$ sin afectar la igualdad. Además, si $a_i$ es positivo podemos factorizarlo en $l_i^2$ para definir $m_i=(\sqrt{a_i}l_i)^2$, y si $a_i$ es negativo podemos factorizar $-a_i$ en $l_i^2$ para obtener $m_i=(\sqrt{-a_i}l_i)^2$. En otras palabras, de cualquier expresión de Gauss podemos llegar a una de la forma $$q=\sum_{i=1}^r \epsilon_i m_i^2,$$

en donde los $\epsilon_i$ son $1$ o $-1$. Si tenemos $P$ valores de $\epsilon_i$ iguales a $1$ y $N$ valores de $\epsilon_i$ iguales a $-1$ diremos que la signatura de $q$ es $(P,N)$ y que el rango de $q$ es $P+N$.

¿Por qué esto está bien definido? Porque ya vimos que cada forma de Gauss de $q$ da una base en la cual la matriz que representa a $q$ es diagonal. Las entradas de la diagonal son los coeficientes de la forma de Gauss. Dos matrices que salen así son congruentes, así que por el lema de la sección anterior tienen la misma signatura. Esto garantiza que en ambas expresiones de Gauss de las de arriba hay la misma cantidad de $1$s y $-1$s.

El gran resumen de todo esto es el siguiente teorema.

Teorema (ley de inercia de Sylvester). Sea $q$ una forma cuadrática de $\mathbb{R}^n$. Entonces existen $\epsilon_1,\ldots,\epsilon_r$ iguales a $1$ o a $-1$ y formas lineales $l_1,\ldots,l_r$ linealmente independientes tales que $$q=\sum_{i=1}^r \epsilon_i l_i^2.$$

Cualesquiera dos expresiones de este estilo tienen la misma cantidad de coeficientes positivos, y la misma cantidad de coeficientes negativos.

Dato curioso: ¿Por qué ley de inercia?

En esta entrada nos hemos referido al teorema de Sylvester de dos maneras intercambiables: teorema de Sylvester y ley de inercia de Sylvester. La intuición diría que quizás existe alguna relación con la física. Quizás es porque algún uso especial de este teorema lo hace importante para el cálculo de la inercia. Esto no es así.

El nombre, curiosamente, viene de esta frase de Sylvester:

Este número constante de signos positivos que se asocian a una función cuadrática bajo cualquier transformación […] puede ser llamado, convenientemente, su inercia, hasta que una mejor palabra sea encontrada.

J. J. Sylvester, On the Theory of the Syzygetic Relations… (1853)

Aparentemente no se encontró una mejor palabra y ahora es el térimo que se usa. Interpretando un poco lo que dice Sylvester, la inercia se refiere a la resistencia de un cuerpo de cambiar de estado. Así, tal vez Sylvester pensó en la «resistencia a cambiar» de la signatura de una forma cuadrática bajo cambios de base.

Más adelante…

Hay mucha más teoría que se puede enunciar y demostrar para formas cuadráticas en general. Por ahora detendremos nuestra exploración hasta aquí, y ya sólo nos enfocaremos en las formas bilineales simétricas y positivas, es decir, en los productos interiores. Queremos enunciar y demostrar varios resultados para espacios con producto interior y para espacios euclideanos.

Dos conceptos que estudiaremos a continuidad son el de dualidad y el de ortogonalidad. Esto nos abrirá las puertas a entender correctamente algunos tipos de transformaciones lineales muy importantes, como las transformaciones simétricas, las normales y las ortogonales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, ayudan para repasar los conceptos vistos en esta entrada.

En los siguientes ejercicios, usa el algoritmo de Gauss para escribir cada forma como combinación cuadrática de formas lineales linealmente independientes. Además encuentra su rango y signatura.

  1. Encuentra el rango y la signatura de la forma cuadrática$q : \mathbb{R}^4 \rightarrow \mathbb{R}$ dada por
    \begin{align*} q(x,y,z,t)= xy + yz + zt+tx. \end{align*}
  2. Completa algunos detalles faltantes en las demostraciones anteriores. Por ejemplo:
    1. ¿Por qué las formas $m_i$ de la discusión del teorema de Sylvester son linealmente independientes?
    2. ¿Por qué son análogas las demostraciones faltantes en el lema que demostramos?
  3. Demuestra que cualquier matriz simétrica es congruente a una matriz diagonal cuya diagonal es de la forma $1,\ldots,1,-1\ldots,-1,0,\ldots,0$.
  4. Enuncia y demuestra un resultado análogo al lema principal de esta entrada, pero para matrices con entradas complejas. Recuerda que en este caso debes usar matrices hermitianas y las congruencias son a través de usar una matriz invertible y su traspuesta conjutada.
  5. Enuncia y demuestra una ley de inercia de Sylvester para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»