Archivo de la etiqueta: forma cuadrática

Álgebra Lineal II: Teorema de Gauss

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior vimos un recordatorio de las formas bilineales, cuadráticas y sus polares. En esta entrada continuaremos recordando algunas propiedades vistas previamente enfocándonos en el teorema de Gauss y su demostración. Esto nos dará una pequeña pista de la relación entre las formas cuadráticas y matrices.

Además, con el teorema de Gauss obtendremos un algoritmo para poder escribir cualquier forma cuadrática en una forma estandarizada. Esto nos llevará más adelante a plantear la ley de inercia de Sylvester.

Preparaciones para el teorema de Gauss

Antes de empezar con el teorema, veamos una propiedad de las formas cuadráticas en $\mathbb{R}^n$. Tomemos $e_1,\ldots, e_n$ la base canónica de $\mathbb{R}^n$. Tomemos $q$ una forma cuadrática de $\mathbb{R}^n$ y $b$ su forma polar.

Cualquier vector $x=(x_1,\ldots,x_n)$ de $\mathbb{R}^n$ se escribe como $ (x_1,\ldots,x_n)=\sum_{i=1}^n x_i e_i$. Por lo que hicimos en la entrada anterior tenemos entonces:

$$q(x)=b(x,x)=\sum_{i=1}^n \sum_{j=1}^n x_i x_j b(e_i, e_j).$$

Para simplificar la notación definamos $a_{ij}:=b(e_i,e_j)$. Podemos «ver» todos los sumandos en la siguiente expresión:

\begin{align*} q(x)& =x_1^2a_{11}+ x_1x_2a_{12} + \dots + x_1x_na_{1n} \\
&+x_2x_1a_{21}+ x_2^2a_{22} + \dots +x_2x_na_{2n} \\
&\vdots \qquad \qquad \qquad \qquad \qquad \qquad \\
&+x_nx_1a_{n1} + x_nx_2a_{n2} + \dots + x_n^2 a_{nn} \end{align*}

Aquí hay algunos términos «puros» de la forma $a_{ii}x_i^2$. Se encuentran en la «diagonal». Tenemos también algunos términos «mixtos» de la forma $a_{ij}x_ix_j$ con $i\neq j$. Por la simetría de $b$, en los términos mixtos tenemos $a_{ij}=a_{ji}$. Al separar en términos puros y mixtos obtenemos entonces la siguiente expresión:

\begin{align}q(x)= \sum_{i=1}^na_{ii}x_i^2+ 2\sum_{1 \leq i < j \leq n} a_{ij} x_i x_j .\end{align}

Usaremos esto más abajo.

Teorema de Gauss de formas cuadráticas

Teorema. Sea $q$ una forma cuadrática en $V=\mathbb{R}^n$. Existen reales $\alpha_1, \dots , \alpha_r $ y formas lineales $l_1, \dots l_r$ de $V$ linealmente independientes tales que, para todo $x \in V$ se tiene
$$q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2.$$

Recordemos que la independencia lineal de las formas $l_1,\ldots,l_r$ sucede en el espacio dual $V^*$.

Demostración. Procedamos por inducción sobre $n$. De la igualdad $(1)$, cuando $n=1$ la forma cuadrática es de la forma $q(x)=a_{11}x_1^2$. Al definir $\alpha_1=a_{11}$ y $l_1(x)=x_1$ obtenemos la forma deseada.

Supongamos que el teorema se cumple para $n-1$. De la igualdad $(1)$ sabemos que $q$ se puede escribir como sigue:

\begin{align*} q(x)= \sum_{i=1}^n a_{ii} x_i^2 + 2\sum_{1 \leq i < j \leq n} a_{ij} x_ix_j. \end{align*}

Tenemos tres posibilidades:

  • Que todos los $a_{ii}$ y todos los $a_{ij}$ sean cero. Este caso es inmediato pues entonces $q$ es la forma cuadrática cero y podemos tomar $l_1(x)=x_1$ y $\alpha_1=0$.
  • Que algún $a_{ii}$ sea distinto de cero.
  • Que todos los $a_{ii}$ sean cero, pero algún $a_{ij}$ sea distinto de cero.

Hagamos cada uno de los últimos dos casos por separado. Comencemos por el caso en el que algún $a_{ii}$ es distinto de cero. Sin pérdida de generalidad (¿por qué?) podemos suponer que es $a_{nn}$.

Apartando los términos que tienen $x_n$ de los que no obtenemos:

\begin{align*} \sum_{i=1}^n a_{ii}x_i^2=a_{nn} x_n^2 + \sum_{i=1}^{n-1} a_{ii} x_i^2. \end{align*}

y

\begin{align*} 2\sum_{1 \leq i < j \leq n} a_{ij}x_ix_j= 2\left(\sum_{i=1}^{n-1} a_{in} x_i\right)x_n + 2\sum_{1 \leq i < j \leq n-1} a_{ij}x_ix_j\end{align*}

Con esto

\begin{align*} q(x)=a_{nn}x_n^2 + 2\left(\sum_{i=1}^{n-1} a_{in} x_i\right)x_n + \sum_{i=1}^{n-1} a_{ii} x_i^2 + 2\sum_{1 \leq i < j \leq n-1} a_{ij}x_ix_j .\end{align*}

Si bien esta expresión se ve complicada, en realidad podemos pensar que en términos de la variable $x_n$ es «simplemente una cuadrática». Basados en los primeros dos términos podemos completar un binomio al cuadrado como sigue:

\begin{align*} q(x)= a_{nn} \left(x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \right)^2- a_{nn}\left(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \right)^2 + \sum_{i=1}^{n-1} a_{ii}x_i^2+2\sum_{1 \leq i < j \leq n-1} a_{ij}x_ix_j.\end{align*}

Notemos que la expresión

\begin{align*} – a_{nn}\left(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \right)^2 + \sum_{i=1}^{n-1} a_{ii}x_i^2+2\sum_{1 \leq i < j \leq n-1} a_{ij}x_ix_j \end{align*}

ya no tiene a la variable $x_n$ y que de hecho es una forma cuadrática en las variables $x_1,\ldots, x_{n-1}$ (¿por qué?). De este modo, podemos aplicarle hipótesis inductiva para obtener que existen escalares $\alpha_1,\ldots, \alpha_r$ y formas lineales $l’_1,\ldots,l’_r$ linalmente independientes de $\mathbb{R}^{n-1}$ tales que

\begin{align*} q'(x_1,\dots , x_{n-1})= \sum_{i=1}^r \alpha_i (l_i'(x))^2.\end{align*}

Si bien estas $l’_i$ son formas lineales de $\mathbb{R}^{n-1}$, también podemos pensarlas como formas lineales de $\mathbb{R}^n$. Formalmente, tomamos $l_i:\mathbb{R}^n\to \mathbb{R}$ dada por $l_i(x_1,\ldots,x_n)=l’_i(x_1,\ldots,x_{n-1})$. Para finalizar, definimos

\begin{align*} l_{r+1}(x_1, \dots , x_n)= x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \text{,} \qquad \alpha_{r+1}=a_{nn}.\end{align*}

De aquí, obtenemos la expresión deseada para $q$:

\begin{align*} q(x)= \sum_{i=1}^{r+1} \alpha_i (l_i(x))^2 \end{align*}

Falta argumentar por qué las $l_i$ son linealmente independientes. Si una combinación lineal de ellas da cero, como $l_{r+1}$ es la única que involucra a $x_n$, entonces su coeficiente debe ser cero. Así, obtendríamos una combinación lineal de $l_1,\ldots,l_r$ igualdada a cero. Pero esta es una combinación lineal de $l’_1,\ldots,l’_r$. Por hipótesis inductiva, estas son linealmente independientes así que todos los coeficientes deben ser cero.

Lo anterior termina el caso para cuando hay algún «término puro». Falta el caso en el que todos los «términos puros» tienen coeficiente cero, pero hay por lo menos un «término mixto». Por la igualdad $(1)$ tenemos que la forma cuadrática se ve así:

\begin{align*}q(x)= 2\sum_{1 \leq i < j \leq n} a_{ij} x_i x_j .\end{align*}

Sin pérdida de generalidad podemos suponer que el término mixto que no es cero es el $a_{n-1,n}$ (¿por qué?). La idea es ahora separar a los términos que tienen $x_{n-1}$ ó $x_n$ de los que no, y utilizar la siguientes identidades algebraicas que se valen para cualesquiera $A,B,C, D, E$ (haz las cuentas):

\begin{align} Ax_{n-1}x_n+Bx_{n-1}+Cx_n=A\left(x_{n-1}+\frac{C}{A}\right) \left(x_n+\frac{B}{A}\right)-\frac{BC}{A},\end{align}

\begin{align} DE= \frac{1}{4}(D+E)^2 – \frac{1}{4} (D-E)^2.\end{align}

Al realizar la separación nos queda:

\begin{align*} q(x)= 2a_{n-1,n}x_{n-1}x_n +2\sum_{i=1}^{n-2}a_{in}x_ix_n+ 2\sum_{i=1}^{n-2}a_{i,n-1}x_ix_{n-1} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij}. \end{align*}

Así, podemos usar la identidad $(2)$ con los siguientes valores

\begin{align*}
A &=2a_{n-1.n},\\
B&=2\sum_{i=1}^{n-2}a_{i,n-1}x_i,\\
C&=2\sum_{i=1}^{n-2}a_{i,n}x_i
\end{align*}

para obtener que $q$ es:

\begin{align*} A\left(x_{n-1}+\frac{C}{A}\right) \left(x_n+\frac{B}{A}\right)-\frac{BC}{A} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}

Al primer sumando podemos reescribirlo usando la identidad $(3)$ como

\begin{align*}\frac{A}{4}\left(x_{n-1}+x_n+\frac{B+C}{A}\right)^2-\frac{A}{4}\left( x_{n-1}-x_n-\frac{B-C}{A}\right)^2 \end{align*}

A la expresión conformada por los últimos dos sumandos le podemos aplicar hipótesis inductiva (¿por qué?) para escribirla de la forma \begin{align*} q'(x_1, \dots , x_{n-2})= \sum_{i=1}^r \alpha’_i (l’_i(x_1, \dots , x_{n-2}))^2 \end{align*} con $l’_1,\ldots, l’_r$ formas lineales linealmente independientes de $\mathbb{R}^{n-2}$. Como en el caso anterior, podemos «convertir» estas formas lineales a formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$. Al agregar las siguientes dos formas lineales

\begin{align*}
l_{r+1}(x)&= x_{n-1}+x_n+\frac{B+C}{A}\\
l_{r+2}(x)&= x_{n-1}-x_n-\frac{B-C}{A}
\end{align*}

y tomar $\alpha_{r+1}=\frac{A}{4}$, $\alpha_{r+2}=-\frac{A}{4}$, obtenemos la expresión deseada:
\begin{align*} q(x)= \sum_{i=1}^{r+2} \alpha_i (l_i(x))^2. \end{align*}

La demostración de que en efecto $l_1,\ldots,l_{r+2}$ son linealmente independientes queda como ejercicio.

Así por principio de inducción tenemos que el teorema de Gauss se cumple para cualquier forma cuadrática $q$ en $\mathbb{R}^n$ para todo $n\geq 1$ entero.

$\square$

Más adelante…

Debido a la longitud de esta demostración, los ejemplos serán reservados para la siguiente entrada.

Las formas cuadráticas, aunque interesantes, muestran estar limitadas por cómo las definimos, ya que se definen sólo en espacios vectoriales reales. En las siguientes entradas expandiremos un poco esta definición para también abarcar al menos espacios vectoriales complejos y luego nos enfocaremos en un tipo especial de éstas.

Además, al principio de la entrada se dieron pistas a que existe una relación entre formas bilineales y matrices, esto será explorado posteriormente.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $q$ una forma cuadrática en $\mathbb{R}^n$ y $x=(x_1, \dots, x_n)$. Muestra que \begin{align*} q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \text{ con } a_{ij}=b(e_i,e_j). \end{align*}
  2. Sea $A$ la matriz con entradas $a_{ij}$ dadas en el problema anterior. ¿Qué podrías afirmar acerca de $A$ sin importar la $q$ elegida?
  3. Sea $A=[a_{ij}]$ una matriz simétrica en $M_n(\mathbb{R})$ y definamos
    \begin{align*} q: \mathbb{R}^n \rightarrow \mathbb{R} \text{ dada por } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*} ¿Es $q$ así definida una forma cuadrática? ¿Es necesario que $A$ sea simétrica?
  4. Demuestra que las formas lineales definidas en el segundo caso de la demostración del teorema de Gauss en efecto son linealmente independientes.
  5. Sean $\alpha _1, \dots , \alpha_r $ números reales y $l_1 , \dots , l_r$ formas lineales, linealmente independientes en $\mathbb{R}^n$ y $x \in \mathbb{R}^n$. Definamos $q$ como sigue:
    \begin{align*} q(x)=\sum_i^n \alpha_i l_i(x)\end{align*}
    ¿Es $q$ así definida una forma cuadrática en $\mathbb{R}^n$?

Entradas relacionadas

Álgebra Lineal II: Repaso de formas bilineales y formas cuadráticas

Por Diego Ligani Rodríguez Trejo

Introducción

Aunque en previas entradas ya se ha hablado de formas bilineales y formas cuadráticas, retomaremos su estudio en esta entrada y nos dedicaremos a probar algunas propiedades que previamente no fueron demostradas.

También nos familiarizaremos con algunos tipos especiales de formas bilineales e intentaremos extender las definiciones ya dadas, esta vez para espacios vectoriales cuyo campo sea $\mathbb{C}$.

Formas bilineales

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Una forma bilineal es una función $b: V \times V \rightarrow \mathbb{R}$ tal que:

  • Para cualquier $x \in V$ la función $b(x, \cdot) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(x,v)$ es lineal.
  • Para cualquier $y \in V$ la función $b(\cdot, y) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(v,y)$ es lineal.

Definición. Una forma bilineal $b$ se llama simétrica si $b(x,y)=b(y,x)$ para cualquier par $x,y \in V$.

A partir de la definición de forma bilineal podemos saber cómo «abrir combinaciones lineales» si las tenemos en ambas entradas.

Proposición. Sea $b$ una forma bilineal en un espacio vectorial $V$ sobre $R$. Sean $x_1, \dots x_n \in V$, $y_1, \dots y_m \in V$ y $a_1, \dots a_n, c_1, \dots c_m \in \mathbb{R}$. Tenemos que:
\begin{align*} b\left(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j\right)=\sum_{i=1}^n\sum_{j=1}^m a_ic_jb(x_i,y_j)\end{align*}

Demostración. Usando la linealidad en la primera entrada de $b$ tenemos que:

$$b\left(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j\right)=\sum_{i=1}^n a_ib\left(x_i, \sum_{j=1}^m c_jy_j\right).$$
Procediendo de manera similar en la segunda entrada de cada sumando obtenemos:

$$ \sum_{i=1}^n a_ib\left(x_i, \sum_{j=1}^m c_jy_j\right) =\sum_{i=1}^n a_i \left(\sum_{j=1}^m c_j b(x_i,y_j)\right). $$

Multiplicando el real $a_i$ por la suma de índice $j$ para que «entre a la suma» obtenemos la expresión deseada.

$\square$

Obtenemos el siguiente corolario.

Corolario. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ de dimensión finita y $e_1,\ldots,e_n$ una base. Una forma bilineal $b$ queda totalmente definida por los valores $b(e_i,e_j)$ para $1\leq i \leq n$ y $1\leq j \leq n$.

Formas cuadráticas

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Una forma cuadrática es una función $q: V \rightarrow \mathbb{R}$ tal que existe una forma bilineal $b: V \times V \rightarrow \mathbb{R}$ que cumple \begin{align*}q(x)=b(x,x).\end{align*}

Identidad de polarización

Puede existir una forma cuadrática que tenga más de una forma bilineal asignada.

Ejemplo. Tomemos $V=\mathbb{R}^2$ y $b_1, b_2:V\times V\to \mathbb{R}$ definidas como sigue para $x=(x_1,x_2)$ y $y=(y_1,y_2)$:

\begin{align*} b_1(x,y) &=x_1y_2-x_2y_1\\ b_2(x,y)&=x_2y_1-x_1y_2. \end{align*}

De aquí:

\begin{align*} b_1(x,x) &=x_1x_2-x_2x_1=0\\ b_2(x,x)&=x_2x_1-x_1x_2=0, \end{align*}

por lo que $b_1$ y $b_2$ tendrían la misma forma cuadrática asignada.

$\square$

Por suerte basta agregar una restricción a la forma bilineal para que tengamos esta deseada unicidad. Esto lo afirma el siguiente teorema.

Teorema (Identidad de polarización). Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $q: V \rightarrow \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b: V \times V \rightarrow \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo $x \in V$.

Más aún, esta $b$ se puede encontrar de la siguiente manera:
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\end{align*}

Demostración. Por la definición de forma cuadrática, sabemos que existe una forma bilineal (no necesariamente simétrica) $B$ tal que $q(x)=B(x,x)$. Tomemos la función $b: V \times V \rightarrow \mathbb{R}$ dada por la siguiente fórmula: $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Dado que $q(x)=B(x,x)$, podemos calcular $b$ como \begin{align*} b(x,y)=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}. \end{align*}

Usando la bilinealidad de $B$, descompongamos el primer sumando por separado:

\begin{align*} B(x+y,x+y)&=B(x,x+y)+B(y,x+y)\\&=B(x,x)+B(x,y)+B(y,x)+B(y,y).\end{align*}

Sustituyendo esto en $b(x,y)$ nos arroja la igualdad

\begin{align*} b(x,y) &=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x) -B(y,y)}{2}\\&= \frac{B(x,y)+B(y,x)}{2}.\end{align*}

Esta igualdad nos dice que $b$ es combinación lineal de las formas bilineales $(x,y)\mapsto B(x,y)$ y $(x,y)\mapsto B(y,x)$, de modo que $b$ es bilineal. Además, de esta igualdad se concluye de manera inmediata que $b(x,y)=b(y,x)$. Así, $b$ es forma bilineal simétrica.

Una última aplicación de la igualdad previa nos ayuda a probar que $q(x)=b(x,x)$, ya que:

\begin {align*} b(x,x)&=\frac{B(x,x)+B(x,x)}{2}\\&=B(x,x)\\&=q(x).\end{align*}

Lo único que nos falta demostrar es la unicidad. Si tuviéramos otra forma bilineal simétrica $b’: V \times V \rightarrow \mathbb{R}$ tal que $q(x)=b'(x,x)$, ésta debe cumplir lo siguiente:

\begin{align*} q(x+y)&=b'(x+y,x+y)\\&=b'(x,x)+2b'(x,y)+b'(y,y).\end{align*}

Al despejar a $b'(x,y)$ obtenemos

\begin{align*} b'(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}=b(x,y).\end{align*}

$\square$

Finalicemos recordando una última definición que relaciona a $q$ con su única forma bilineal simétrica.

Definición. Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática. A $b: V \times V \rightarrow \mathbb{R}$ dada por
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
se le llama la forma polar de $q$.

Más adelante…

En las siguientes entradas veremos un teorema importante que nos ayudará a entender todas las formas cuadráticas en $\mathbb{R}^n$. Un poco más adelante veremos análogos de lo que hemos hecho en $\mathbb{R}$, pero para espacios vectoriales sobre $\mathbb{C}$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=M_n(\mathbb{R})$ y definamos la función $b:V \times V \rightarrow \mathbb{R}$ dada por $b(A,B)=\text{Tr}(AB)$. Demuestra que $b$ es una forma bilineal simétrica.
  2. Sea $V=M_n(\mathbb{R})$ y definamos la función $b’:V \times V \rightarrow \mathbb{R}$ dada por $b'(A,B)=\text{Tr}(A^tB)$. Demuestra que $b’$ es una forma bilineal simétrica.
  3. Sea $V=\mathcal{C}^0[0,1]$ (El espacio vectorial de funciones reales continuas en el intervalo $[0,1]$) y $q(x): V \rightarrow \mathbb{R}$ tal que $q(f)=\int_0^1f(x)^2dx$. ¿Es $q$ una forma cuadrática? Si sí, ¿quién es su forma polar?
  4. Sea $q$ una forma cuadrática en $V$ con $b$ su forma polar. Demuestra que para cualquier pareja $x,y$ en $V$ se tiene que
    \begin{align*}
    b(x,y)=\frac{q(x+y)-q(x-y)}{4}.
    \end{align*}
  5. Sea $q$ una forma cuadrática en $V$ con $b$ su polar. Demuestra que $\forall x,y \in V$ se tiene
    \begin{align*}
    q(x+y)+q(x-y)=2(q(x)+q(y)).
    \end{align*}
  6. ¿Por qué en esta entrada se utiliza la palabra «forma», en lugar de «función», que es normalmente utilizada? ¿Hay alguna diferencia entre una forma y una función?

Entradas relacionadas

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación $T$ es simétrica y $W$ es un subespacio estable bajo $T$, entonces $W^\bot$ también lo es. Además, $T$ restringida a $W$ o a $W^\bot$ también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Demostración. Como $V$ es espacio Euclideano, entonces tiene cierta dimensión finita $n$. Haremos inducción fuerte sobre $n$. Si $n=1$, el polinomio característico de $T$ es de grado $1$ y con coeficientes reales, así que tiene una raíz $\lambda$ real. Si $v$ es un eigenvector de $T$ para $\lambda$, entonces $\frac{v}{\norm{v}}$ también es eigenvector de $T$ y conforma una base ortonormal para $V$.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a $n$ y tomemos $V$ espacio Euclideano de dimensión $n$. Por el teorema fundamental del álgebra, el polinomio característico de $T$ tiene por lo menos una raíz $\lambda$ en $\mathbb{C}$. Como $T$ es simétrica, cualquier matriz $A$ que represente a $T$ también, y $\lambda$ sería una raíz del polinomio característico de $A$. Por el resultado que vimos en la entrada anterior, $\lambda$ es real.

Consideremos el kernel $W$ de la transformación $\lambda \text{id} – T$. Si $W$ es de dimensión $n$, entonces $W=V$, y por lo tanto $T(v)=\lambda v$ para todo vector $v$ en $V$, es decir, todo vector no cero de $V$ es eigenvector de $T$. De esta forma, cualquier base ortonormal de $V$ satisface la conclusión. De esta forma, podemos suponer que $W\neq V$ y que por lo tanto $1\leq \dim W \leq n-1$, y como $$V=W\oplus W^\bot,$$ se obtiene que $1\leq \dim W^\bot \leq n-1$. Sea $B$ una base ortonormal de $W$, que por lo tanto está formada por eigenvectores de $T$ con eigenvalor $\lambda$.

Como la restricción $T_1$ de $T$ a $W^\bot$ es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal $B’$ de eigenvectores de $T_1$ (y por lo tanto de $T$) para $W^\bot$.

Usando de nuevo que $$V=W\oplus W^\bot,$$ tenemos que $B\cup B’$ es una base de $V$ formada por eigenvectores de $T$.

El producto interior de dos elementos distintos de $B$, o de dos elementos distintos de $B’$ es cero, pues individualmente son bases ortonormales. El producto de un elemento de $B$ y uno de $B’$ es cero pues un elemento está en $W$ y el otro en $W^\bot$. Además, todos los elementos de $B\cup B’$ tiene norma $1$, pues vienen de bases ortogonales. Esto muestra que $B\cup B’$ es una base ortonormal de $V$ que consiste de eigenvectores de $T$.

$\square$

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $M_n(\mathbb{R})$, tales que $$A=P^{-1}DP.$$

Demostración. Como $A$ es una matriz simétrica, la transformación $T:F^n\to F^n$ dada por $T(X)=AX$ es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de $F^n$ que consiste de eigenvectores de $T$. Digamos que estos eigenvectores son $C_1,\ldots,C_n$. Por definición de $T$, estos eigenvectores de $T$ son exactamente eigenvectores de $A$.

Anteriormente demostramos que si construimos a una matriz $B$ usando a $C_1,\ldots,C_n$ como columnas y tomamos la matriz diagonal $D$ cuyas entradas son los eigenvalores correspondientes $\lambda_1,\ldots,\lambda_n$, entonces $$A=BDB^{-1}.$$

Afirmamos que la matriz $B$ es ortogonal. En efecto, la fila $j$ de la matriz $^t B$ es precisamente $C_j$. De esta forma, la entrada $(i,j)$ del producto ${^tB} B$ es precisamente el producto punto de $C_i$ con $C_j$. Como la familia $C_1,\ldots,C_n$ es ortonormal, tenemos que dicho producto punto es uno si $i=j$ y cero en otro caso. De aquí, se concluye que ${^tB} B=I_n$.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo $P=B^{-1}$, tenemos la igualdad $$A=P^{-1}DP,$$ con $D$ diagonal y $P$ ortogonal, justo como lo afirma el teorema.

$\square$

Matrices positivas y positivas definidas

Una matriz $A$ simétrica en $M_n(\mathbb{R})$ induce una forma bilineal simétrica en $\mathbb{R}^n$ mediante la asignación $$(x,y) \mapsto {^t x} A y,$$ con forma cuadrática correspondiente $$x \mapsto {^t x} A x.$$

Definición. Una matriz $A$ en $M_n(\mathbb{R})$ es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Demostración. (1) implica (2). Supongamos que $A$ es positiva y tomemos $\lambda$ un eigenvalor de $A$. Tomemos $v$ un eigenvector de eigenvalor $\lambda$. Tenemos que:
\begin{align*}
\lambda \norm{v}^2 &=\lambda {^tv} v\\
&= {^t v} (\lambda v)\\
&={^t v} Av\\
&\geq 0.
\end{align*}

Como $\norm{v}^2\geq 0$, debemos tener $\lambda \geq 0$.

(2) implica (3). Como $A$ es matriz simétrica, por el teorema espectral tiene una diagonalización $A=P^{-1}DP$ con $P$ una matriz invertible y $D$ una matriz diagonal cuyas entradas son los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal $E$ cuyas entradas son los reales $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}.$ Notemos que $E^2=D$, así que si definimos a la matriz $B=P^{-1}EP$, tenemos que $$B^2=P^{-1}E^2 P = P^{-1}DP = A.$$

Además, $B$ es simétrica pues como $E$ es diagonal y $P$ es ortogonal, tenemos que
\begin{align*}
{^tB} &= {^t P} {^t E} {^t (P^{-1})}\\
&= P^{-1} E P\\
&= B.
\end{align*}

(3) implica (4). Es inmediato, tomando $C=B$ y usando que $B$ es simétrica.

(4) implica (1). Si $A= {^tC} C$ y tomamos un vector $v$ en $\mathbb{R}^n$, tenemos que

\begin{align*}
{^t v} A v &= {^tv} {^tC} C v\\
&= {^t(Cv)} (Cv)\\
&=\norm{Cv}^2\\
&\geq 0,
\end{align*}

lo cual muestra que $A$ es positiva.

$\square$

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en $\mathbb{C}$, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Tarea moral

Los siguientes ejercicios te ayudarán a repasar los conceptos vistos en esta entrada.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de $\mathbb{R}^3$ conformada por eigenvectores de la matriz $\begin{pmatrix}10 & 0 & -7\\ 0 & 3 & 0 \\ -7 & 0 & 10\end{pmatrix}.$
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz $$\begin{pmatrix}5 & 1 & 7\\1 & 10 & -7\\7 & -7 & 18\end{pmatrix}$$ es positiva.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Producto interior y desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, platicamos acerca de formas bilineales y de formas cuadráticas. Ahora veremos un tipo de formas bilineales especiales: las positivas y las positivas definidas. Las formas positivas definidas nos ayudan a definir qué es un producto interior. Esta es una noción fundamental que más adelante nos ayudará a definir distancias y ángulos.

Formas bilineales positivas y positivas definidas

Para hablar de geometría en espacios vectoriales, la siguiente noción es fundamental. Es importante notar que es una definición únicamente para formas bilineales simétricas.

Definición. Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo vector $x$ de $V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo vector $x\neq 0$ de $v$.

Tenemos una noción análoga para formas cuadráticas.

Definición. Sea $q:V\to \mathbb{R}$ una forma cuadrática con forma polar $b$. Diremos que $q$ es positiva si $b$ lo es, y diremos que es positiva definida si $b$ lo es.

Ejemplo. Como ya vimos antes, el producto punto de $\mathbb{R}^n$ es una forma bilineal simétrica. También es positiva definida, pues si tenemos $x=(x_1,\ldots,x_n)$, tenemos que $$x\cdot x = x_1^2+\ldots+x_n^2\geq 0,$$ y esta es una igualdad si y sólo si $x_1=\ldots=x_n=0$, lo cual sucede si y sólo si $x=0$.

$\square$

Ejemplo. Considera $V=\mathbb{R}_2[x]$ y consideremos la forma bilineal $b$ dada por $$b(p,q)=p(0)q(1)+p(1)q(0).$$ Esta es una forma bilineal simétrica pues \begin{align*}b(p,q)&=p(0)q(1)+p(1)q(0)\\&=q(0)p(1)+q(1)p(0)\\&=b(q,p).\end{align*} Notemos que $$b(p,p)=2p(0)p(1),$$ que no necesariamente es positivo. Por ejemplo, si tomamos el polinomio $p(x)=x-\frac{1}{2}$, tenemos que \begin{align*}b(p,p)&=2p(0)p(1)\\&=-2\cdot\frac{1}{2}\cdot\frac{1}{2}\\&=-\frac{1}{2}.\end{align*} Así, esta es una forma bilineal simétrica, pero no es positiva (y por lo tanto tampoco es positiva definida).

$\square$

Problema. Considera la forma cuadrática $Q$ en $M_{2}(\mathbb{R})$ que suma el cuadrado de las entradas de la diagonal de una matriz, es decir, aquella dada por $$Q\begin{pmatrix} a & b\\c & d\end{pmatrix}=a^2+d^2.$$ Determina su forma polar y si es positiva o positiva definida.

Solución. Para encontrar la forma polar $B$ de $Q$, usamos la identidad de polarización
\begin{align*}
B&\left(\begin{pmatrix}a&b\\c&d\end{pmatrix},\begin{pmatrix} e & f\\ g & h \end{pmatrix}\right)\\
&=\frac{(a+e)^2+(d+h)^2-a^2-e^2-d^2-h^2}{2}\\
&=\frac{2ae+2dh}{2}\\
&=ae+dh.
\end{align*}

Como $Q\begin{pmatrix}a&b\\c&d\end{pmatrix}=a^2+d^2\geq 0$, tenemos que $Q$ (y $B$) son positivas. Sin embargo, $Q$ no es positiva definida (ni $B$), pues por ejemplo, $$Q\begin{pmatrix}0&1\\1&0\end{pmatrix} = 0.$$

Producto interior

Estamos listos para definir aquellos espacios sobre los que podemos hacer geometría.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$

  • Un producto interior en $V$ es una forma bilineal simétrica y positiva definida.
  • Decimos que $V$ es un espacio Euclideano si es de dimensión finita y está equipado con un producto interior.

Estamos siguiendo la convención del libro de Titu Andreescu, en donde es importante pedir que $V$ sea de dimensión finita para ser Euclideano.

Cuando estamos hablando de espacios con producto interior, o de espacios Euclideanos, tenemos una forma bilineal simétrica y positiva definida $b$. Sin embargo, en vez de usar constantemente $b(x,y)$, para simplificar la notación usaremos simplemente $\langle x, y\rangle$.

Definición. Si $V$ es un espacio con producto interior $\langle \cdot,\cdot \rangle$, definimos la norma de un vector $x$ como $$\Vert x \Vert =\sqrt{\langle x, x \rangle}.$$

Ejemplo. Como dijimos arriba, el producto punto en $\mathbb{R}^n$ es una forma bilineal simétrica, así que es un producto interior. Como $\mathbb{R}^n$ es de dimensión finita, entonces es un espacio Euclideano.

La norma de un vector $x=(x_1,\ldots,x_n)$ está dada por $\Vert x \Vert = \sqrt{x_1^2+\ldots+x_n^2},$ y geométricamente se interpreta como la distancia de $x$ al origen.

Un ejemplo más concreto es $\mathbb{R}^4$, en donde la norma del vector $(1,2,3,1)$ es $\sqrt{1^2+2^2+3^2+1^2}=\sqrt{15}$.

$\square$

La notación de producto interior quizás te recuerde la notación que se usa cuando hablamos de dualidad. Sin embargo, es muy importante que distingas los contextos. En el caso de dualidad, tenemos $$\langle \cdot, \cdot \rangle: V^\ast\times V \to \mathbb{R},$$ y en este contexto de producto interior tenemos $$\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}.$$ Más adelante, puede que te encuentres en tu preparación matemática con el teorema de representación de Riesz, a partir del cual tendrá sentido que se use la misma notación.

Desigualdad de Cauchy-Schwarz

A continuación presentamos un resultado fundamental es espacios con formas bilineales positivas y positivas definidas.

Teorema (desigualdad de Cauchy-Schwarz). Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica y $q$ su forma cuadrática asociada.

  • Si $b$ es positiva, entonces para todo $x$ y $y$ en $V$ tenemos que $$b(x,y)^2\leq q(x)q(y).$$ Si $x$ y $y$ son linealmente dependientes, se alcanza la igualdad.
  • Además, si $b$ es positiva definida y $x$ y $y$ son linealmente independientes, entonces la desigualdad es estricta.

Demostración. Supongamos primero solamente que $b$ es positiva. Consideremos la función $f:\mathbb{R}\to \mathbb{R}$ dada por $f(t)=q(x+ty)$. Como $q$ es forma cuadrática positiva, tenemos que $f(t)\geq 0$ para todo real $t$. Por otro lado, expandiendo y usando que $b$ es simétrica, tenemos que
\begin{align*}
f(t)&=q(x+ty)\\
&=b(x+ty,x+ty)\\
&=b(x,x)+2b(x,y)\cdot t + b(y,y) \cdot t^2\\
&=q(x) + 2b(x,y)\cdot t + q(y) \cdot t^2.
\end{align*}

En esta expresión, $q(x)$, $2b(x,y)$ y $q(y)$ son reales, así que $f(t)$ es un polinomio cuadrático en $t$. Como $f(t)\geq 0$ para todo $t$ en $\mathbb{R}$, el discriminante de este polinomio es no positivo, en otras palabras, $$(2b(x,y))^2-4q(x)q(y)\leq 0.$$

Sumando $4q(x)q(y)$ y dividiendo entre $4$ ambos lados de la desigualdad, obtenemos que $$b(x,y)^2\leq q(x)q(y),$$ la cual es la desigualdad que queremos.

Si $x$ y $y$ son linealmente dependientes, podemos despejar a uno en términos del otro. Sin perder generalidad, podemos suponer que $x=\alpha y$. En este caso, $$b(\alpha y,y)^2=\alpha^2 b(y,y)=q(\alpha(y))q(y),$$ así que se da la igualdad.

Ahora, supongamos además que $b$ es positiva definida y que se da la igualdad. Si esto sucede, el discriminante del polinomio cuadrático de arriba es igual a $0$ y por lo tanto el polinomio tiene una raíz $t$. En otras palabras, $q(x+ty)=0$. Pero como $q$ es positiva definida, esto implica que $x+ty=0$, de donde $x$ y $y$ son linealmente dependientes. Así, si $x$ y $y$ son linealmente independientes, tenemos que la desigualdad es estricta.

$\square$

El siguiente caso particular es uno de los más importantes y los más usados, por lo cual amerita que lo enunciemos separadamente.

Corolario. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior $\langle \cdot, \cdot \rangle$. Para cualesquiera $x,y$ en $V$ se cumple $|\langle x, y \rangle| \leq \Vert x \Vert \cdot \Vert y \Vert$.

Puede que te preguntes por qué enfatizamos los resultados de desigualdades. En varias partes de tu formación matemática trabajarás con espacios vectoriales en donde quieres hacer cálculo. Ahí, se define la convergencia y los límites en términos de una norma. Las desigualdades que probemos para espacios vectoriales son útiles para cuando se quiere demostrar la validez de ciertos límites. Más adelante mencionaremos algunas cosas adicionales al respecto.

Tarea moral

Los siguientes ejercicios te ayudarán a repasar los conceptos vistos en esta entrada.

  • Considera la función $q(w,x,y,z)=wx+yz$. Muestra que es una forma cuadrática en $\mathbb{R}^4$. Encuentra su forma polar y determina si es una forma cuadrática positiva y/o positiva definida.
  • Muestra que $$q(w,x,y,z)=x^2+y^2+z^2+xy+yz+zx$$ es una forma cuadrática en $\mathbb{R}^4$ y determina si es positiva y/o positiva definida.
  • Considera $V=\mathcal{C}[0,1]$ el espacio vectorial de funciones continuas en el intervalo $[0,1]$. Muestra que $$\langle f,g\rangle = \int_0^1 f(x)g(x)\, dx$$ define un producto interior en $V$. ¿Es $V$ un espacio Euclideano? Determina la norma de la función $f(x)=x^3$.
  • Sea $V=\mathbb{R}_2[x]$ el espacio vectorial de polinomios con coeficientes reales y de grado a lo más $1$. Muestra que $$\langle p,q\rangle = p(0)q(0)+p(1)q(1)+p(2)q(2)$$ hace a $V$ un espacio Euclideano.

Más adelante…

En esta entrada definimos el concepto de producto interior y vimos cómo el producto interior induce una norma en el espacio vectorial. El concepto de norma nos permite generalizar la noción de distancia y esto nos permitirá ver cómo se puede hacer cálculo en espacios vectoriales.

En las siguientes entradas veremos cómo se define esta norma para diferentes espacios vectoriales con diferentes productos interiores. Podremos ver entonces cómo se generalizan otras nociones que ya hemos visto en cursos anteriores; como el concepto de ángulo.

Entradas relacionadas

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en $\mathbb{R}^n$ en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial $V$ es una transformación $b:V\times V \to \mathbb{R}$ tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si $b(x,y)=b(y,x)$ para cada par de vectores $x,y$ en $V$. Una forma cuadrática de $V$ es una transformación $q:V\to \mathbb{R}$ tal que $q(x)=b(x,x)$ para alguna forma bilineal $b$.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea $q:V\to \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b:V\times V \to \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo vector $x$. Esta forma bilineal está determinada mediante la identidad de polarización $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Demostración. Tomemos una forma cuadrática $q$ de $V$. Por definición, está inducida por una forma bilineal $B$ de $V$, es decir, $q(x)=B(x,x)$. Definamos la transformación $b$ mediante $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$ Comencemos probando que $b$ es una transformación bilineal simétrica. Notemos que:
\begin{align*}
b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\
&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,y)+B(y,x)}{2}.
\end{align*}

De aquí es muy claro que $b$ es forma bilineal, pues fijando $x$, set tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $y$; y fijando $y$, se tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $x$. Además, de esta igualdad (o directo de la definición de $b$) es claro que $b(x,y)=b(y,x)$.

También de esta igualdad obtenemos que $$b(x,x)=B(x,x)=q(x).$$

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica $b’$ tal que $b'(x,x)=q(x)$ debe satisfacer, como en las cuentas que hicimos arriba, que
\begin{align*}
q(x+y)&=b'(x+y,x+y)\\
&=q(x)+q(y)+b'(x,y)+b'(y,x)\\
&=q(x)+q(y)+2b'(x,y).
\end{align*}

De aquí, despejando $b’$, se obtiene que debe tener la forma de $b$.

$\square$

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática $q$ de $V$, a la única forma bilineal simétrica $b$ de $V$ tal que $q(x)=b(x,x)$ le llamamos la forma polar de $q$.

Ejemplo. En el espacio vectorial $\mathbb{R}^n$, la transformación $q:\mathbb{R}^n\to \mathbb{R}$ dada por $$q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.$$ es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a $x=(x_1,\ldots,x_n)$ y $y=(y_1,\ldots,y_n)$ a $$b(x,y)=x_1y_1+\ldots+x_ny_n.$$

Esto coincide con la construcción dada por la identidad de polarización, ya que \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

$\square$

Ejemplo. En el espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales, la transformación $Q$ dada por $$Q(p)=p(0)p(1)+p(2)^2$$ es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización
\begin{align*}
B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\
&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\
&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\
&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).
\end{align*}

$\square$

Propiedades de formas cuadráticas

Si $q$ es una forma cuadrática, $x$ es un vector y $c$ es un real, tenemos que $q(cx)=c^2q(x)$, pues sale una $c$ por cada una de las coordenadas de la forma bilineal asociada. En particular, $q(-x)=q(x)$.

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea $q$ una forma cuadrática en $V$ con forma polar $b$. Entonces:

  • Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$b(x,y)=\frac{q(x+y)-q(x-y)}{4}.$$
  • (Ley del paralelogramo) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$q(x+y)+q(x-y)=2(q(x)+q(y)).$$
  • (Teorema de Pitágoras) Para vectores $x$ y $y$ tales que $b(x,y)=0$, se tiene que $$q(x+y)=q(x)+q(y).$$
  • (Diferencia de cuadrados) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $b(x+y,x-y)=q(x)-q(y).$

Demostración. Por la identidad de polarización tenemos que $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},$$ y como $q(y)=q(-y)$, tenemos también por la identidad de polarización que \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores $x+y$ y $x-y$, y de usar que $q(2x)=4q(x)$ y que $q(2y)=4q(y)$.

$\square$

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial $V$ de dimensión $n$, basta tomar una base $\{e_1,\ldots,e_n\}$ de $V$ y decidir los valores $b_{ij}$ de $b(e_i,e_j)$ para $1\leq i \leq j \leq n$. Como $b$ es simétrica, para $j<i$ se tendría que $b(e_i,e_j)=b(e_j,e_i)$, es decir, que $b_{ji}=b_{ij}$.

De esta forma, para todo vector $v$ en $V$ podemos encontrar el valor de $q(v)$ expresando $v$ en la base $\{e_1,\ldots,e_n\}$, digamos, $$v=a_1e_1+\ldots+a_ne_n,$$ de donde $$q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.$$

Ejemplo. Toda forma cuadrática en $\mathbb{R}^3$ se obtiene de elegir reales $a,b,c,d,e,f$ y definir $$q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.$$ La forma polar de $q$ es la forma bilineal $B$ tal que para la base canónica $e_1,e_2,e_3$ de $\mathbb{R}^3$ hace lo siguiente

\begin{align*}
B(e_1,e_1)&=a\\
B(e_2,e_2)&=b\\
B(e_3,e_3)&=c\\
B(e_1,e_2)&=B(e_2,e_1)=d\\
B(e_2,e_3)&=B(e_3,e_2)=e\\
B(e_3,e_1)&=B(e_1,e_3)=f.
\end{align*}

$\square$

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como $\mathbb{R}^n$. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales $\alpha_1,\ldots, \alpha_r$ y formas lineales $l_1,\ldots,l_r$. Consideremos $$q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.$$ Se tiene que $q$ es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes $1$ y $-1$.

Teorema (clasificación de Gauss de formas cuadráticas). Sea $q$ una forma cuadrática en $\mathbb{R}^n$. Entonces, existen enteros no negativos $r$ y $s$, y formas lineares $l_1,\ldots,l_r,m_1,\ldots,m_s$ en $(\mathbb{R}^n)^\ast$, todas ellas linealmente independientes, tales que $$q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.$$

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números $r$ y $s$ en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en $\mathbb{R}^3$ dada por $q(x,y,z)=xy+yz+zx$. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que: $$xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,$$ en donde
\begin{align*}
(x,y,z)&\mapsto \frac{2x+y+z}{2},\\
(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\
(x,y,z)&\mapsto x
\end{align*}
son formas lineales linealmente independientes.

$\square$

Tarea moral

Los siguientes ejercicios te ayudarán a repasar los conceptos vistos en esta entrada.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que $q(x,y)=3x^2-y^2+7y$ no es una forma cuadrática.
  • Muestra que si $\alpha_1,\ldots, \alpha_r$ son reales y tomamos formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$, entonces $$q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2$$ es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática $Q(f)=\int_{0}^1 f^2(x)\, dx$ en el espacio vectorial de funciones continuas en el intervalo $[0,1]$?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las fromas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectorias. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Entradas relacionadas