Archivo de la etiqueta: forma bilineal

Álgebra lineal II: Matrices y formas bilineales, parte 2.

Introducción

Recordemos que, en la entrada del teorema de Gauss se hacía uso de la base canónica y en la entrada anterior definimos la matriz asociada a una forma bilineal dependiente de alguna base, nuestro objetivo en esta entrada será probar resultados o encontrar propiedades independientes a la base elegida.

Si recuerdas, una propiedad con estas características era el rango de una forma cuadrática o al menos eso mencionamos, aunque no dimos una prueba, aquí escribiremos formalmente este resultado, así como su prueba.

Congruencia de matrices

En la entrada anterior revisamos como obtener matrices asociadas a una misma forma bilineal en diferentes bases, en ello llegamos a la igualdad
\begin{align*} B=\text{ } ^tPAP\end{align*}
Profundicemos un poco en matrices que estén relacionadas de esta manera
Definición

Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ diremos que $A$ es congruente con $B$ si existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Notemos que esto es equivalente a decir que $A$ y $B$ son las matrices asociadas a una forma bilineal $b$ en distintas bases.

Generalmente cuando se introduce una relación de este estilo, se define de manera que sea una relación de equivalencia, por lo que no te debería sorprender el siguiente resultado.

Proposición

Ser matrices congruentes es una relación de equivalencia.

Demostración

Empezando con la reflectividad, esto es claro ya que la matriz identidad ($1_n$) es invertible (la inversa es si misma) y es clara la igualdad
\begin{align*} A=\text{ } ^t1_nA1_n.\end{align*}

Para la simetría, si tomamos dos matrices $A,B \in M_n(\mathbb{R})$ tal que $A$ es congruente con $B$ tenemos que
\begin{align*} B=\text{ } ^tPAP\end{align*}
Con $P \in M_n(\mathbb{R})$ invertible, aprovechando esto, multipliquemos del lado izquierdo por la inversa de $^tP$ y del lado derecho por la inversa de $P$ de ambos lados de la igualdad
\begin{align*} A=\text{ } ^t(P^{-1})BP^{-1}\end{align*}
Además, es claro que $P^{-1}$ es invertible por lo que $B$ es congruente con $A$.

Finalmente, la transitividad, supongamos que $A$ es congruente con $B$ y $B$ a su vez es congruente con $C$ esto nos arroja las siguientes dos igualdades
\begin{align*} B=\text{ } ^tPAP \\
C=\text{ } ^tQBQ\end{align*}
Con $P,Q \in M_n(\mathbb{R})$ invertibles, así sustituyendo $B$ en la segunda igualdad
\begin{align*} C=\text{ } ^tQ \text{ } ^tPAP Q\end{align*}
Recordando que
\begin{align*} \text{ } ^tQ \text{ } ^tP=\text{ }^t(PQ)\end{align*}
Por lo que la igualdad anterior se puede escribir como
\begin{align*} C=\text{ }^t(PQ)AP Q\end{align*}
Más aún, sabemos que $PQ$ sigue siendo invertible, por lo tanto $A$ es congruente a $C$.

$\square$

Ahora, recordando la definición del rango de una matriz vista en esta entrada y la siguiente proposición (demostrada en esa misma entrada)

Proposición

Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Prestando especial atención a la última igualdad, procedamos con el siguiente resultado sumamente importante.

Proposición

Dos matrices congruentes tienen el mismo rango.

Demostración

La demostración, utilizando las herramientas adecuadas, es increíblemente sencilla.
Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ congruentes, entonces existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Como $P$ es invertible sabemos que la transformación lineal asociada a $^tP$ es inyectiva (es biyectiva, de hecho) y la asociada a $P$ es suprayectiva (igualmente es de hecho biyectiva), además, como todas las matrices las tomamos cuadradas, notemos que, por el punto $4$ de la proposición anterior
\begin{align*} rank(B)=rank(\text{ } ^tPAP)=rank(A).\end{align*}
Armados con estos resultados, veamos un análogo al teorema de Gauss visto anteriormente, si no es que una forma un tanto más fuerte de este, y procedamos a finalmente enunciar y demostrar el teorema de inercia de Sylvester, cuya demostración será poco más que un corolario.

Teorema de Gauss y teorema de Inercia de Sylvester.

Teorema de Gauss

Toda matriz simétrica $A \in M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración

Sea $q$ su forma cuadrática asociada en alguna base en $V=\mathbb{R}^n$ entonces
\begin{align*} q(x)=\text{ }^tXAX \text{ o visto de otra manera } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*}
Debido a la última proposición de la entrada anterior, sabemos que es suficiente mostrar la existencia de una base de $V$ bajo la cual la matriz asociada a $q$ sea diagonal.

Por el teorema de Gauss para formas cuadráticas, sabemos que podemos encontrar $\{ \alpha_1, \cdots, \alpha_r \} \subseteq \mathbb{R} $ números reales y $\{ l_1, \cdots, l_r \} \subseteq V* $ formas lineales linealmente independientes tales que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
Para cualquier $x \in V$, más aún la familia $\{ l_1, \cdots, l_r \}$ puede ser completada a una base para $V^*$ sea esta $\{ l_1, \cdots, l_n \}$ ya que esta es linealmente independiente, por una proposición vista aquí, sabemos que existe una base $\{ u_1, \cdots, u_n \}$ de $V$ con base dual $\{ l_1, \cdots, l_n \}$ más aún, sabemos que
\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$.}
\end{cases} \end{align*}
Por lo que, si $x=\sum_{i=1}^n x_iu_i$ entonces
\begin{align*} q(x)= \sum_{i=1}^n \alpha _i (l_i(x))^2= \sum_{i=1}^n \alpha _i x_i^2\end{align*}
Por lo que su matriz asociada respecto a la base $\{ u_1, \cdots, u_n \}$ es la matriz diagonal $D$ tal que
\begin{align*} D=[d_{ij}] \qquad \text{con} \qquad d_{ii}= \alpha_i \qquad \text{y} \qquad d_{ij}=0 \end{align*}
Si $i \neq j$.

Por la última proposición de la entrada anterior, $A$ es congruente con $D$.

$\square$

Anteriormente se definió rango de una forma bilineal, se esperaría por la elección de nombres que el rango de una forma cuadrática y el rango de su matriz correspondiente coincidan, redefinamos rango de una forma cuadrática y veamos que es equivalente a la antigua definición.

Definición

Sea $q$ una forma cuadrática en $V$, el rango de $q$ será el rango de su matriz asociada en alguna base de $V$.

Recordemos que el rango de $q$ lo definimos anteriormente como la cardinalidad del conjunto $\{ \alpha_1, \cdots, \alpha_r \}$ (utilizando la notación del teorema de Gauss), por la demostración anterior este número es igual al número de entradas no cero en la diagonal de la matriz asociada con respecto a la base $\{ u_1, \cdots, u_n \}$ que al ser una matriz diagonal es igual al rango de esta matriz que ya vimos es igual al rango de la matriz asociada a $q$ en cualquier base de $V$, por lo que nuestras definiciones son equivalentes.

Podemos llegar incluso más lejos, en esta entrada discutimos como podíamos hacer que dada $q$ con
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
fuera tal que todo $\alpha_i \in \{-1,1\}$ inclusive reordenando la base $\{ u_1, \cdots, u_n \}$ podemos hacer que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i x_i^2\end{align*}
Haciendo que $D$ su matriz asociada diagonal tenga como entradas únicamente a $1,0,-1$ y que el $-1$ y $1$ aparezcan únicamente en las primeras $r$-esimas entradas de la diagonal.

Culminemos esta larga sección con el teorema de Sylvester.

Proposición (Teorema de Sylvester/Ley de Inercia de Sylvester)

Sea $q$ una forma cuadrática en $V$ un espacio vectorial de dimensión finita sobre $\mathbb{R}$, el rango de $q$ son invariantes sin importar la base respecto a la que se encuentre su matriz asociada.

Demostración

Sea $A$ la matriz asociada a $q$ en una base $\beta$, sabemos que el rango es igual al de la matriz asociada a $q$ bajo una base $\beta’$ al ser matrices congruentes.

$\square$

Recordando las notas anteriores hay un tipo de formas cuadráticas de las que no hemos hablado, las formas positivas o definidas positivas, revisemos sus matrices y que propiedades extras podemos obtener de agregar esta condición

Definición

Sea una matriz simétrica $A \in M_n(\mathbb{R})$ diremos que es positiva si $^tXAX \geq 0$ para todo $X \in \mathbb{R}^n$, diremos que es definida positiva si $^tXAX > 0$ para todo $X \in \mathbb{R}^n- \{0\}$.

Otra forma de verlo, dada una matriz simétrica $A$ esta será positiva si su forma cuadrática asociada, a saber, dado $x \in \mathbb{R}^n$
\begin{align*} q(x_1, \cdots, x_n) = \sum_{i,j=1}^na_ijx_ix_j\end{align*}
Es positiva, análogamente para alguna forma definida positiva.

De esta manera notemos que una matriz definida positiva da un producto interno en $\mathbb{R}^n$ definido por
\begin{align*} <X,Y>_A=<X,AY>=\text{ }^tXAY\end{align*}
donde $<,>$ es el producto interno canónico en $\mathbb{R}^n$.

Continuando con la idea de no requerir bases, probemos la siguiente proposición.

Proposición

Sean $A,B \in M_n(\mathbb{R})$ congruentes, tal que $A$ es positiva, B es positiva tambien.

Demostración

Si son congruentes sabemos que existe $P \in M_n(\mathbb{R})$ invertible tal que
\begin{align*} B=\text{ }^tPAP\end{align*}
Así sea $X \in \mathbb{R}^n$
\begin{align*} ^tXBX=\text{ }^t X \text{ }^tPAP X=\text{ }^t (PX) A PX \end{align*}
y como $PX \in \mathbb{R}^n$ tenemos que $\text{ }^t (PX) A PX \geq 0$ ya que $A$ es positiva, por lo que
\begin{align*} ^tXBX \geq 0. \end{align*}

$\square$

Notemos también que, en una matriz diagonal positiva $D$, todas sus entradas no cero deben ser positivas, supongamos que esto es falso com $d_{ii}<0$, si $q$ es su forma cuadrática asociada entonces calculando $q(e_i)=d_{ii}<0$ con $e_i$ el elemento de la base canónica cuya unica entrada no cero es la $i$-esima, lo que es una contradicción.

Concluyamos con la siguiente proposición.

Proposición

Cualquier matriz positiva $A \in M_n(\mathbb{R})$ puede ser escrita como $^tBB$ para alguna matriz $B \in M_n(\mathbb{R})$.

Demostración

Sea $A \in M_n(\mathbb{R})$ positiva, por el teorema de Gauss sabemos que es congruente con alguna matriz diagonal, por lo que
\begin{align*} ^tPDP=A\end{align*}
Con $D=[d_{ij}]$ diagonal, además sabemos que al ser congruente con $A$ esta debe ser positiva, más aún, por lo discutido arriba sabemos que toda entrada no $0$ en $D$ debe ser positiva, por lo que podemos escribir a $D$ como sigue
\begin{align*} ^tD_1D_1=D\end{align*}
Con
\begin{align*} D_1=[\sqrt{d_{ij}}]\end{align*}
Sustituyendo esto en la igualdad de arriba
\begin{align*} A=\text{ }^tP\text{ }^tD_1D_1P=\text{ }^t(D_1P)(D_1P)\end{align*}
Y nombrando $B=D_1P$
\begin{align*} ^tBB=A.\end{align*}

$\square$

Más adelante

Con esto concluiremos por ahora nuestra revisión de formas bilineales y sus relaciones con matrices, aunque como es de esperarse no abandonaremos el tema completamente, centrándonos después en la relación que existe entre dualidad y ortogonalidad.

Antes de ello, intentaremos replicar los resultados vistos en las últimas dos entradas esta vez para formas sesquilineales y hermitianas cuadráticas, encontrando resultados análogos pero esta vez para formas en espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Como definirías el determinante de una forma bilineal simétrica basándonos en su matriz? ¿Puedes hacer esta definición independiente de la base que elijas?
  2. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  3. Demuestra que una matriz simétrica y definida positiva es invertible.
  4. Demuestra que una matriz simétrica y positiva es definida positiva si y solo si es invertible.
  5. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.

Entradas relacionadas

Álgebra lineal II: Formas bilineales y matrices

Introducción

Al principio de esta unidad, especialmente en la entrada acerca de teoremas de Gauss y teorema de Sylvester empezamos a hablar de una futura relación entre formas bilineales y matrices, más aún, sabemos que cualquier función lineal se puede representar como una matriz, por lo que esperaríamos una relación similar con las formas bilineales, aquí empezaremos a estudiar esta relación.

Por otro lado, en la entrada de teorema de Sylvester enunciamos de una manera bastante vaga dicho resultado, aunque no dimos una demostración, en esta entrada comenzaremos con los pasos para la demostración de este teorema, aunque no la completaremos aún.

Matriz asociada

De aquí en adelante, asumiremos que $V$ siempre es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.
Definición

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica en $V$. La matriz de $b$ con respecto a la base $e_1 \cdots e_n$ es la matriz
\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j)\end{align*}
Para todo $i,j$ tal que $1 \leq i,j \leq n$.

Si $q$ es una forma cuadrática en $V$, la matriz de $q$ con respecto a la base $e_1 \cdots e_n$ es la matriz de su polar.

Y para reforzar la idea de esta relación, veamos el siguiente teorema.

Teorema

Entendamos a $Sim(V)$ como el subespacio de formas bilineales simétricas y a $M_n^*(\mathbb{R})$ como el subespacio de matrices simétricas.

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$, la función $\varphi: Sim(V) \rightarrow M_n^*(\mathbb{R})$ que envía una forma bilineal simétrica a su matriz con respecto a $ \{e_1, \cdots , e_n\} $ establece un isomorfismo.

Demostración

Sean $b,b’$ dos formas bilineales simétricas, con $\varphi(b)=A $ y $\varphi(b’) =A’$ respectivamente, si suponemos que $A=A’$ entonces $b(e_i,e_j)=b'(e_i,e_j)$ para cualesquiera $i,j$ tal que $1 \leq i,j \leq n$, que es suficiente para saber qué $b=b’$, por lo que esta asignación es inyectiva.

Para la suprayectividad, sea $A=[a_{ij}]$ una matriz simétrica y sean $x,y \in V$ dos vectores cualesquiera tales que $x=\sum_{i=1} ^nx_ie_i$ y $y=\sum_{j=1} ^ny_je_j$ definamos
\begin{align*} b(x,y) =\sum_{i,j=1}^na_{ij}x_iy_j \end{align*}.
En esta entrada demostramos que $b$ así definida efectivamente es una forma bilineal y la simetría se sigue naturalmente de la conmutatividad del producto en $\mathbb{R}$.
Por lo que $b$ es una forma bilineal simétrica tal que $\varphi(b)=A$, a su vez, esto implica que $\varphi$ es suprayectiva.

Finalmente, para mostrar que esto es efectivamente un isomorfismo, sea $A =\varphi(b+cb’)$ para algún $c \in \mathbb{R}$, sabemos entonces que
\begin{align*} A=[a_{ij}] \end{align*}
Con $a_{ij}=(b+cb’)(e_i,e_j)=b(e_i,e_j) + c \cdot b'(e_i,e_j) $ así.
\begin{align*} A=[b(e_i,e_j) + c \cdot b'(e_i,e_j)] \end{align*}
Además, sabemos que las matrices son lineales por los que
\begin{align*} A=[b(e_i,e_j)] + c \cdot [b'(e_i,e_j)] \end{align*}
y por como definimos $\varphi$
\begin{align*} \varphi(b+cb’)=A= \varphi(b) + c \cdot \varphi(b’) \end{align*}

Por lo que $\varphi$ es un isomorfismo.

$\square$

Una pregunta natural que se sigue de este teorema es ¿Cuál es, explícitamente, la inversa de este isomorfismo? por suerte esta fue casi definida durante la demostración del teorema, así escribámosla de una manera más formal.

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$, la función $\varphi^{-1}: M_n^*(\mathbb{R}) \rightarrow Sim(V) $ es tal que para todo $A \in M_n^*(\mathbb{R})$ con $A=[a_{ij}]$
\begin{align*} \varphi^{-1}(A)=b \end{align*}
Con
\begin{align*} b(x,y)= \sum_{i,j=1}^na_{ij}x_iy_j \end{align*}
para cualesquiera $x,y \in V$ vectores tales que $x=\sum_{i=1} ^nx_ie_i$ y $y=\sum_{j=1} ^ny_je_j$

Preparaciones para el teorema de Sylvester

Recordemos que, en entradas anteriores, empezamos a hablar del teorema de inercia de Sylvester y dijimos que era más fácil trabajar con él una vez que tuviéramos la notación matricial, empecemos con los resultados que nos llevaran a enunciar y demostrar este teorema.

Algo que vale la pena notar de la última igualdad, en particular del lado derecho es que lo podemos expresar como una multiplicación matricial de la manera que sigue
\begin{align*} \sum_{i,j=1}^na_{ij}x_iy_j= \text{ }^{t}XAY\end{align*}
Con $A=[a_{ij}]$ y $X, Y$ los vectores columna con entradas $x_i$ y $y_i$ respectivamente y $^{t}X$ el vector transpuesto de $X$. Dada esta igualdad podemos obtener otra caracterización de la matriz de $b$ con respecto a la base $e_1, \cdots e_n $.

Proposición

Sea $e_1, \cdots e_n $ una base de $V$ y $b$ una forma bilinear simétrica en $V$, la matriz de $b$ con respecto a la base $e_1, \cdots e_n $ es la única matriz simétrica $A \in M_n(\mathbb{R})$ tal que
\begin{align*} b(x,y)=\text{ } ^tXAY \end{align*}
Para cualesquiera vectores $x,y \in V$ donde $X,Y$ son los vectores columna con entradas las de $x,y$ con respecto a la base $e_1, \cdots e_n $

Demostración

Por las observaciones anteriores, sabemos que la matriz de $b$ con respecto a la base $e_1, \cdots e_n $ efectivamente cumple esta igualdad y si una matriz cumple esto efectivamente debe ser la matriz de $b$ con respecto a la base $e_1, \cdots e_n $, todo esto gracias a la función $\varphi$ y su inversa, así solo falta mostrar la unicidad, así sea $A’$ otra matriz tal que para cualesquiera vectores $x,y \in V$
\begin{align*} b(x,y)=\text{ } ^tXA’Y \end{align*}
Entonces se debe tener que
\begin{align*} \text{ } ^tXAY =\text{ } ^tXA’Y \end{align*}
Que a su vez implica que
\begin{align*} A=A’\end{align*}

$\square$

Ejemplo

Sea
\begin{align*} A=\begin{pmatrix} 0 & 1 \\
1 & 0 \end{pmatrix}\end{align*}
Encuentra su forma cuadrática asociada.

Solución

Utilizando lo revisado arriba tenemos que su forma bilineal asociada es
\begin{align*} b(x,y)= \sum_{i,j=1}^na_{ij}x_iy_j \end{align*}
de esta manera, en este caso sabemos que $a_{11}=a_{22}=0$ y $a_{12}=a_{21}=1$, por lo que explícitamente, $b$ se puede escribir como
\begin{align*} b(x,y)= 0x_1y_1+1x_1y_2+1x_2y_1+0x_2y_2=x_1y_2+y_1x_2 \end{align*}
Con $x_1,x_2,y_1,y_2$ las coordenadas de $x,y$ respectivamente, para encontrar la forma cuadrática basta solo calcular $b(x,x)$
\begin{align*} q(x)=b(x,x)=x_1x_2+x_1x_2=2x_1x_2. \end{align*}

Ejemplo

Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1 \end{align*}
Encuentra su matriz asociada en la base canónica y en $\{u_1=(1,1,0), u_2=(1,0,1), u_3=(0,1,1) \}$.

Solución

Primero encontremos su polar
\begin{align*} b(x,x’)=\frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} \end{align*}
Así calculemos que le hace esta forma bilineal a la base canónica de par en par.
\begin{align*} b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \qquad \text{y} \qquad b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}\end{align*}
Por lo que su matriz asociada en la base canónica es
\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}
Por otro lado, calculando lo que $b$ le hace a nuestra otra base
\begin{align*} b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \qquad \text{y} \qquad b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}\end{align*}
Y construyendo esta otra matriz
\begin{align*} A=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1 \end{pmatrix}\end{align*}

En estos resultados y ejemplos podemos ver que la matriz asociada a una forma bilineal es completamente dependiente de la base que elijamos, y obtenerla en bases distintas puede resultar en cálculos muy grandes, por ello no te debe de sorprender que se buscara una manera de encontrar matrices en bases distintas sin tener que recurrir a la forma bilineal cada vez, con esta motivación revisemos este último teorema.

Proposición

Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$, sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$, entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}
Demostración

Sean $x,y \in V$ dos vectores cualesquiera, si $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$ entonces
\begin{align*} x=u_1x_1 + \cdots + u_nx_n=u’_1x’_1 + \cdots + u’_nx’_n\end{align*}
Definamos al vector columna $X$ como sigue
\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}
Y definamos análogamente a $X’,Y,Y’$, sabemos entonces que
\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}
Además, sabemos que
\begin{align*} X=PX’ \qquad \text{y} \qquad Y=PY’\end{align*}
De donde se sigue la siguiente cadena
\begin{align*} \text{ }^tX’A’Y’= b(x,y)=\text{ }^tXAY=\text{ }^t(PX’)A(PY’)=\text{ }^tX’\text{ }^tPAPY’ \end{align*}
Fijándonos en los extremos
\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’ \end{align*}
De donde finalmente concluimos que
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices, podemos ver que esta nos otorgó otra manera de entender las formas bilineales y otra forma de calcularlas, algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal.

Otro problema que enfrentamos es la dependencia de las matrices a su base, aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida o alguna relación entre todas las matrices de una misma forma bilineal, esto lo abordaremos en la siguiente entrada y cumpliremos lo antes prometido de enunciar y demostrar la ley de Inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2-(y-z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su polar.
  2. ¿Es q positiva? ¿Es definida positiva?
  3. Encuentra la matriz asociada a $q$ con respecto a la base canónica.
  4. Sean los vectores
    \begin{align*} |v_1=(2,0,0), \; v_2=(-5,1,1), \; v_3=(1,1,-1).\end{align*}
    Prueba que son una base de $V$ y encuentra la matriz asociada a b respecto a ellos.
  5. Encuentra el rango y signatura de $q$ y encuentra el rango y discriminante de cada una de sus matrices, ¿Qué puedes decir acerca de ellos?

Entradas relacionadas

Álgebra lineal II: Repaso de producto interior

Introducción

Como mencionamos en la entrada anterior, una de las aplicaciones más útiles de las formas cuadráticas es que a base de ellas se puede definir un concepto sumamente importante, el producto interior (también llamado producto interno o producto punto en algunos casos específicos).

Utilizando esto podemos introducir otro par de conceptos igualmente importantes (si no es que más), siendo estos norma y distancia, estos sin embargo salen del interés de esta materia por lo que sólo los mencionaremos sin abundar en ellos.

Producto interior

Antes de empezar con esta definición, debemos agregar un par de condiciones extra a las formas cuadráticas.

Definición

Sea $V$ un espacio vectorial en $\mathbb{R}$, $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica y $q: V \rightarrow \mathbb{R}$

Diremos que $b$ es positiva si
\begin{align*} \forall x \in V \text{ se tiene que } b(x,x) \geq 0. \end{align*}
Diremos que $b$ es definida positiva si
\begin{align*} \forall x \in V-\{ 0 \} \text{ se tiene que } b(x,x) > 0 \end{align*}
Dándose la igualdad únicamente si $v=0$.

De una manera semejante

Diremos que $q$ es positiva si su forma polar es positiva.

Diremos que $q$ es definida positiva si su forma polar es definida positiva.

Notemos que para saber si una forma cuadrática NO es positiva (ni definida positiva) no siempre es necesario conocer su polar, basta encontrar un vector tal que al calcular $q(x)$ este sea negativo, ya que esto garantiza que al calcular $b(x,x)$ será igualmente negativa.

En los siguientes ejemplos sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$.

Ejemplo

$q (x_1, x_2, x_3) = x_1x_2+x_2x_3+x_3x_1$.

Notemos que esta no es positiva, ya que tomando al vector $(-1,1,0) $ tenemos que
\begin{align*} q(-1,1,0)= -1 \end{align*}
Ejemplo

$q (x_1, x_2, x_3) = x_1^2+2(x_2-x_3) ^2+3(x_3-x_1) ^2$.

Calculemos la polar de esto, para ello recordemos la identidad de polarización que vimos aquí
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Calculemos por separado $q(x+y)$ y $-q(x)-q(y)$
\begin{align*} q(x+y)=(x_1+y_1)^2+2(x_2+y_2-x_3-y_3)^2+3(x_3+y_3-x_1-y_1)^2 \\
-q(x)-q(y)=-x_1^2-2(x_2-x_3)^2-3(x_3-x_1)^2-y_1^2-2(y_2-y_3)^2-3(y_3-y_1)^2 \end{align*}
y notamos que por la desigualdad del triángulo tenemos que, para cualesquiera $x,y \in \mathbb{R}$
\begin{align*}(x_1+y_1)^2 \geq x_1^2 +y_1^2 \end{align*}
y también
\begin{align*}2(x_2+y_2-x_3-y_3) ^2 \geq 2(x_2-x_3)^2+2(y_2-y_3)^2 \\
3(x_3+y_3-x_1-y_1)^2 \geq 3(x_3-x_1)^2+3(y_3-y_1)^2 \end{align*}
Al juntar estas 3 desigualdades obtenemos
\begin{align*}q(x+y) \geq q(x) + q(y) \end{align*}
Por lo que
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \geq 0 \end{align*}
Para cualesquiera $x,y \in \mathbb{C}$, entonces $b$ es positiva, por lo que $q$ es positiva, finalmente, revisemos si es definida positiva, para esto, veamos si hay un vector no cero tal que $q (x_1, x_2, x_3) =0$.

Sea $x \in \mathbb{C}$ tal que $q(x)=0$ esto nos arrojaría el siguiente sistema
\begin{align} x_1=0 \nonumber \\
x_2-x_3=0 \nonumber \\
x_3-x_1=0 \nonumber \end{align}
De donde se concluye que $x_1=x_2=x_3=0$ y finalmente $x=0$ por lo que el único vector que anula esta forma cuadrática es el $0$, por lo tanto $q$ es definida positiva.

Teniendo una buena idea de las formas cuadráticas, prosigamos con la definición titular de esta entrada.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$, llamaremos a $b: V \times V \rightarrow \mathbb{R}$ un producto interno si $b$ es una forma bilineal, simétrica y definida positiva.

Diremos que $V$ es un espacio euclidiano si es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita y con un producto interno.

Como una curiosidad, abundemos un poco sobre este nombre, el término espacio euclidiano originalmente se refería al espacio tridimensional con la geometría euclidiana, usado para modelar el espacio alrededor de nosotros. Tras la introducción de geometrías no euclidianas, se redefinió axiomáticamente, otra forma de definirlo es como lo hemos hecho aquí que se ha mostrado ser equivalente a su antigua definición axiomática. Fuente.

Generalmente, cuando se habla de productos internos la notación usual es $<x,y>$ en vez de $b(x,y)$.

Finalmente, definamos un concepto sumamente importante, la norma.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con $b$ un producto interno en $V$, la norma de $x \in V$ es
\begin{align*} ||x||=\sqrt{b(x,x)}=\sqrt{q(x)} \end{align*}
Con $q$ la forma cuadrática con polar $b$.

Ejemplos

  • $\mathbb{R}^n$ con el producto interno canónico
    \begin{align} <x,y>= \sum_{i=1}^nx_iy_i. \nonumber \end{align}
  • Sea $V=\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en [a,b].
    \begin{align} <f,g>= \int_a^bf(x)g(x)dx. \nonumber \end{align}

Algo que vale la pena notar es que esta definición difiere un poco de la definición usual de norma, como es de esperarse, al final ambas describen el mismo objeto, pero eso lo abordaremos un poco más adelante.

Desigualdades de Cauchy-Schwarz y Minkowski

Ya con esto, procedamos a las desigualdades prometidas.

Proposición (Desigualdad de Cauchy-Schwarz)

Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es definida positiva y $b(x,y)^2=q(x)q(y)$ para algún par $x,y \in V$ entonces $x,y$ son linealmente dependientes.

Demostración

Definamos una nueva función como sigue
\begin{align*} F: \mathbb{R} \rightarrow \mathbb{R} \text{ dada por } F(t)=q(x+ty) \end{align*}
Aplicando que $b$ es bilinear y simétrica
\begin{align*} F(t)=b(x+ty, x+ty)=b(x,x)+2tb(x,y)+t^2b(y,y) \end{align*}
De aquí notemos que $F(t)$ es un polinomio de segundo grado en la variable $t$, además como $b$ es positiva tenemos que
\begin{align*} F(t) \geq 0 \end{align*}
Por lo que, calculando el discriminante de $F(t)$
\begin{align*} 4b(x,y)^2 -4b(x,x)b(y,y)=4b(x,y)^2 -4q(x)q(y) \leq 0 \end{align*}
Que finalmente, pasando $4q(x)q(y)$ y dividiendo entre $4$ obtenemos la desigualdad deseada
\begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
Para el inciso b), si $x=0$ o $y=0$ sabemos que $x,y$ son linealmente dependientes, por lo que supongamos que $x,y \neq 0 $, por lo que $q(y)>0$ ya que $q$ es definida positiva, lo que nos asegura que $F(t)$ es una ecuación de segundo grado en $t$, así volviendo a calcular su discriminante tenemos
\begin{align*} 4b(x,y)^2 -4q(x)q(y) = 0 \end{align*}
Ya que $b(x,y)^2=q(x)q(y)$, que a su vez nos indica que $F(t)$ tiene una única solución real, sea esta $t_1$ entonces
\begin{align*} F(t_1)=q(x+t_1y)=0 \end{align*}
Finalmente, como $q$ es definida positiva se debe tener que
\begin{align*} x+t_1y = 0 \end{align*}
Que nos da una combinación lineal de $0$ con coeficientes no todos cero, por lo tanto $x,y$ son linealmente dependientes.

$\square$

Si ya has visto previamente esta desigualdad, probablemente la forma de plantearla y demostrarla no resulte muy familiar, veamos un corolario y un par de ejemplos que tal vez te ayuden a reconocer mejor esta desigualdad y sus usos.

Corolario

Sea $V=$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$, entonces para cualesquiera $x,y \in V$
\begin{align*}|<x,y>| \leq ||x|| \cdot ||y||. \end{align*}

Ejemplos

Recordando el ejemplo usado arriba, tenemos que $\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en $[a,b]$ tiene un producto interno y por lo tanto una norma, así, aplicando el corolario tenemos que
\begin{align*} (\int_a^bf(x)g(x))^2 \leq (\int_a^bf(x)^2dx) \cdot (\int_a^bg(x)^2dx).\end{align*}
Que es como probablemente estudiarás esta desigualdad en cursos posteriores.

Otro ejemplo, sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$ por el corolario tenemos que
\begin{align*} -1 \leq \frac{<u,v>}{||u||\cdot||v||} \leq 1 \end{align*}
Para cualesquiera $u,v \in \mathbb{V} – \{0\}$, por lo que existe un único ángulo $\theta \in [0, \pi]$ tal que
\begin{align*} cos \theta =\frac{<u,v>}{||u||\cdot||v||}\end{align*}
De donde se definía a $\theta$ como el ángulo entre los vectores $u,v$.
Con esto, procedamos a la siguiente desigualdad.

Proposición (Desigualdad de Minkowski)
Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $q$ una forma cuadrática positiva en $V$, entonces, para cualesquiera $x,y \in V$
\begin{align} \sqrt{q(x)} + \sqrt{q(y)} \geq \sqrt{q(x+y)}. \nonumber \end{align}
Demostración

Sea $b$ la polar de $q$, por la desigualdad de Cauchy-Schwarz tenemos que
\begin{align*} b(x,y)^2 \leq q(x)q(y) \end{align*}
Que sacando raíz de ambos lados y ya que $b$ es positiva, nos arroja
\begin{align*} b(x,y) \leq \sqrt{q(x)q(y)} \end{align*}
Además, recordando la identidad de polarización, sabemos que
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \end{align*}
Utilizando la desigualdad anterior, se tiene
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \leq q(x)+q(y)+2\sqrt{q(x)q(y)} \end{align*}
Factorizando el lado derecho obtenemos
\begin{align*} q(x+y) \leq (\sqrt{q(x)}+\sqrt{q(y)})^2 \end{align*}
que finalmente, despejando el lado derecho arroja
\begin{align*} \sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}.\end{align*}

$\square$

Finalicemos hablando rápidamente de la otra definición de norma que seguramente ya has visto o verás proximamente.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ llamaremos norma a $|| \cdot ||: V \rightarrow \mathbb{R}$ una función que cumple las siguientes propiedades:

  • $||v|| \geq 0$ para todo $v \in V$, la igualdad se da si y solo si $v=0$.
  • $||av||=|a|\cdot||v||$ para todo $v \in V$ y para todo $a \in \mathbb{R}$.
  • $||v+w||\leq ||v||+||w||$ para todo $v,w \in V$.

Notemos que en nuestra definición de norma cumple estas tres propiedades, recordemos que $||v||=\sqrt{b(x,x)} $, así la primera se cumple debido a que $b$ se pidió definida positiva, la segunda debido a que $b$ es bilineal y la desigualdad de Minkowski nos garantiza la tercera propiedad.
Más aún, estas dos definiciones son equivalentes, esto de nuevo sale del interés de nuestro curso, pero no estaría de más que lo intentaras demostrar por tu cuenta.

Más adelante

Con esto concluimos nuestro pequeño repaso de producto interno y una de las grandes aplicaciones de las formas bilineales. Como probablemente sabes, los conceptos de producto interno y norma dan pie a un sin fin de teoría muy interesante y útil y poder llegar a ellos desde un enfoque puramente algebraico nos muestra el poder que tiene este campo de estudio.

Procederemos volviendo a la raíz del álgebra lineal y empezaremos a estudiar la relación entre formas bilineales y matrices, brindándonos tal vez un mejor entendimiento de ambas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es definida positiva?
  2. Sea $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n \in \mathbb{N}$ prueba que
    \begin{align*} <P.Q>=\sum_{i=0}^nP(i)Q(i) \end{align*}
    Es un producto interno en $V$.
  3. Demuestra el corolario de la desigualdad de Cauchy-Schwarz.
  4. Sea $V$ un $\mathbb{C}$-espacio vectorial, y $\Phi$ una forma cuadrática hermitiana en $V$, asumamos que $\Phi$ es definida positiva ($\Phi(v) >0$ para todo $v$ no cero) con $\varphi$ su polar.
    Prueba la desigualdad de Cauchy-Schwarz, es decir, para todo $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y) \end{align*}
    Y la igualdad sucede si y sólo si $x,y$ son linealmente dependientes.
  5. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}

Entradas relacionadas

Álgebra Lineal II: Teorema de Gauss

Introducción

En la entrada anterior vimos un recordatorio de las formas bilineales, cuadráticas y sus polares, en esta entrada continuaremos recordando algunas propiedades vistas previamente enfocándonos en el teorema de Gauss y su demostración, la cual, cabe decirlo, nos dará una pequeña pista de la relación (que esperaríamos tener, al ser álgebra lineal) entre las formas cuadráticas y matrices.

Además, con el teorema de Gauss obtendremos un algoritmo (aunque ciertamente no es obvio cual es este, basado en la demostración) para poder escribir cualquier forma cuadrática en una forma estandarizada, permitiéndonos así buscar propiedades particulares a cada forma cuadrática que más adelante motivara otro resultado importante.

Preparaciones para el teorema de Gauss

Antes de empezar con el teorema, veamos una propiedad de las formas cuadráticas en $\mathbb{R}^n$.
Sea $q$ una forma cuadrática en $\mathbb{R}^n$ con $b$ su polar, y sea $e_1, \dots , e_n$ la base canónica. sabemos que, dado $x \in \mathbb{R}^n$ con $x=(x_1, \dots , x_n)$
\begin{align*} q(x)=q(x_1,\dots , x_n)=q(\sum_{i=1}^nx_ie_i)=b(\sum_{i=1}^nx_ie_i, \sum_{j=1}^nx_je_j) \end{align*}
Desarrollemos la suma presentada en la primera entrada
\begin{align*} =b(x_1e_1, \sum_{j=1}^nx_je_j)+ b(x_2e_2, \sum_{j=1}^nx_je_j) + \dots + b(x_ne_n, \sum_{j=1}^nx_je_j) \end{align*}
Ahora, desarrollemos únicamente la suma de la segunda entrada de $ b(x_1e_1, \sum_{j=1}^nx_je_j)$
\begin{align*} =b(x_1e_1, x_1e_1)+ b(x_1e_1, x_2e_2) + \dots + b(x_1e_1,x_ne_n) \end{align*}
Haciendo lo mismo en cada sumando hasta desarrollar la suma de $b(x_ne_n, \sum_{j=1}^nx_je_j)$
\begin{align*} =b(x_ne_n, x_1e_1)+ b(x_ne_n, x_2e_2) + \dots + b(x_n e_n ,x_n e_n) \end{align*}
Acomodemos todas estas sumas de la siguiente manera, que si has llevado teoría de conjuntos podría resultarte familiar
\begin{align*} =b(x_1e_1, x_1e_1)+ b(x_1e_1, x_2e_2) + \dots + b(x_1e_1,x_ne_n) \\
+b(x_2e_2, x_1e_1) + b (x_2e_2, x_2e_2) + \dots + b(x_2e_2,x_ne_n) \\
\vdots \qquad \qquad \qquad \qquad \qquad \qquad \\
+b(x_ne_n, x_1e_1) + b (x_n e_n, x_2e_2) + \dots + b (x_n e_n , x_n e_n) \end{align*}
Al encontrarnos con esta notación un tanto engorrosa, intentemos simplificarla, nombremos $b(e_i , e_j)=a_{ij}$ y como sabemos que $b$ es simétrica (¿por qué?), podemos afirmar que $a_{ij}=a_{ji}$ además, en cada uno de estos sumandos utilicemos la linealidad, sacando los coeficientes $x_i$ y $x_j$
\begin{align*} =x_1^2a_{11}+ x_1x_2a_{12} + \dots + x_1x_na_{1n} \\
+x_2x_1a_{21}+ x_2^2a_{22} + \dots +x_2x_na_{2n} \\
\vdots \qquad \qquad \qquad \qquad \qquad \qquad \\
+x_nx_1a_{n1} + x_nx_2a_{n2} + \dots + x_n^2 a_{nn} \end{align*}
No está de más notar la similitud que esta notación tiene con una matriz, ¿será que $q$ se puede representar como una matriz?
Más allá de ello, notemos que las $ij$-esima entrada es igual a la entrada $ji$ por lo que $q$ se puede terminar reescribiendo de la siguiente manera
\begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
Al juntar todos los elementos de la diagonal en la primera suma y todos los que están fuera de ella en la segunda.

Habiendo hecho esto, procedamos a el teorema cuya demostración, como es de esperar, utilizará la observación recién hecha.

Teorema de Gauss de formas cuadráticas

Teorema
Sea $q$ una forma cuadrática en $V=\mathbb{R}^n$. Existen $\alpha_1, \dots , \alpha_r \in \mathbb{R}$ y formas (funciones) lineales $l_1, \dots l_r \in V^*$ linealmente independientes tales que, para todo $x \in V$
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
Recordemos que $V^*$ es el espacio vectorial dual de $V$.

Demostración

Sea $q$ una forma cuadrática cualquiera en $\mathbb{R}^n$.

Procedamos por inducción sobre $n$.

$\underline{ \text{Cuando }n=1}.$

Utilizando la observación anterior sabemos que $q$ se puede escribir como
\begin{align*} q(x_1)=x_1^2a_{11}=x_1^2b(1,1)=x_1^2q(1) \end{align*}.
Con $b$ la polar de $q$, nombrando $\alpha=q(1)$ y $l: V \rightarrow \mathbb{R}$ la identidad, tenemos que
\begin{align*} q(x_1)= x_1^2q(1)=(l_1(x_1))^2 \alpha_1 \end{align*}.

Por lo que el teorema se cumple cuando n=1.

$\underline{ \text{Supongamos que el teorema se cumple para }n-1}$

Nuevamente, por la observación anterior, sabemos que
\begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_ix_ja_{ij} \end{align*}
Separemos este pedazo de la demostración en dos casos.

  • Si existe $ i \in \{ 1, \dots n\}$ tal que $a_{ii} \neq 0$ sin pérdida de generalidad, supongamos que $a_{nn} \neq 0$ (¿Por qué podemos hacer esto?)

    Observemos que
    \begin{align*} 2\sum_{1 \leq i < j \leq n} x_ix_ja_{ij}= 2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} +2(\sum_{i=1}^{n-1} x_ia_{in})x_n \end{align*}
    y
    \begin{align*} \sum_{i=1}^n x_i^2a_{ii}=x_n^2a_{nn} + \sum_{i=1}^{n-1} x_i^2a_{ii} \end{align*}
    Con esto
    \begin{align*} q(x_1,\dots , x_n)=x_n^2a_{nn} + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} +2(\sum_{i=1}^{n-1} x_ia_{in})x_n \end{align*}
    Dado esto, utilicemos el primero y último término para completar el cuadrado, viendo a $q$ como un polinomio de segundo grado en $x_n$
    \begin{align*} q(x_1,\dots , x_n)= a_{nn} (x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2- a_{nn}(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2 + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} \end{align*}
    Y finalmente, nombrando
    \begin{align*} q'(x_1,\dots , x_{n-1})= – a_{nn}(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2 + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} \end{align*}
    Tenemos que
    \begin{align*} q(x_1,\dots , x_n)= a_{nn} (x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2+q'(x_1,\dots , x_{n-1}) \end{align*}
    Donde $q’$ es una forma cuadrática en $\mathbb{R}^{n-1}$ (¿Por qué?) por lo que podemos aplicar la hipótesis de inducción, es decir que
    \begin{align*} q'(x_1,\dots , x_{n-1})= \sum_{i=1}^r \alpha_i (l_i'(x))^2 \end{align*}
    Con $\{ l’_1, \dots , l’_r\} \subseteq (\mathbb{R}^{n-1})^*$ linealmente independientes, definamos
    \begin{align*} l_{r+1}(x_1, \dots , x_n)= x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \text{,} \qquad \alpha_{r+1}=a_{nn}\end{align*}
    Y
    \begin{align*} l_i(x_1, \dots , x_n)=l_i'(x_1, \dots , x_{n-1}) \end{align*}
    con $1 \leq i \leq r$, ya con estos nombres tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^{r+1} \alpha_i (l_i(x_1, \dots , x_n))^2 \end{align*}
    Por lo tanto, para todo $x \in \mathbb{R}^n$
    \begin{align*} q(x)= \sum_{i=1}^{r+1} \alpha_i (l_i(x))^2 \end{align*}
    con $\{ l_1, \dots , l_{r+1} \}$ linealmente independientes (¿Por qué?).
    \begin{align*} \\ \end{align*}
  • Si $ \forall i \in \{ 1, \dots n\}$ $a_{ii}=0$

    De nuevo, separaremos este caso en dos:

    Si suponemos que $\forall i,j \in \{ 1, \dots n\}$ $a_{ij}=0$ entonces debemos tener que $q=0$ así tomando a $\{ l_1, \dots , l_{n} \}$ como la base de $V^*$ que sabemos es linealmente independiente y a $\alpha_i=0$ para todo $1 \leq i \leq n$ es claro que
    \begin{align*} q(x)= \sum_{i=1}^{n} \alpha_i (l_i(x))^2 \end{align*}.

    Así supongamos que existe algún $a_{ij} \neq 0$ sin pérdida de generalidad supongamos que $a_{n-1.n} \neq 0$ (De nuevo ¿Por qué aquí podemos hacer esta afirmación sin pérdida de generalidad?)

    Recordando la observación del principio, tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
    Además, como $ \forall i \in \{ 1, \dots n\}$ $a_{ii}=0$ tenemos que $q$ se puede simplificar aún más
    \begin{align*} q(x_1,\dots , x_n)= 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
    Más aún esta suma se puede separar como sigue
    \begin{align*} q(x_1,\dots , x_n)= 2a_{n-1.n}x_{n-1}x_n +2\sum_{i=1}^{n-2}a_{in}x_ix_n+ 2\sum_{i=1}^{n-2}a_{i,n-1}x_ix_{n-1} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}.
    Para no alargar esta entrada, te sugiero intentes probar que $q$ efectivamente se puede escribir de esta manera, tal vez te resulte útil volver a pensar a $q$ en la «notación matricial» que utilizamos al principio.
    Prosigamos, utilizaremos la siguiente identidad algebraica
    \begin{align*} axy+bx+cy= a ( x + \frac{c}{a} ) ( y + \frac{b}{a} ) -\frac{bc}{a} \end{align*}
    Y nombrando
    \begin{align*} a =2a_{n-1.n}, \qquad b=2\sum_{i=1}^{n-2}a_{in}x_i, \qquad c=2\sum_{i=1}^{n-2}a_{i,n-1}x_i, \qquad x=x_n, \qquad y=x_{n-1} \end{align*}
    Tenemos que $q$ se puede escribir como sigue
    \begin{align*}2a_{n-1.n}(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i )( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) – 2\frac{\sum_{i=1}^{n-2}a_{in}x_i \times \sum_{i=1}^{n-2}a_{i,n-1}x_i}{a_{n-1.n}} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}
    Por suerte, para la notación nombraremos
    \begin{align*} q'(x_1,\dots , x_{n-2})= – 2\frac{\sum_{i=1}^{n-2}a_{in}x_i \times \sum_{i=1}^{n-2}a_{i,n-1}x_i}{a_{n-1.n}} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}
    Que es una forma cuadrática en $\mathbb{R}^{n-2}$ por lo que, gracias a la hipótesis de inducción se puede escribir como
    \begin{align*} q'(x_1, \dots , x_{n-2})= \sum_{i=1}^r \alpha’_i (l’_i(x_1, \dots , x_{n-2}))^2 \end{align*}
    Con $\{ l’_1, \dots , l’_r\} \subseteq (\mathbb{R}^{n-2})^*$ linealmente independientes, trabajemos con la otra parte de $q$, para esto usaremos otra identidad algebraica
    \begin{align*} ab=\frac{(a+b)^2 -(a-b)^2 }{4} \end{align*}
    Y nombrando
    \begin{align*} a =(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i ), \qquad b= ( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) \end{align*}
    Por suerte, aquí no necesitamos sustituir y desarrollar, definamos ingeniosamente $l_{r+1}$ y $l_{r+2}$ como sigue
    \begin{align*} l_{r+1}(x_1, \dots , x_n)= x_n + x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n-1}+a_{i,n}}{a_{n-1.n}} x_i \end{align*}
    Y
    \begin{align*} l_{r+2}(x_1, \dots , x_n)= x_n – x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n-1}-a_{i,n}}{a_{n-1.n}} x_i \end{align*}
    De esta manera
    \begin{align*}2a_{n-1.n}(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i )( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) \\
    =\frac{a_{n-1.n}}{2} [ (l_{r+1}(x_1, \dots , x_n))^2- (l_{r+2}(x_1, \dots , x_n))^2 ] \end{align*}
    Para finalizar, con todas estas igualdades tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^r \alpha’_i (l’_i(x_1, \dots , x_{n-2} ))^2 + \frac{a_{n-1.n}}{2} [ (l_{r+1}(x_1, \dots , x_n))^2- (l_{r+2}(x_1, \dots , x_n))^2 ]\end{align*}
    Y sólo resta cambiar nombres como sigue
    \begin{align*} l_i(x_1, \dots x_n) = l’_i(x_1, \dots , x_{n-2}) \qquad \text{y} \qquad \alpha_i=\alpha’_i \end{align*}
    Para $ i \in \{1, \dots r \}$ y
    \begin{align*} \alpha_{r+1}=\frac{a_{n-1.n}}{2} \qquad \text{y} \qquad \alpha_{r+2}=-\frac{a_{n-1.n}}{2} \end{align*}
    Ya con estos nombres, $q$ se escribe como sigue
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^{r+2} \alpha_i (l_i(x_1, \dots , x_n ))^2 \end{align*}
    con $\{ l_1, \dots , l_{r+2} \}$ linealmente independientes (¿Por qué?).

Por lo que, en cualquiera de los dos casos propuestos se cumple que
\begin{align*} q(x)= \sum_{i=1}^{r} \alpha_i (l_i(x))^2 \end{align*}
con con $\{ l_1, \dots , l_{r} \}$ linealmente independientes.

Así por principio de inducción tenemos que el teorema de Gauss se cumple para cualquier forma cuadrática $q$ en $\mathbb{R^n}$ pata todo $n \in \mathbb{N}$.

$\square$

Más adelante

Debido a la longitud de esta demostración, los ejemplos serán reservados para la siguiente entrada, además, al principio de la entrada se dieron pistas a que existe una relación entre formas bilineales y matrices, esto será explorado posteriormente.

Por el momento nos centraremos en utilizar el teorema de Gauss para poder escribir $q$ de una forma estándar y observar que propiedades extra podemos obtener al escribirla de esta manera, esto motivará el siguiente teorema de interés la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $q$ una forma cuadrática en $\mathbb{R}^n$ y $x=(x_1, \dots x_n)$ muestra que \begin{align*} q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \text{ con } a_{ij}=b(e_i,e_j). \end{align*}
  2. Sea $A=[a_{ij}]$ con $a_{ij}$ definida del problema anterior, ¿Qué podrías afirmar acerca de A sin importar la $q$ elegida?
  3. Sea $A=[a_{ij}]$ una matriz simétrica en $M_n(\mathbb{R})$ y definamos
    \begin{align*} q: \mathbb{R}^n \rightarrow \mathbb{R} \text{ con } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*} ¿Es $q$ así definida una forma cuadrática?
  4. En el ejercicio anterior, ¿Es necesario que $A$ sea simétrica?
  5. Sean $\alpha _1, \dots , \alpha_r $ números reales y $l_1 , \dots , l_r$ formas lineales, linealmente independientes en $\mathbb{R}^n$ y $x \in \mathbb{R}^n$ definamos $q$ como sigue:
    \begin{align*} q(x)=\sum_{i,j=1}^n \alpha_i(l_i(x)) \end{align*}
    ¿Es $q$ así definida una forma cuadrática en $\mathbb{R}^n$?

Entradas relacionadas

Álgebra Lineal II: Repaso de formas bilineales y formas cuadráticas

Introducción

Aunque en previas entradas ya se ha hablado de formas bilineales y formas cuadráticas, retomaremos su estudio en esta entrada y nos dedicaremos a probar algunas propiedades que previamente no fueron demostradas.

También nos familiarizaremos con algunos tipos especiales de formas bilineales e intentaremos extender las definiciones ya dadas, esta vez para espacios vectoriales cuyo campo sea $\mathbb{C}$

Formas bilineales

Definición
Sean $V$ un espacio vectorial en $\mathbb{R}$, una forma bilineal es una función $b: V \times V \rightarrow \mathbb{R}$ tal que:

  • Para cualquier $x \in V$ la función $b(x, \cdot) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(x,v)$ es lineal.
  • Para cualquier $y \in V$ la función $b(\cdot, y) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(v,y)$ es lineal.

Además, $b$ se llamará simétrica si $b(x,y)=b(y,x)$ para cualquier par $x,y \in \mathbb{R}$.
Observación


Sean $x_1, \dots x_n \in V$, $y_1, \dots y_m \in V$ y $a_1, \dots a_n, c_1, \dots c_m \in \mathbb{R}$ entonces, para cualquier forma bilineal $b$ en $V$ tenemos que
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n\sum_{j=1}^m a_icjb(x_i,y_j)\end{align*}

Solución
Escribamos la suma completa en la primera entrada de $b$
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=b(a_1x_1+ \dots + a_nx_n, \sum_{j=1}^m c_jy_j) \end{align*}
Usando la linealidad en la primera entrada de $b$ tenemos
\begin{align*} a_1b(x_1, \sum_{j=1}^m c_jy_j)+ \dots +a_nb(x_n, \sum_{j=1}^m c_jy_j)\end{align*}
Por lo que
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n a_ib(x_i, \sum_{j=1}^m c_jy_j) \end{align*}
Procediendo de manera similar en la segunda entrada ahora
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n a_ib(x_i,c_1y_1+ \dots + c_my_m) \end{align*}
\begin{align*}=\sum_{i=1}^n a_ic_1b(x_i,y_1)+\dots \sum_{i=1}^n a_ic_mb(x_i,y_m)=\sum_{j=1}^m\sum_{i=1}^n a_ic_jb(x_i,y_j)=\sum_{i=1}^n\sum_{j=1}^m a_ic_jb(x_i,y_j) \end{align*}
También cabría notar que, el conjunto de formas bilineales es un subespacio vectorial del espacio de funciones de $V \times V \rightarrow \mathbb{R} $ y a su vez, tiene con subespacio vectorial el conjunto de formas bilineales simétricas.

Formas cuadráticas

Definición
Sea $V$ espacio vectorial en $\mathbb{R}$ una forma cuadrática es una función $q: V \rightarrow \mathbb{R}$ tal que existe una forma bilineal $b: V \times V \rightarrow \mathbb{R}$ que cumple \begin{align*}q(x)=b(x,x) \end{align*}.
Recordemos también que puede existir una forma cuadrática que tenga más de una forma bilineal asignada, es decir, que existan dos formas bilineales distintas que definan la misma forma cuadrática
\begin{align*} \forall x \in V \; \; \; \; b_1(x,x)=b_2(x,x) \text{ ? }\end{align*}
Tristemente sí, pensemos en lo siguiente, definamos a $V=\mathbb{R}^2$ y
\begin{align*} b_1(x,y)=x_1y_2-x_2y_1 \; \; \; \; \text{ y } \; \; \; \; b_2(x,y)=x_2y_1-x_1y_2 \end{align*}
de donde
\begin{align*} b_1(x,x)=x_1x_2-x_2x_1=0=x_2x_1-x_1x_2=b_2(x,x) \end{align*}
por lo que $b_1$ y $b_2$ tendrían la misma forma cuadrática asignada.

Por suerte basta agregar una restricción a la forma bilineal para que tengamos esta deseada unicidad, lo que motiva el siguiente teorema.

Teorema (Identidad de polarización)

Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática, existe una única forma bilineal simétrica $b: V \times V \rightarrow \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo $x \in V$.

Más aún, esta $b$ se puede encontrar de la siguiente manera:
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Demostración

Por cómo fue definido forma cuadrática sabemos que existe una forma bilineal (aunque no necesariamente que ser simétrica) $B$ tal que $q(x)=B(x,x)$.
Así definamos una función
\begin{align*} b: V \times V \rightarrow \mathbb{R} \; \; \; \;\text{ con }\; \; \; \; b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}.
Dado que $q(x)=B(x,x)$, podemos calcular $b$ como
\begin{align*} b(x,y)=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2} \end{align*}
descompongamos el primer sumando por separado;
\begin{align*} B(x+y,x+y)=B(x,x+y)+B(y,x+y)=B(x,x)+B(x,y)+B(y,x)+B(y,y) \end{align*}
sustituyendo esto en $b(x,y)$ nos arroja la igualdad
\begin{align*} b(x,y) =\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x) -B(y,y)}{2}\end{align*}
de donde finalmente se obtiene
\begin{align*} b(x,y)=\frac{B(x,y)+B(y,x)}{2} \end {align*}.
Utilizando esto probemos la simetría, ya que
\begin{align*} b(x,y)=\frac{B(x,y)+B(y,x)}{2}=\frac{B(y,x)+B(x,y)}{2}=b(y,x) \end{align*}
además, esta misma nos permite demostrar la bilinealidad, si fijamos la primera coordenada, aún tenemos que $B(x, \cdot )$ y $B(\cdot , x)$ son lineales, por lo que
\begin{align*} b(x,\cdot)=\frac{B(x,\cdot)+B(\cdot,x)}{2} \end{align*}
también lo es (análogamente se prueba que al fijar la segunda coordenada la linealidad se mantiene)
más aún, esta igualdad nos sirve para probar que $q(x)=b(x,x)$ ya que:
\begin {align*} b(x,x)=\frac{B(x,x)+B(x,x)}{2}=B(x,x)=q(x) \end{align*}
por lo que $b$ es una forma bilineal simétrica asociada a $q$.

Finalizando con la unicidad, si suponemos que existe $b’: V \times V \rightarrow \mathbb{R}$ simétrica tal que $q(x)=b'(x,x)$, esta debe cumplir lo siguiente
\begin{align*} q(x+y)=b'(x+y,x+y)=b'(x,x)+2b'(x,y)+b'(y,y) \end{align*}
que a su vez al despejar a $b'(x,y)$ nos arroja
\begin{align*} b'(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}=b(x,y) \end{align*}

$\square$

Finalicemos recordando una última definición que relaciona a $q$ con su única forma bilineal simétrica.


Definición
Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b: V \times V \rightarrow \mathbb{R}$ su única forma bilineal simétrica tal que:
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
a $b$ se le llamará la forma polar de $q$.

Un par de ejemplos

Ejemplo
Sean $V= \mathbb{R^n}$, $x,y \in V$ tal que $x=(x_1, . . . , x_n)$ y $y =(y_1, . . . , y_n)$ y $\{a_1, . . . a_n\} \subset \mathbb{R}$ definamos $b$ como sigue:
\begin {align*} b(x,y)=a_1x_1y_1+ . . . + a_nx_ny_n \end{align*}
Probemos que así definido, $b$ es una función bilineal.

Solución
Para probar que $b$ es bilineal, probaremos que alguna de las funciones $b (x, \cdot)$ o $b (\cdot, y)$ son lineales para algún $x$ o $y \in \mathbb{R}^n$ fijos, siendo la otra análoga, probemos solamente para la primera de estas.
Sean $p,q \in \mathbb{R}$ y $\lambda \in \mathbb{R}$ tenemos que:
\begin{align*} b(x,\lambda p+q)=a_1x_1(\lambda p_1 + q_1) + a_2x_2(\lambda p_2 + q_2)+ \dots a_nx_n(\lambda p_n + q_n) \end{align*}
ya que todos los miembros de esta operación son números reales, utilicemos las propiedades distributiva y conmutativa lo que nos daría que:
\begin{align*} b(x,\lambda p+q)=\lambda a_1x_1p_1 + \lambda a_2x_2 p_2 + \dots \lambda a_nx_n p_n + a_1x_1q_1+a_2x_2q_2+ \dots + a_nx_nq_n \\
\\
=\lambda (a_1x_1p_1 + a_2x_2 p_2 + \dots a_nx_n p_n)+ (a_1x_1q_1+a_2x_2q_2+ \dots a_nx_nq_n)=\lambda b(x,p) + b(x,q). \end{align*}

$\square$

En particular, si tenemos que $a_1, \dots , a_n =1$ podemos observar que $b$ es el producto interno canónico de $\mathbb{R}^n$.

Un no ejemplo
Sea $q: \mathbb{R}^2 \rightarrow \mathbb{R}$ dada como sigue
\begin{align*} q(x,y)=x^2+y^2-8x \end{align*}
¿Es $q$ una forma cuadrática?

Solución
La respuesta es que no, supongamos que $q$ sí es una forma cuadrática, entonces se debe tener que existe $b$ su forma polar que debe cumplir
\begin{align*} b((x,y),(x,y))=x^2+y^2-8x \end{align*}
para cualquier par de $(x,y) \in \mathbb{R}$ en particular, dado un par $(x,y)$ debemos tener que la igualdad anterior también se cumple para $(-x,-y)$
\begin{align*} x^2+y^2-8x=b((x,y),(x,y))=-(-b((x,y),(x,y)))=b(-(x,y),-(x,y))=b((-x,-y),(-x,-y)) \end{align*}
ahora calculando el último término de esta igualdad tenemos que
\begin{align*} b((-x,-y),(-x,-y))=x^2+y^2-8(-x)=x^2+y^2+8x \end{align*}
finalicemos juntando los extremos de esta larga cadena de igualdades
\begin{align*} x^2+y^2-8x=x^2+y^2+8x \end{align*}
por lo que
\begin{align*} 16x=0 \end{align*}
Para todo $x \in \mathbb{R}$, lo cual es claramente falso.

Este error nació de suponer que $q$ era una forma cuadrática.

Por lo tanto $q$ no es forma cuadrática.

$\square$

Más adelante

En las siguientes entradas veremos un par de teoremas importantes acerca de formas cuadráticas, así como su relación con matrices, incluso extenderemos las definiciones aquí vistas a funciones que no estén definidas únicamente en $\mathbb{R}$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=M_n(\mathbb{R})$ y definamos $b:V \times V \rightarrow \mathbb{R}$ la función dada por $b(A,B)=Tr(AB)$, demuestra que $b$ es una forma bilineal simétrica.
  2. Sea $V=M_n(\mathbb{R})$ y definamos $b’:V \times V \rightarrow \mathbb{R}$ la función dada por $b'(A,B)=Tr(A^tB)$, demuestra que $b’$ es una forma bilineal simétrica.
  3. Sea $V=\mathcal{C}^0[0,1]$ (El espacio vectorial de funciones reales continuas en el intervalo $[0,1]$) y $q(x): V \rightarrow \mathbb{R}$ tal que $q(f)=\int_0^1f(x)^2dx$ ¿Es $q$ una forma cuadrática?
  4. Sea $q$ una forma cuadrática en $V$ con $b$ su polar, demuestra que $\forall x,y \in V$
    \begin{align*}
    b(x,y)=\frac{q(x+y)-q(x-y)}{4}
    \end{align*}.
  5. Sea $q$ una forma cuadrática en $V$ con $b$ su polar, demuestra que $\forall x,y \in V$
    \begin{align*}
    q(x+y)+q(x-y)=2(q(x)+q(y))
    \end{align*}.
  6. ¿Por qué en esta entrada se empieza a utilizar la palabra forma, en lugar de función, que es normalmente utilizada? ¿Hay alguna diferencia entre una forma y una función?

Entradas relacionadas