Archivo de la etiqueta: forma bilineal

Álgebra Lineal II: Repaso de formas bilineales y formas cuadráticas

Introducción

Aunque en previas entradas ya se ha hablado de formas bilineales y formas cuadráticas, retomaremos su estudio en esta entrada y nos dedicaremos a probar algunas propiedades que previamente no fueron demostradas.

También nos familiarizaremos con algunos tipos especiales de formas bilineales e intentaremos extender las definiciones ya dadas, esta vez para espacios vectoriales cuyo campo sea $\mathbb{C}$

Formas bilineales

Definición
Sean $V$ un espacio vectorial en $\mathbb{R}$, una forma bilineal es una función $b: V \times V \rightarrow \mathbb{R}$ tal que:

  • Para cualquier $x \in V$ la función $b(x, \cdot) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(x,v)$ es lineal.
  • Para cualquier $y \in V$ la función $b(\cdot, y) : V \rightarrow \mathbb{R}$ que envía $v$ a $b(v,y)$ es lineal.

Además, $b$ se llamará simétrica si $b(x,y)=b(y,x)$ para cualquier par $x,y \in \mathbb{R}$.
Observación


Sean $x_1, \dots x_n \in V$, $y_1, \dots y_m \in V$ y $a_1, \dots a_n, c_1, \dots c_m \in \mathbb{R}$ entonces, para cualquier forma bilineal $b$ en $V$ tenemos que
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n\sum_{j=1}^m a_icjb(x_i,y_j)\end{align*}

Solución
Escribamos la suma completa en la primera entrada de $b$
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=b(a_1x_1+ \dots + a_nx_n, \sum_{j=1}^m c_jy_j) \end{align*}
Usando la linealidad en la primera entrada de $b$ tenemos
\begin{align*} a_1b(x_1, \sum_{j=1}^m c_jy_j)+ \dots +a_nb(x_n, \sum_{j=1}^m c_jy_j)\end{align*}
Por lo que
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n a_ib(x_i, \sum_{j=1}^m c_jy_j) \end{align*}
Procediendo de manera similar en la segunda entrada ahora
\begin{align*} b(\sum_{i=1}^n a_ix_i,\sum_{j=1}^m c_jy_j)=\sum_{i=1}^n a_ib(x_i,c_1y_1+ \dots + c_my_m) \end{align*}
\begin{align*}=\sum_{i=1}^n a_ic_1b(x_i,y_1)+\dots \sum_{i=1}^n a_ic_mb(x_i,y_m)=\sum_{j=1}^m\sum_{i=1}^n a_ic_jb(x_i,y_j)=\sum_{i=1}^n\sum_{j=1}^m a_ic_jb(x_i,y_j) \end{align*}
También cabría notar que, el conjunto de formas bilineales es un subespacio vectorial del espacio de funciones de $V \times V \rightarrow \mathbb{R} $ y a su vez, tiene con subespacio vectorial el conjunto de formas bilineales simétricas.

Formas cuadráticas

Definición
Sea $V$ espacio vectorial en $\mathbb{R}$ una forma cuadrática es una función $q: V \rightarrow \mathbb{R}$ tal que existe una forma bilineal $b: V \times V \rightarrow \mathbb{R}$ que cumple \begin{align*}q(x)=b(x,x) \end{align*}.
Recordemos también que puede existir una forma cuadrática que tenga más de una forma bilineal asignada, es decir, que existan dos formas bilineales distintas que definan la misma forma cuadrática
\begin{align*} \forall x \in V \; \; \; \; b_1(x,x)=b_2(x,x) \text{ ? }\end{align*}
Tristemente sí, pensemos en lo siguiente, definamos a $V=\mathbb{R}^2$ y
\begin{align*} b_1(x,y)=x_1y_2-x_2y_1 \; \; \; \; \text{ y } \; \; \; \; b_2(x,y)=x_2y_1-x_1y_2 \end{align*}
de donde
\begin{align*} b_1(x,x)=x_1x_2-x_2x_1=0=x_2x_1-x_1x_2=b_2(x,x) \end{align*}
por lo que $b_1$ y $b_2$ tendrían la misma forma cuadrática asignada.

Por suerte basta agregar una restricción a la forma bilineal para que tengamos esta deseada unicidad, lo que motiva el siguiente teorema.

Teorema (Identidad de polarización)
Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática, existe una única forma bilineal simétrica $b: V \times V \rightarrow \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo $x \in V$.

Más aún, esta $b$ se puede encontrar de la siguiente manera:
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Demostración
Por como fue definido forma cuadrática sabemos que existe una forma bilineal (aunque no necesariamente que ser simétrica) $B$ tal que $q(x)=B(x,x)$.
Así definamos una función
\begin{align*} b: V \times V \rightarrow \mathbb{R} \; \; \; \;\text{ con }\; \; \; \; b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}.
Dado que $q(x)=B(x,x)$, podemos calcular $b$ como
\begin{align*} b(x,y)=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2} \end{align*}
descompongamos el primer sumando por separado;
\begin{align*} B(x+y,x+y)=B(x,x+y)+B(y,x+y)=B(x,x)+B(x,y)+B(y,x)+B(y,y) \end{align*}
sustituyendo esto en $b(x,y)$ nos arroja la igualdad
\begin{align*} b(x,y) =\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x) -B(y,y)}{2}\end{align*}
de donde finalmente se obtiene
\begin{align*} b(x,y)=\frac{B(x,y)+B(y,x)}{2} \end {align*}.
Utilizando esto probemos la simetría, ya que
\begin{align*} b(x,y)=\frac{B(x,y)+B(y,x)}{2}=\frac{B(y,x)+B(x,y)}{2}=b(y,x) \end{align*}
además, esta misma nos permite demostrar la bilinealidad, si fijamos la primera coordenada, aún tenemos que $B(x, \cdot )$ y $B(\cdot , x)$ son lineales, por lo que
\begin{align*} b(x,\cdot)=\frac{B(x,\cdot)+B(\cdot,x)}{2} \end{align*}
también lo es (análogamente se prueba que al fijar la segunda coordenada la linealidad se mantiene)
más aún, esta igualdad nos sirve para probar que $q(x)=b(x,x)$ ya que:
\begin {align*} b(x,x)=\frac{B(x,x)+B(x,x)}{2}=B(x,x)=q(x) \end{align*}
por lo que $b$ es una forma bilineal simétrica asociada a $q$.

Finalizando con la unicidad, si suponemos que existe $b’: V \times V \rightarrow \mathbb{R}$ simétrica tal que $q(x)=b'(x,x)$, esta debe cumplir lo siguiente
\begin{align*} q(x+y)=b'(x+y,x+y)=b'(x,x)+2b'(x,y)+b'(y,y) \end{align*}
que a su vez al despejar a $b'(x,y)$ nos arroja
\begin{align*} b'(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}=b(x,y) \end{align*}

$\square$

Finalicemos recordando una última definición que relaciona a $q$ con su única forma bilineal simétrica.


Definición
Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b: V \times V \rightarrow \mathbb{R}$ su única forma bilineal simétrica tal que:
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
a $b$ se le llamará la forma polar de $q$.

Un par de ejemplos

Ejemplo
Sean $V= \mathbb{R^n}$, $x,y \in V$ tal que $x=(x_1, . . . , x_n)$ y $y =(y_1, . . . , y_n)$ y $\{a_1, . . . a_n\} \subset \mathbb{R}$ definamos $b$ como sigue:
\begin {align*} b(x,y)=a_1x_1y_1+ . . . + a_nx_ny_n \end{align*}
Probemos que así definido, $b$ es una función bilineal.

Solución
Para probar que $b$ es bilineal, probaremos que alguna de las funciones $b (x, \cdot)$ o $b (\cdot, y)$ son lineales para algún $x$ o $y \in \mathbb{R}^n$ fijos, siendo la otra análoga, probemos solamente para la primera de estas.
Sean $p,q \in \mathbb{R}$ y $\lambda \in \mathbb{R}$ tenemos que:
\begin{align*} b(x,\lambda p+q)=a_1x_1(\lambda p_1 + q_1) + a_2x_2(\lambda p_2 + q_2)+ \dots a_nx_n(\lambda p_n + q_n) \end{align*}
ya que todos los miembros de esta operación son números reales, utilicemos las propiedades distributiva y conmutativa lo que nos daría que:
\begin{align*} b(x,\lambda p+q)=\lambda a_1x_1p_1 + \lambda a_2x_2 p_2 + \dots \lambda a_nx_n p_n + a_1x_1q_1+a_2x_2q_2+ \dots + a_nx_nq_n \\
\\
=\lambda (a_1x_1p_1 + a_2x_2 p_2 + \dots a_nx_n p_n)+ (a_1x_1q_1+a_2x_2q_2+ \dots a_nx_nq_n)=\lambda b(x,p) + b(x,q) \end{align*}.

$\square$

En particular, si tenemos que $a_1, \dots , a_n =1$ podemos observar que $b$ es el producto interno canónico de $\mathbb{R}^n$.

Un no ejemplo
Sea $q: \mathbb{R}^2 \rightarrow \mathbb{R}$ dada como sigue
\begin{align*} q(x,y)=x^2+y^2-8x \end{align*}
¿Es $q$ una forma cuadrática?

Solución
La respuesta es que no, supongamos que $q$ sí es una forma cuadrática, entonces se debe tener que existe $b$ su forma polar que debe cumplir
\begin{align*} b((x,y),(x,y))=x^2+y^2-8x \end{align*}
para cualquier par de $(x,y) \in \mathbb{R}$ en particular, dado un par $(x,y)$ debemos tener que la igualdad anterior también se cumple para $(-x,-y)$
\begin{align*} x^2+y^2-8x=b((x,y),(x,y))=-(-b((x,y),(x,y)))=b(-(x,y),-(x,y))=b((-x,-y),(-x,-y)) \end{align*}
ahora calculando el último termino de esta igualdad tenemos que
\begin{align*} b((-x,-y),(-x,-y))=x^2+y^2-8(-x)=x^2+y^2+8x \end{align*}
finalicemos juntando los extremos de esta larga cadena de igualdades
\begin{align*} x^2+y^2-8x=x^2+y^2+8x \end{align*}
por lo que
\begin{align*} 16x=0 \end{align*}
Para todo $x \in \mathbb{R}$, lo cual es claramente falso.

Este error nació de suponer que $q$ era una forma cuadrática.

Por lo tanto $q$ no es forma cuadrática.

$\square$

Más adelante

En las siguientes entradas veremos un par de teoremas importantes acerca de formas cuadráticas, así como su relación con matrices, incluso extenderemos las definiciones aquí vistas a funciones que no estén definidas únicamente en $\mathbb{R}$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=M_n(\mathbb{R})$ y definamos $b:V \times V \rightarrow \mathbb{R}$ la función dada por $b(A,B)=Tr(AB)$, demuestra que $b$ es una forma bilineal simétrica.
  2. Sea $V=M_n(\mathbb{R})$ y definamos $b’:V \times V \rightarrow \mathbb{R}$ la función dada por $b'(A,B)=Tr(A^tB)$, demuestra que $b’$ es una forma bilineal simétrica.
  3. Sea $V=\mathcal{C}^0[0,1]$ (El espacio vectorial de funciones reales continuas en el intervalo $[0,1]$) y $q(x): V \rightarrow \mathbb{R}$ tal que $q(f)=\int_0^1f(x)^2dx$ ¿Es $q$ una forma cuadrática?
  4. Sea $q$ una forma cuadrática en $V$ con $b$ su polar, demuestra que $\forall x,y \in V$
    \begin{align*}
    b(x,y)=\frac{q(x+y)-q(x-y)}{4}
    \end{align*}.
  5. Sea $q$ una forma cuadrática en $V$ con $b$ su polar, demuestra que $\forall x,y \in V$
    \begin{align*}
    q(x+y)+q(x-y)=2(q(x)+q(y))
    \end{align*}.
  6. ¿Por qué en esta entrada se empieza a utilizar la palabra forma, en lugar de función, que es normalmente utilizada? ¿Hay alguna diferencia entre una forma y una función?

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

[latexpage]

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación $T$ es simétrica y $W$ es un subespacio estable bajo $T$, entonces $W^\bot$ también lo es. Además, $T$ restringida a $W$ o a $W^\bot$ también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Demostración. Como $V$ es espacio Euclideano, entonces tiene cierta dimensión finita $n$. Haremos inducción fuerte sobre $n$. Si $n=1$, el polinomio característico de $T$ es de grado $1$ y con coeficientes reales, así que tiene una raíz $\lambda$ real. Si $v$ es un eigenvector de $T$ para $\lambda$, entonces $\frac{v}{\norm{v}}$ también es eigenvector de $T$ y conforma una base ortonormal para $V$.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a $n$ y tomemos $V$ espacio Euclideano de dimensión $n$. Por el teorema fundamental del álgebra, el polinomio característico de $T$ tiene por lo menos una raíz $\lambda$ en $\mathbb{C}$. Como $T$ es simétrica, cualquier matriz $A$ que represente a $T$ también, y $\lambda$ sería una raíz del polinomio característico de $A$. Por el resultado que vimos en la entrada anterior, $\lambda$ es real.

Consideremos el kernel $W$ de la transformación $\lambda \text{id} – T$. Si $W$ es de dimensión $n$, entonces $W=V$, y por lo tanto $T(v)=\lambda v$ para todo vector $v$ en $V$, es decir, todo vector no cero de $V$ es eigenvector de $T$. De esta forma, cualquier base ortonormal de $V$ satisface la conclusión. De esta forma, podemos suponer que $W\neq V$ y que por lo tanto $1\leq \dim W \leq n-1$, y como $$V=W\oplus W^\bot,$$ se obtiene que $1\leq \dim W^\bot \leq n-1$. Sea $B$ una base ortonormal de $W$, que por lo tanto está formada por eigenvectores de $T$ con eigenvalor $\lambda$.

Como la restricción $T_1$ de $T$ a $W^\bot$ es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal $B’$ de eigenvectores de $T_1$ (y por lo tanto de $T$) para $W^\bot$.

Usando de nuevo que $$V=W\oplus W^\bot,$$ tenemos que $B\cup B’$ es una base de $V$ formada por eigenvectores de $T$.

El producto interior de dos elementos distintos de $B$, o de dos elementos distintos de $B’$ es cero, pues individualmente son bases ortonormales. El producto de un elemento de $B$ y uno de $B’$ es cero pues un elemento está en $W$ y el otro en $W^\bot$. Además, todos los elementos de $B\cup B’$ tiene norma $1$, pues vienen de bases ortogonales. Esto muestra que $B\cup B’$ es una base ortonormal de $V$ que consiste de eigenvectores de $T$.

$\square$

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $M_n(\mathbb{R})$, tales que $$A=P^{-1}DP.$$

Demostración. Como $A$ es una matriz simétrica, la transformación $T:F^n\to F^n$ dada por $T(X)=AX$ es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de $F^n$ que consiste de eigenvectores de $T$. Digamos que estos eigenvectores son $C_1,\ldots,C_n$. Por definición de $T$, estos eigenvectores de $T$ son exactamente eigenvectores de $A$.

Anteriormente demostramos que si construimos a una matriz $B$ usando a $C_1,\ldots,C_n$ como columnas y tomamos la matriz diagonal $D$ cuyas entradas son los eigenvalores correspondientes $\lambda_1,\ldots,\lambda_n$, entonces $$A=BDB^{-1}.$$

Afirmamos que la matriz $B$ es ortogonal. En efecto, la fila $j$ de la matriz $^t B$ es precisamente $C_j$. De esta forma, la entrada $(i,j)$ del producto ${^tB} B$ es precisamente el producto punto de $C_i$ con $C_j$. Como la familia $C_1,\ldots,C_n$ es ortonormal, tenemos que dicho producto punto es uno si $i=j$ y cero en otro caso. De aquí, se concluye que ${^tB} B=I_n$.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo $P=B^{-1}$, tenemos la igualdad $$A=P^{-1}DP,$$ con $D$ diagonal y $P$ ortogonal, justo como lo afirma el teorema.

$\square$

Matrices positivas y positivas definidas

Una matriz $A$ simétrica en $M_n(\mathbb{R})$ induce una forma bilineal simétrica en $\mathbb{R}^n$ mediante la asignación $$(x,y) \mapsto {^t x} A y,$$ con forma cuadrática correspondiente $$x \mapsto {^t x} A x.$$

Definición. Una matriz $A$ en $M_n(\mathbb{R})$ es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Demostración. (1) implica (2). Supongamos que $A$ es positiva y tomemos $\lambda$ un eigenvalor de $A$. Tomemos $v$ un eigenvector de eigenvalor $\lambda$. Tenemos que:
\begin{align*}
\lambda \norm{v}^2 &=\lambda {^tv} v\\
&= {^t v} (\lambda v)\\
&={^t v} Av\\
&\geq 0.
\end{align*}

Como $\norm{v}^2\geq 0$, debemos tener $\lambda \geq 0$.

(2) implica (3). Como $A$ es matriz simétrica, por el teorema espectral tiene una diagonalización $A=P^{-1}DP$ con $P$ una matriz invertible y $D$ una matriz diagonal cuyas entradas son los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal $E$ cuyas entradas son los reales $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}.$ Notemos que $E^2=D$, así que si definimos a la matriz $B=P^{-1}EP$, tenemos que $$B^2=P^{-1}E^2 P = P^{-1}DP = A.$$

Además, $B$ es simétrica pues como $E$ es diagonal y $P$ es ortogonal, tenemos que
\begin{align*}
{^tB} &= {^t P} {^t E} {^t (P^{-1})}\\
&= P^{-1} E P\\
&= B.
\end{align*}

(3) implica (4). Es inmediato, tomando $C=B$ y usando que $B$ es simétrica.

(4) implica (1). Si $A= {^tC} C$ y tomamos un vector $v$ en $\mathbb{R}^n$, tenemos que

\begin{align*}
{^t v} A v &= {^tv} {^tC} C v\\
&= {^t(Cv)} (Cv)\\
&=\norm{Cv}^2\\
&\geq 0,
\end{align*}

lo cual muestra que $A$ es positiva.

$\square$

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en $\mathbb{C}$, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de $\mathbb{R}^3$ conformada por eigenvectores de la matriz $\begin{pmatrix}10 & 0 & -7\\ 0 & 3 & 0 \\ -7 & 0 & 10\end{pmatrix}.$
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz $$\begin{pmatrix}5 & 1 & 7\\1 & 10 & -7\\7 & -7 & 18\end{pmatrix}$$ es positiva.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Bases ortogonales

[latexpage]

Introducción

Como ya discutimos en las entradas anteriores, si tenemos un espacio vectorial $V$ con producto interior, entonces podemos definir varias nociones geométricas en $V$, como ángulos, norma y distancia. Ahora vamos a definir una noción muy útil en álgebra lineal: la de bases ortogonales. Para ello, combinaremos las nociones de bases y producto interior.

Las bases ortogonales no sólo tienen aplicaciones en álgebra lineal. También son el punto de partida de muchos conceptos matemáticos avanzados. Un primer ejemplo es el análisis de Fourier, que estudia cómo aproximar funciones mediante funciones trigonométricas y que tiene aplicaciones en el mundo real en análisis de señales. Otro ejemplo es la vasta teoría de polinomios ortogonales, con aplicaciones en el mundo real en aproximación e integración numérica.

En estas entradas de bases ortogonales tomaremos espacios vectoriales sobre $\mathbb{R}$ con un producto interior $\langle \cdot,\cdot \rangle$.

Conjuntos ortogonales y ortonormales

Comenzamos con la siguiente definición. Recuerda que $V$ es un espacio vectorial sobre $\mathbb{R}$ con producto interior, así que induce una norma $\Vert \cdot \Vert$.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Ortogonal si cualquier par de vectores distintos de $S$ es ortogonal, es decir, si para todo $v,w$ en $S$, con $v\neq w$ se tiene que $$\langle v, w \rangle = 0.$$
  • Ortonormal si es ortogonal, y además todo vector de $S$ tiene norma $1$.

En otras palabras, $S$ es ortonormal si para todo $v$ en $S$ se tiene $\langle v, v\rangle =1$ y para $v$ y $w$ en $S$ distintos se tiene $\langle v, w\rangle =0$.

Ejemplo. Si tomamos a $\mathbb{R}^n$ con el producto punto, entonces la base canónica es un conjunto ortonormal pues, en efecto, $e_i\cdot e_i = 1$ y para $i\neq j$ se tiene $e_i\cdot e_j = 0$.

Todo conjunto de un sólo elemento es ortogonal, pues no hay nada que probar. Otro conjunto ortonormal en $\mathbb{R}^2$ es el conjunto que sólo tiene al vector $\left(\frac{3}{5},\frac{4}{5}\right)$, pues este es un vector de norma $1$.

Los vectores $(1,1,0)$, $(1,-1,0)$ y $(0,0,1)$ forman otro conjunto ortogonal en $\mathbb{R}^3$, pues en efecto
\begin{align*}
(1,1,0)\cdot (1,-1,0)&=1-1=0\\
(1,-1,0)\cdot (0,0,1)&=0\\
(0,0,1)\cdot (1,1,0)&=0.
\end{align*}

Sin embargo, este no es un conjunto ortonormal, pues la norma de $(1,1,0)$ es $\sqrt{2}\neq 1$. Si normalizamos a cada vector, es decir, si lo dividimos entre su norma, entonces obtenemos los vectores ortonormales $\left(1/\sqrt{2},1/\sqrt{2},0\right)$, $\left(1/\sqrt{2},-1/\sqrt{2},0\right)$ y $(0,0,1)$.

$\square$

Propiedades de conjuntos ortogonales y ortonormales

Todo conjunto ortogonal de vectores no nulos se puede normalizar como en el ejemplo de la sección anterior para obtener un conjunto ortonormal. Es decir, si $S$ es un conjunto de vectores distintos de $0$, entonces $$S’=\left\{\frac{v}{\Vert v \Vert}: v\in S\right\}$$ es un conjunto ortonormal.

Una propiedad fundamental de los conjuntos ortonormales de vectores es que son linealmente independientes. Se puede probar algo un poco más general.

Proposición. Si $S$ es un conjunto ortogonal de vectores no nulos, entonces los elementos de $V$ son linealmente independientes.

Demostración. Tomemos $v_1,\ldots,v_n$ elementos de $S$ y supongamos que existen $\alpha_1,\ldots,\alpha_n$ escalares tales que $$v:=\sum_{i=1}^n \alpha_i v_i =0.$$

Tomemos un índice $j$ en $1,\ldots,n$ y hagamos el producto interior $\langle v, v_j\rangle$. Por un lado, como $v=0$, este produto es $0$. Por otro lado, por linealidad es $$\sum_{i=1}^n \alpha_i \langle v_i,v_j\rangle.$$

Cuando $i\neq j$, el sumando correspondiente es igual a $0$. De este modo, el único sumando no cero es cuando $i=j$, el cual es $\alpha_j \langle v_j,v_j\rangle$. De estos argumentos, deducimos que $$\alpha_j\langle v_j,v_j\rangle =0.$$ Como los vectores son no nulos, se tiene que $\langle v_j,v_j\rangle \neq 0$. Así, $\alpha_j=0$ para todo $j=1,\ldots,n$, lo cual muestra que los vectores son linealmente independientes.

$\square$

Como cada elemento de un conjunto ortonormal tiene norma $1$, entonces no puede ser nulo, así que como corolario de la proposición anterior, todo conjunto ortonormal es linealmente independiente. Otro corolario es el siguiente.

Corolario. En un espacio Euclideano de dimensión $d$, los conjuntos ortogonales sin vectores nulos tienen a lo más $d$ elementos.

Bases ortogonales y ortonormales

Cuando una base de un espacio vectorial es ortogonal (o bien, ortonormal), pasan varias cosas buenas. Esto amerita una definición por separado.

Definición. Sea $S$ un conjunto de vectores en $V$. Decimos que $S$ es

  • Una base ortogonal si $S$ es una base de $V$ y es un conjunto ortogonal.
  • Una base ortonormal si $S$ una base de $V$ y es un conjunto ortonormal.

Ejemplo. En $\mathbb{R}^n$ la base canónica es una base ortonormal.

En $\mathbb{R}^2$ el conjunto $S=\{(2,3),(9,-6)\}$ es un conjunto ortogonal. Además, se puede verificar fácilmente que son dos vectores linealmente independientes. De este modo, $S$ es una base ortogonal.

Sin embargo, $S$ no es una base ortonormal pues el primero de ellos tiene norma $\sqrt{2^2+3^2}=\sqrt{13}$. Si quisiéramos convertir a $S$ en una base ortonormal, podemos normalizar a cada uno de sus elementos.

$\square$

En la sección anterior vimos que los conjuntos ortonormales son linealmente independientes. Otro corolario de este resultado es lo siguiente.

Corolario. En un espacio Euclideano de dimensión $n$, un conjunto ortonormal de $n$ vectores es una base ortonormal.

La importancia de las bases ortogonales yace en que dada una base ortonormal $B$ y un vector $v$, podemos encontrar varias propiedades de $v$ en términos de $B$ fácilmente. Por ejemplo, veremos más adelante que:

  • Las coordenadas de $v$ con respecto a la base $B$ son sencillas.
  • Hay una fórmula simple para la norma de $v$ en términos de sus coordenadas en la base $B.$
  • Si $B$ es una base de un subespacio $W$ de $V$, entonces es fácil encontrar la distancia de $v$ a $W.$

Mejor aún, las bases ortonormales siempre existen.

Teorema. Todo espacio Euclideano tiene una base ortonormal.

Es decir, sin importar qué espacio vectorial real de dimensión finita tomemos, y sin importar qué producto punto le pongamos, podemos dar una base ortogonal. De hecho, veremos un resultado un poco más fuerte, que nos dará un procedimiento para encontrar dicha base, incluso imponiendo restricciones adicionales.

Ejemplo de bases ortogonales en polinomios

Ejemplo. Tomemos $\mathbb{R}_n[x]$ el espacio de polinomios de grado a lo más $n$ con coeficientes reales. Además, tomemos números reales distintos $x_0,\ldots,x_n$. A partir de estos reales podemos definir la operación $$\langle P, Q \rangle = \sum_{j=0}^n P(x_j)Q(x_j),$$ la cual es claramente bilineal y simétrica.

Tenemos que $\langle P,P\rangle$ es una suma de cuadrados, y por lo tanto es no negativa. Además, si $\langle P, P\rangle =0$, es porque $$\sum_{j=0}^n P(x_j)^2=0,$$ y como estamos trabajando en $\mathbb{R}$ esto implica que cada sumando debe ser cero. Pero las igualdades $$P(x_0)=\ldots=P(x_n)=0$$ dicen que los $n+1$ reales distintos $x_i$ son raíces de $P$, y como $P$ es de grado a lo más $n$, tenemos que $P$ es el polinomio $0$. En resumen, $\langle \cdot, \cdot \rangle$ es un producto interior en $\mathbb{R}_n[x]$. Vamos a dar una base ortogonal con respecto a este producto interior.

Para $i=0,\ldots,n$, consideremos los polinomios $$L_i(x)=\prod_{0\leq k \leq n, k\neq i} \frac{x-x_k}{x_i-x_k}.$$ Observa que $L_j(x_j)=1$ y si $j\neq i$, tenemos $L_i(x_j)=0$. Afirmamos que $$B=\{L_j:j=0,\ldots,n+1\}$$ es una base ortonormal de $\mathbb{R}_n[x]$ con el producto interior que definimos. Como consiste de $n+1$ polinomios y $\dim(\mathbb{R}_n[x])=n+1$, basta con que veamos que es un conjunto ortonormal.

Primero, notemos que
\begin{align*}
\langle L_i,L_i \rangle = \sum_{j=0}^n L_i(x_j)^2 = L_i(x_i)^2=1,
\end{align*}

de modo que cada $L_i$ tiene norma $1$.

Luego, notemos que si $i\neq j$, entonces $L_i(x_k)L_j(x_k)=0$ pues $x_k$ no puede ser simultáneamente $x_i$ y $x_j$. De este modo,

\begin{align*}
\langle L_i,L_j \rangle = \sum_{k=0}^n L_i(x_k)L_j(x_k)=0.
\end{align*}

Con esto mostramos que cada par de polinomios distintos es ortogonal. Esto termina la demostración de que $B$ es base ortonormal.

$\square$

Ejemplo de conjuntos ortogonales en funciones periódicas

Ejemplo. Consideremos $V$ el conjunto de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$. Definimos $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx.$$ Se puede mostrar que $\langle \cdot, \cdot \rangle$ así definido es un producto interior en $V$.

Para cada entero positivo $n$, definimos
\begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*}

Además, definimos $C_0(x)=\frac{1}{\sqrt{2\pi}}$. Afirmamos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ es un conjunto ortonormal de vectores. Mostremos esto.

Para empezar, notamos que $$\Vert C_0\Vert ^2 = \int_{-\pi}^{\pi} \frac{1}{2\pi}\, dx =1.$$

Luego, tenemos que para $n\geq 1$ que
\begin{align*}
\Vert C_n\Vert ^2 &= \int_{-\pi}^\pi \frac{1}{\pi} \cos^2(nx)\, dx\\
&= \int_{-\pi}^\pi \frac{1+\cos(2nx)}{2\pi}\, dx\\
&= 1,
\end{align*}

ya que para todo entero $m\neq 0$ se tiene que $$\int_{-\pi}^\pi \cos(mx) \, dx=0.$$ De manera similar, usando la identidad $$\sin^2(nx)=\frac{1-\cos(nx)}{2},$$ se puede ver que la norma de $S_n$ es $1$.

Para ver que las parejas de elementos distintas son ortogonales, tenemos varios casos. Si tomamos $n\geq 1$, el resultado para $\langle C_0,C_n\rangle$ ó $\langle C_0,S_n\rangle$ se deduce de que
$$\int_{-\pi}^\pi \cos(mx)\, dx=\int_{-\pi}^\pi \sin(mx)\, dx=0$$ para todo entero $m\neq 0$.

Si tomamos dos $C_i$’s distintos, dos $S_i’s$ distintos o un $C_i$ y un $S_i$, el resultado se deduce de las fórmulas «producto a suma» de las funciones trigonométricas.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Encuentra un conjunto ortogonal de vectores en $\mathbb{R}^4$ tal que ninguna de las entradas de ninguno de sus vectores sea igual a $0$.
  • Escribe las demostraciones de los corolarios enunciados en esta entrada.
  • Muestra que $\langle \cdot, \cdot \rangle$ definido en el ejemplo de funciones periódicas es un producto interior.
  • Termina de mostrar que la familia $\mathcal{F}$ del ejemplo de funciones periódicas es ortonormal. Sugerencia: Usa identidades de suma y resta de ángulos para poner el producto de senos (o cosenos o mixto) como una suma de senos y/o cosenos.

Más adelante…

En esta entrada combinamos las nociones de bases y el producto interior, estudiadas en entradas anteriores, para definir a las bases ortogonales. Vimos algunas propiedades de conjuntos ortogonales y ortonormales, para extenderlos a bases ortogonales y ortonormales. Vimos unos ejemplos de bases ortogonales de los polinomios y otros ejemplos de conjuntos ortogonales en funciones periódicas.

En la siguiente entrada veremos aplicaciones de estos conceptos, culminando en una descomposición de Fourier.

Entradas relacionadas

Álgebra Lineal I: Producto interior y desigualdad de Cauchy-Schwarz

[latexpage]

Introducción

Anteriormente, platicamos acerca de formas bilineales y de formas cuadráticas. Ahora veremos un tipo de formas bilineales especiales: las positivas y las positivas definidas. Las formas positivas definidas nos ayudan a definir qué es un producto interior. Esta es una noción fundamental que más adelante nos ayudará a definir distancias y ángulos.

Formas bilineales positivas y positivas definidas

Para hablar de geometría en espacios vectoriales, la siguiente noción es fundamental. Es importante notar que es una definición únicamente para formas bilineales simétricas.

Definición. Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo vector $x$ de $V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo vector $x\neq 0$ de $v$.

Tenemos una noción análoga para formas cuadráticas.

Definición. Sea $q:V\to \mathbb{R}$ una forma cuadrática con forma polar $b$. Diremos que $q$ es positiva si $b$ lo es, y diremos que es positiva definida si $b$ lo es.

Ejemplo. Como ya vimos antes, el producto punto de $\mathbb{R}^n$ es una forma bilineal simétrica. También es positiva definida, pues si tenemos $x=(x_1,\ldots,x_n)$, tenemos que $$x\cdot x = x_1^2+\ldots+x_n^2\geq 0,$$ y esta es una igualdad si y sólo si $x_1=\ldots=x_n=0$, lo cual sucede si y sólo si $x=0$.

$\square$

Ejemplo. Considera $V=\mathbb{R}_2[x]$ y consideremos la forma bilineal $b$ dada por $$b(p,q)=p(0)q(1)+p(1)q(0).$$ Esta es una forma bilineal simétrica pues \begin{align*}b(p,q)&=p(0)q(1)+p(1)q(0)\\&=q(0)p(1)+q(1)p(0)\\&=b(q,p).\end{align*} Notemos que $$b(p,p)=2p(0)p(1),$$ que no necesariamente es positivo. Por ejemplo, si tomamos el polinomio $p(x)=x-\frac{1}{2}$, tenemos que \begin{align*}b(p,p)&=2p(0)p(1)\\&=-2\cdot\frac{1}{2}\cdot\frac{1}{2}\\&=-\frac{1}{2}.\end{align*} Así, esta es una forma bilineal simétrica, pero no es positiva (y por lo tanto tampoco es positiva definida).

$\square$

Problema. Considera la forma cuadrática $Q$ en $M_{2}(\mathbb{R})$ que suma el cuadrado de las entradas de la diagonal de una matriz, es decir, aquella dada por $$Q\begin{pmatrix} a & b\\c & d\end{pmatrix}=a^2+d^2.$$ Determina su forma polar y si es positiva o positiva definida.

Solución. Para encontrar la forma polar $B$ de $Q$, usamos la identidad de polarización
\begin{align*}
B&\left(\begin{pmatrix}a&b\\c&d\end{pmatrix},\begin{pmatrix} e & f\\ g & h \end{pmatrix}\right)\\
&=\frac{(a+e)^2+(d+h)^2-a^2-e^2-d^2-h^2}{2}\\
&=\frac{2ae+2dh}{2}\\
&=ae+dh.
\end{align*}

Como $Q\begin{pmatrix}a&b\\c&d\end{pmatrix}=a^2+d^2\geq 0$, tenemos que $Q$ (y $B$) son positivas. Sin embargo, $Q$ no es positiva definida (ni $B$), pues por ejemplo, $$Q\begin{pmatrix}0&1\\1&0\end{pmatrix} = 0.$$

Producto interior

Estamos listos para definir aquellos espacios sobre los que podemos hacer geometría.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$

  • Un producto interior en $V$ es una forma bilineal simétrica y positiva definida.
  • Decimos que $V$ es un espacio Euclideano si es de dimensión finita y está equipado con un producto interior.

Estamos siguiendo la convención del libro de Titu Andreescu, en donde es importante pedir que $V$ sea de dimensión finita para ser Euclideano.

Cuando estamos hablando de espacios con producto interior, o de espacios Euclideanos, tenemos una forma bilineal simétrica y positiva definida $b$. Sin embargo, en vez de usar constantemente $b(x,y)$, para simplificar la notación usaremos simplemente $\langle x, y\rangle$.

Definición. Si $V$ es un espacio con producto interior $\langle \cdot,\cdot \rangle$, definimos la norma de un vector $x$ como $$\Vert x \Vert =\sqrt{\langle x, x \rangle}.$$

Ejemplo. Como dijimos arriba, el producto punto en $\mathbb{R}^n$ es una forma bilineal simétrica, así que es un producto interior. Como $\mathbb{R}^n$ es de dimensión finita, entonces es un espacio Euclideano.

La norma de un vector $x=(x_1,\ldots,x_n)$ está dada por $\Vert x \Vert = \sqrt{x_1^2+\ldots+x_n^2},$ y geométricamente se interpreta como la distancia de $x$ al origen.

Un ejemplo más concreto es $\mathbb{R}^4$, en donde la norma del vector $(1,2,3,1)$ es $\sqrt{1^2+2^2+3^2+1^2}=\sqrt{15}$.

$\square$

La notación de producto interior quizás te recuerde la notación que se usa cuando hablamos de dualidad. Sin embargo, es muy importante que distingas los contextos. En el caso de dualidad, tenemos $$\langle \cdot, \cdot \rangle: V^\ast\times V \to \mathbb{R},$$ y en este contexto de producto interior tenemos $$\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}.$$ Más adelante, puede que te encuentres en tu preparación matemática con el teorema de representación de Riesz, a partir del cual tendrá sentido que se use la misma notación.

Desigualdad de Cauchy-Schwarz

A continuación presentamos un resultado fundamental es espacios con formas bilineales positivas y positivas definidas.

Teorema (desigualdad de Cauchy-Schwarz). Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica y $q$ su forma cuadrática asociada.

  • Si $b$ es positiva, entonces para todo $x$ y $y$ en $V$ tenemos que $$b(x,y)^2\leq q(x)q(y).$$ Si $x$ y $y$ son linealmente dependientes, se alcanza la igualdad.
  • Además, si $b$ es positiva definida y $x$ y $y$ son linealmente independientes, entonces la desigualdad es estricta.

Demostración. Supongamos primero solamente que $b$ es positiva. Consideremos la función $f:\mathbb{R}\to \mathbb{R}$ dada por $f(t)=q(x+ty)$. Como $q$ es forma cuadrática positiva, tenemos que $f(t)\geq 0$ para todo real $t$. Por otro lado, expandiendo y usando que $b$ es simétrica, tenemos que
\begin{align*}
f(t)&=q(x+ty)\\
&=b(x+ty,x+ty)\\
&=b(x,x)+2b(x,y)\cdot t + b(y,y) \cdot t^2\\
&=q(x) + 2b(x,y)\cdot t + q(y) \cdot t^2.
\end{align*}

En esta expresión, $q(x)$, $2b(x,y)$ y $q(y)$ son reales, así que $f(t)$ es un polinomio cuadrático en $t$. Como $f(t)\geq 0$ para todo $t$ en $\mathbb{R}$, el discriminante de este polinomio es no positivo, en otras palabras, $$(2b(x,y))^2-4q(x)q(y)\leq 0.$$

Sumando $4q(x)q(y)$ y dividiendo entre $4$ ambos lados de la desigualdad, obtenemos que $$b(x,y)^2\leq q(x)q(y),$$ la cual es la desigualdad que queremos.

Si $x$ y $y$ son linealmente dependientes, podemos despejar a uno en términos del otro. Sin perder generalidad, podemos suponer que $x=\alpha y$. En este caso, $$b(\alpha y,y)^2=\alpha^2 b(y,y)=q(\alpha(y))q(y),$$ así que se da la igualdad.

Ahora, supongamos además que $b$ es positiva definida y que se da la igualdad. Si esto sucede, el discriminante del polinomio cuadrático de arriba es igual a $0$ y por lo tanto el polinomio tiene una raíz $t$. En otras palabras, $q(x+ty)=0$. Pero como $q$ es positiva definida, esto implica que $x+ty=0$, de donde $x$ y $y$ son linealmente dependientes. Así, si $x$ y $y$ son linealmente independientes, tenemos que la desigualdad es estricta.

$\square$

El siguiente caso particular es uno de los más importantes y los más usados, por lo cual amerita que lo enunciemos separadamente.

Corolario. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior $\langle \cdot, \cdot \rangle$. Para cualesquiera $x,y$ en $V$ se cumple $|\langle x, y \rangle| \leq \Vert x \Vert \cdot \Vert y \Vert$.

Puede que te preguntes por qué enfatizamos los resultados de desigualdades. En varias partes de tu formación matemática trabajarás con espacios vectoriales en donde quieres hacer cálculo. Ahí, se define la convergencia y los límites en términos de una norma. Las desigualdades que probemos para espacios vectoriales son útiles para cuando se quiere demostrar la validez de ciertos límites. Más adelante mencionaremos algunas cosas adicionales al respecto.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Considera la función $q(w,x,y,z)=wx+yz$. Muestra que es una forma cuadrática en $\mathbb{R}^4$. Encuentra su forma polar y determina si es una forma cuadrática positiva y/o positiva definida.
  • Muestra que $$q(w,x,y,z)=x^2+y^2+z^2+xy+yz+zx$$ es una forma cuadrática en $\mathbb{R}^4$ y determina si es positiva y/o positiva definida.
  • Considera $V=\mathcal{C}[0,1]$ el espacio vectorial de funciones continuas en el intervalo $[0,1]$. Muestra que $$\langle f,g\rangle = \int_0^1 f(x)g(x)\, dx$$ define un producto interior en $V$. ¿Es $V$ un espacio Euclideano? Determina la norma de la función $f(x)=x^3$.
  • Sea $V=\mathbb{R}_2[x]$ el espacio vectorial de polinomios con coeficientes reales y de grado a lo más $1$. Muestra que $$\langle p,q\rangle = p(0)q(0)+p(1)q(1)+p(2)q(2)$$ hace a $V$ un espacio Euclideano.

Más adelante…

En esta entrada definimos el concepto de producto interior y vimos cómo el producto interior induce una norma en el espacio vectorial. El concepto de norma nos permite generalizar la noción de distancia y esto nos permitirá ver cómo se puede hacer cálculo en espacios vectoriales.

En las siguientes entradas veremos cómo se define esta norma para diferentes espacios vectoriales con diferentes productos interiores. Podremos ver entonces cómo se generalizan otras nociones que ya hemos visto en cursos anteriores; como el concepto de ángulo.

Entradas relacionadas

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

[latexpage]

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en $\mathbb{R}^n$ en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial $V$ es una transformación $b:V\times V \to \mathbb{R}$ tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si $b(x,y)=b(y,x)$ para cada par de vectores $x,y$ en $V$. Una forma cuadrática de $V$ es una transformación $q:V\to \mathbb{R}$ tal que $q(x)=b(x,x)$ para alguna forma bilineal $b$.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea $q:V\to \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b:V\times V \to \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo vector $x$. Esta forma bilineal está determinada mediante la identidad de polarización $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Demostración. Tomemos una forma cuadrática $q$ de $V$. Por definición, está inducida por una forma bilineal $B$ de $V$, es decir, $q(x)=B(x,x)$. Definamos la transformación $b$ mediante $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$ Comencemos probando que $b$ es una transformación bilineal simétrica. Notemos que:
\begin{align*}
b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\
&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,y)+B(y,x)}{2}.
\end{align*}

De aquí es muy claro que $b$ es forma bilineal, pues fijando $x$, set tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $y$; y fijando $y$, se tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $x$. Además, de esta igualdad (o directo de la definición de $b$) es claro que $b(x,y)=b(y,x)$.

También de esta igualdad obtenemos que $$b(x,x)=B(x,x)=q(x).$$

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica $b’$ tal que $b'(x,x)=q(x)$ debe satisfacer, como en las cuentas que hicimos arriba, que
\begin{align*}
q(x+y)&=b'(x+y,x+y)\\
&=q(x)+q(y)+b'(x,y)+b'(y,x)\\
&=q(x)+q(y)+2b'(x,y).
\end{align*}

De aquí, despejando $b’$, se obtiene que debe tener la forma de $b$.

$\square$

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática $q$ de $V$, a la única forma bilineal simétrica $b$ de $V$ tal que $q(x)=b(x,x)$ le llamamos la forma polar de $q$.

Ejemplo. En el espacio vectorial $\mathbb{R}^n$, la transformación $q:\mathbb{R}^n\to \mathbb{R}$ dada por $$q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.$$ es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a $x=(x_1,\ldots,x_n)$ y $y=(y_1,\ldots,y_n)$ a $$b(x,y)=x_1y_1+\ldots+x_ny_n.$$

Esto coincide con la construcción dada por la identidad de polarización, ya que \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

$\square$

Ejemplo. En el espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales, la transformación $Q$ dada por $$Q(p)=p(0)p(1)+p(2)^2$$ es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización
\begin{align*}
B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\
&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\
&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\
&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).
\end{align*}

$\square$

Propiedades de formas cuadráticas

Si $q$ es una forma cuadrática, $x$ es un vector y $c$ es un real, tenemos que $q(cx)=c^2q(x)$, pues sale una $c$ por cada una de las coordenadas de la forma bilineal asociada. En particular, $q(-x)=q(x)$.

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea $q$ una forma cuadrática en $V$ con forma polar $b$. Entonces:

  • Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$b(x,y)=\frac{q(x+y)-q(x-y)}{4}.$$
  • (Ley del paralelogramo) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$q(x+y)+q(x-y)=2(q(x)+q(y)).$$
  • (Teorema de Pitágoras) Para vectores $x$ y $y$ tales que $b(x,y)=0$, se tiene que $$q(x+y)=q(x)+q(y).$$
  • (Diferencia de cuadrados) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $b(x+y,x-y)=q(x)-q(y).$

Demostración. Por la identidad de polarización tenemos que $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},$$ y como $q(y)=q(-y)$, tenemos también por la identidad de polarización que \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores $x+y$ y $x-y$, y de usar que $q(2x)=4q(x)$ y que $q(2y)=4q(y)$.

$\square$

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial $V$ de dimensión $n$, basta tomar una base $\{e_1,\ldots,e_n\}$ de $V$ y decidir los valores $b_{ij}$ de $b(e_i,e_j)$ para $1\leq i \leq j \leq n$. Como $b$ es simétrica, para $j<i$ se tendría que $b(e_i,e_j)=b(e_j,e_i)$, es decir, que $b_{ji}=b_{ij}$.

De esta forma, para todo vector $v$ en $V$ podemos encontrar el valor de $q(v)$ expresando $v$ en la base $\{e_1,\ldots,e_n\}$, digamos, $$v=a_1e_1+\ldots+a_ne_n,$$ de donde $$q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.$$

Ejemplo. Toda forma cuadrática en $\mathbb{R}^3$ se obtiene de elegir reales $a,b,c,d,e,f$ y definir $$q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.$$ La forma polar de $q$ es la forma bilineal $B$ tal que para la base canónica $e_1,e_2,e_3$ de $\matbb{R}^3$ hace lo siguiente

\begin{align*}
B(e_1,e_1)&=a\\
B(e_2,e_2)&=b\\
B(e_3,e_3)&=c\\
B(e_1,e_2)&=B(e_2,e_1)=d\\
B(e_2,e_3)&=B(e_3,e_2)=e\\
B(e_3,e_1)&=B(e_1,e_3)=f.
\end{align*}

$\square$

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como $\mathbb{R}^n$. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales $\alpha_1,\ldots, \alpha_r$ y formas lineales $l_1,\ldots,l_r$. Consideremos $$q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.$$ Se tiene que $q$ es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes $1$ y $-1$.

Teorema (clasificación de Gauss de formas cuadráticas). Sea $q$ una forma cuadrática en $\mathbb{R}^n$. Entonces, existen enteros no negativos $r$ y $s$, y formas lineares $l_1,\ldots,l_r,m_1,\ldots,m_s$ en $(\mathbb{R}^n)^\ast$, todas ellas linealmente independientes, tales que $$q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.$$

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números $r$ y $s$ en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en $\mathbb{R}^3$ dada por $q(x,y,z)=xy+yz+zx$. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que: $$xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,$$ en donde
\begin{align*}
(x,y,z)&\mapsto \frac{2x+y+z}{2},\\
(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\
(x,y,z)&\mapsto x
\end{align*}
son formas lineales linealmente independientes.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que $q(x,y)=3x^2-y^2+7y$ no es una forma cuadrática.
  • Muestra que si $\alpha_1,\ldots, \alpha_r$ son reales y tomamos formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$, entonces $$q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2$$ es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática $Q(f)=\int_{0}^1 f^2(x)\, dx$ en el espacio vectorial de funciones continuas en el intervalo $[0,1]$?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las fromas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectorias. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Entradas relacionadas