Archivo de la etiqueta: formas bilineales

Cálculo Diferencial e Integral III: Formas cuadráticas

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior hablamos de formas bilineales. A partir de esta noción podemos introducir otra más: la de formas cuadráticas. Las formas cuadráticas son cruciales, pues es a partir de ellas que podemos hacer geometría en espacios vectoriales.

Formas bilineales simétricas

Hay unas formas bilineales que son especiales pues al intercambiar los vectores argumento no cambian de valor.

Definición. Una forma bilineal $b\in B(\mathbb{R}^n)$ es simétrica si $b(\bar{u},\bar{v})=b(\bar{v},\bar{u})$ para todos los $\bar{u},\bar{v}\in \mathbb{R}^n$.

Cuando una forma bilineal es simétrica, la matriz que la representa también. En efecto, si $A$ es una representación matricial de la forma bilineal $b$ en la base $\beta$, podemos escribir: \[b(\bar{u},\bar{v})=[\bar{u}]^{t}A[\bar{v}]=\left( [\bar{u}]^{t}A[\bar{v}] \right) ^{t}=[\bar{v}]^{t}A^{t}[\bar{u}].\]

En la igualdad de en medio usamos que $[\bar{u}]^{t}A[\bar{v}] \in \mathbb{R}$ para obtener que este producto matricial es igual a su transpuesta (¿por qué?). Así pues, si $b$ es simétrica: \[ [\bar{v}]^{t}A^{t}[\bar{u}]=b\left( \bar{u},\bar{v} \right)=b\left( \bar{v},\bar{u}\right)=[\bar{v}]^{t}A[\bar{u}],\]

para todo $\bar{u},\bar{v}\in \mathbb{R}^n$. En particular, al evaluar $b(\bar{e}_i,\bar{e}_j)$ para $\bar{e}_i,\bar{e}_j$ una pareja de elementos de la base $\beta$ obtenemos que $A$ y $A^{t}$ coinciden en cualquier entrada $(i,j)$. Por lo tanto $A=A^{t}$, entonces $A$ es simétrica.

Formas cuadráticas y su forma polar

Una forma cuadrática se obtiene de evaluar una forma bilineal usando el mismo vector para ambas entradas. Formalmente, tenemos lo siguiente.

Definición. Una función $q:\mathbb{R}^n \to \mathbb{R}$ es una forma cuadrática si existe una forma bilineal $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ tal que $q(\bar{v})=b(\bar{v},\bar{v})$ para todo $\bar{v}$ en $\mathbb{R}^n$. A $q$ le llamamos la forma cuadrática asociada a $b$.

Es posible que una misma forma cuadrática pueda ser creada por dos formas bilineales distintas.

Ejemplo. Tomemos la forma bilineal $b_1((x_1,x_2),(y_1,y_2))=0$ para todos $\bar{u},\bar{v}\in \mathbb{R}^2$ y la forma bilineal $b_2((x_1,x_2),(y_1,y_2))=x_1y_2-x_2y_1$. Si $q_1$ es la forma cuadrática asociada a $b_1$ y $q_2$ es la forma cuadrática asociada a $b_2$, se tiene que $q_1((x_1,x_2))=0$ para todo $(x_1,x_2)$ en $\mathbb{R}^2$, y también se tiene que $q_2((x_1,x_2))=0$ para todo $(x_1,x_2)$ en $\mathbb{R}^2$ (verifícalo). Así, aunque $b_1\neq b_2$, se tiene que $q_1=q_2$.

$\triangle$

Si agregamos la hipótesis adicional de que la forma bilineal que se usa sea simétrica, entonces sí tenemos unicidad. De hecho, podemos saber exactamente de qué forma bilineal simétrica $b$ viene una forma cuadrática dada $q$. Este es el contenido del siguiente teorema, que se llama el teorema de la identidad de polarización.

Teorema. Si $q$ es una forma cuadrática en $\mathbb{R}^n$, entonces existe una única forma bilineal $b$ simétrica tal que $q(\bar{v})=b(\bar{v},\bar{v})$ para todo $\bar{v}\in \mathbb{R}^n$. Más aún, \[ \begin{equation} b(\bar{u},\bar{v})=\frac{1}{2}\left(q(\bar{u}+\bar{v})-q(\bar{u})-q(\bar{v})\right). \end{equation}.\]

Demostración. Haremos sólo parte de la demostración: la de la unicidad. El resto puede consultarse, por ejemplo, en la entrada Formas cuadráticas, propiedades, polarización y teorema de Gauss. Supongamos que $q$ es forma cuadrática y que viene de la forma bilineal simétrica $B$. Desarrollando el lado derecho de la ecuación tenemos

\begin{align*}
\frac{1}{2}\left( q(\bar{u}+\bar{v})-q(\bar{u})-q(\bar{v})\right) &= \frac{1}{2}\left( B(\bar{u}+\bar{v},\bar{u}+\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\&=\frac{1}{2}\left(B(\bar{u}+\bar{v},\bar{u})+B(\bar{u}+\bar{v},\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\
&=\frac{1}{2}\left(B(\bar{u},\bar{u})+B(\bar{v},\bar{u})+B(\bar{u},\bar{v})+B(\bar{v},\bar{v})-B(\bar{u},\bar{u})-B(\bar{v},\bar{v})\right)\\
&=\frac{1}{2}\left(2B(\bar{u},\bar{v})\right)=B(\bar{u},\bar{v}).
\end{align*}

Esto muestra que la expresión del teorema es la única que podría servir para obtener la forma bilineal simétrica de la que viene $q$. El resto de la demostración consiste en ver que, en efecto, la expresión propuesta es bilineal y es simétrica.

$\square$

Por el teorema de la identidad de polarización, podemos siempre suponer que una forma cuadrática viene de una forma bilineal simétrica $b$, a la que le llamaremos su forma polar.

Forma matricial de una forma cuadrática

Definición. Sea $q$ una forma cuadrática de $\mathbb{R}^n$ y $\beta$ una base de $\mathbb{R}^n$. La forma matricial de $q$ en la base $\beta$ será la forma matricial de su forma polar en la base $\beta$.

Por lo visto anteriormente, si $b$ es simétrica, se representa por una matriz simétrica $A=a_{ij}$. Así, las formas matriciales de formas cuadráticas siempre son simétricas. Para evaluar $q$, podemos hacer lo siguiente:

\begin{align*}
q(\bar{v})&=b(\bar{v},\bar{v})\\
&=[\bar{v}]^{t}A[\bar{v}]\\
&=\begin{pmatrix}x_{1} & \dots & x_{n}\end{pmatrix} \begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \dots & a_{nn} \end{pmatrix} \begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix}
\end{align*}

Desarrollando el producto obtenemos $$q(\bar{v})=a_{11}x_{1}^{2}+a_{22}x_{2}^{2}+\dots +a_{nn}x_{n}^{2}+2\sum_{i<j}a_{ij}x_{i}x_{j}.$$

Esta última ecuación en las variables $x_{i}$ se denomina el polinomio cuadrático correspondiente a la matriz simétrica $A$.

Nota que si la matriz $A$ es diagonal, entonces $q$ tendrá el siguiente polinomio cuadrático: \[ \begin{equation} q(\bar{v})=[\bar{v}]^{t}A[\bar{v}]=a_{11}x_{1}^{2}+a_{22}x_{2}^{2}+\dots +a_{nn}x_{n}^{2}. \end{equation} \]

Este es un polinomio muy sencillo: no tendrá términos con «productos cruzados».

Teorema de Gauss para formas cuadráticas

Enseguida presentamos un teorema muy importante de formas cuadráticas. Su importancia radica en que siempre deseamos simplificar los objetos que tenemos.

Teorema. Sea $b$ una forma bilineal simétrica en $V$, un espacio vectorial de dimensión finita $n$ sobre $\mathbb{R}$. Entonces $V$ tiene una base $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$ en la que $b$ se representa por una matriz diagonal, es decir, $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$.

Demostración. Procederemos por inducción sobre $n=\dim V$. Si $\dim V=1$, se cumple claramente (¿Por qué?). Por tanto, podemos suponer $\dim V>1$. Si $b=0$, también la afirmación es cierta inmediatamente, pues $b$ se representa por una matriz de puros ceros. Si $q(\bar{v})=b(\bar{v},\bar{v})=0$ para todo $\bar{v}\in V$, al escribir $b$ en su forma polar se obtiene que $b=0$ . Por esta razón se puede suponer que existe un vector $\bar{v}_{1}\in V$ tal que $b(\bar{v}_{1},\bar{v}_{1})\neq0$. Sean $U$ el subespacio generado por $\bar{v}_{1}$ y $W$ el conjunto de aquellos vectores $\bar{v}\in V$ para los que $b(\bar{v}_{1},\bar{v})=0$. Afirmamos que $V=U\oplus W$.

  1. $U\cap W=\{\bar{0} \}$. Supongamos $\bar{u}\in U\cap W$. Como $\bar{u}\in U$, $\bar{u}=k\bar{v}_{1}$ para algún escalar $k\in \mathbb{R}$. Como $\bar{u}\in W$, $0=b(\bar{v}_{1},\bar{u})=b(\bar{v}_{1},k\bar{v}_{1})=kb(\bar{v}_{1},\bar{v}_{1})$. Pero $b(\bar{v}_{1},\bar{v}_{1})\neq 0$; luego $k=0$ y por consiguiente $\bar{u}=\bar{0}$. Así $U\cap W=\{ \bar{0}\}$.
  2. Veamos que $V=U+W$. Sea $\bar{v}\in V$. Consideremos $\bar{w}$ definido como: \[ \bar{w}=\bar{v}-\frac{b(\bar{v}_{1},\bar{v})}{b(\bar{v}_{1},\bar{v}_{1})}\bar{v}_{1}.\] Entonces \[ b(\bar{v}_{1},\bar{w})=b(\bar{v}_{1},\bar{v})-\frac{b(\bar{v}_{1},\bar{v})}{b(\bar{v}_{1},\bar{v}_{1})}b(\bar{v}_{1},\bar{v}_{1})=0. \] Así $\bar{w}\in W$. Por tanto $\bar{v}$ es la suma de un elemento de $U$ y uno de $W$. Entonces se cumple $V=U+W$.
    Ahora $b$ restringida a $W$ es una forma bilineal simétrica en $W$. Pero $\dim W=n-1$, luego existe una base $\{ \bar{v}_{2},\dots ,\bar{v}_{n} \}$ de $W$ tal que $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$ y $2\leq i,j\leq n$. Por la propia definición de $W$, $b(\bar{v}_{1},\bar{v}_{j})=0$ para $j=2,\dots n$. Por tanto, la base $\{\bar{v}_{1},\dots ,\bar{v}_{n} \}$ de $V$ tiene la propiedad requerida de que $b(\bar{v}_{i},\bar{v}_{j})=0$ para $i\neq j$.

$\square$

Tenemos pues que para toda forma bilineal simétrica tenemos una representación matricial diagonal. Dicho en otras palabras, para cualquier matriz simétrica $A$ en $M_n(\mathbb{R})$, se tiene que es congruente a alguna matriz diagonal. También de aquí se tiene que para toda forma cuadrática tenemos una representación matricial diagonal.

Formas cuadráticas positivas y positivas definidas

Otra noción importante para formas cuadráticas es la siguiente.

Definición. Diremos que una forma cuadrática $q:\mathbb{R}^n\to \mathbb{R}$ es positiva si se cumple que $q(\bar{x})\geq 0$ para todo $\bar{x}\in \mathbb{R}^n$. Diremos que es positiva definida si se cumple que $q(\bar{x})>0$ para todo $\bar{x}\in \mathbb{R}^n \setminus \{\bar{0}\}$.

Si $b$ es la forma bilineal simétrica que define a $q$ y $A$ es una matriz que represente a $b$ en alguna base $\beta$, se puede ver que $q$ es positiva si y sólo si $X^{t}AX\geq 0$ para todo $X\in \mathbb{R}^n$. Así mismo, es positiva definida si y sólo si $X^{t}AX>0$ para todo $X\neq 0$ en $\mathbb{R}^n$. Esto motiva la siguiente definición para matrices.

Definición. Sea $A\in \mathbb{R}^n$ una matriz simétrica. Diremos que es positiva si se cumple que $X^{t}AX\geq 0$ para todo $X\in \mathbb{R}^n$. Diremos que es, es positiva definida si y sólo si $X^{t}AX>0$ para todo $X\neq 0$ en $\mathbb{R}^n$.

Una propiedad importante que queda como tarea moral es que la propiedad de ser positiva (o positiva definida) es invariante bajo congruencia de matrices.

Hay otras maneras de saber si una matriz es positiva, o positiva definida. De hecho, en la entrada de Matrices positivas y congruencia de matrices de nuestro curso de Álgebra Lineal II puedes encontrar la siguiente caracterización:

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $B^{t}B$ para alguna matriz $B\in M_n(\mathbb{R})$.

Hay otro resultado más que relaciona a las matrices positivas definidas con sus eigenvalores.

Teorema. Si $A$ es una matriz simétrica en $M_n(\mathbb{R})$ y es positiva definida, entonces todos sus eigenvalores son positivos.

Matriz Hessiana

Veamos cómo se aplican algunas de las ideas vistas en cálculo. Retomemos la discusión de la entrada Polinomio de Taylor para campos escalares. Hacia el final de la entrada enunciamos el teorema de Taylor en el caso especial de grado $2$. Al tomar un campo escalar $f$ y un punto $\bar{a}$, el polinomio de Taylor de grado $2$ estaba dado como sigue:

$$T_{2,\bar{a}}(\bar{a}+\bar{v})=f(\bar{a})+\frac{(\bar{v}\cdot \triangledown )f(\bar{a})}{1!}+\frac{(\bar{v}\cdot \triangledown)^{2}f(\bar{a})}{2!}.$$

Donde

$$\frac{(\bar{v}\cdot \triangledown)^{2}f(\bar{a})}{2!}=\sum_{i=1}^{n}\sum_{j=1}^n v_{i}v_{j}\frac{\partial ^{2}f}{\partial x_{j}\partial x_{i}}(\bar{a}).$$

Observa que este sumando se puede pensar como una forma cuadrática:

\[ q(\bar{v})=\begin{pmatrix}v_{1} & \dots & v_n\end{pmatrix}\begin{pmatrix} \frac{\partial ^{2}f}{\partial x_{1}^{2}}(a) & \dots & \frac{\partial ^{2}f}{\partial x_{1}\partial x_{_{n}}}(\bar{a})\\ \vdots & \ddots & \vdots \\ \frac{\partial ^{2}f}{\partial x_{_{n}}\partial x_{1}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{_{n}}^{2}}(\bar{a}) \end{pmatrix}\begin{pmatrix} v_{1} \\ \vdots \\ v_n\end{pmatrix}\]

La matriz de esta forma cuadrática tiene una importancia especial en el cálculo de varias variables, y por ello tiene su propia definición.

Definición. Sea $f$ un campo escalar definido sobre algún subconjunto abierto de $\mathbb{R}^{n}$. Si $f$ tiene derivadas parciales de segundo orden en el punto $\bar{a}$, a la siguiente matriz la llamamos la matriz hessiana de $f$ en $\bar{a}$:

\[ H_f(\bar{a})=\begin{pmatrix} \frac{\partial ^{2}f}{\partial x_{1}^{2}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{1}\partial x_{_{n}}}(\bar{a}) \\ \vdots & \ddots & \vdots \\ \frac{\partial ^{2}f}{\partial x_{_{n}}\partial x_{1}}(\bar{a}) & \dots & \frac{\partial ^{2}f}{\partial x_{_{n}}^{2}}(\bar{a})\end{pmatrix}.\]

Cuando hablemos de optimización, esta matriz tomará un significado especial. Por ahora, enfoquémonos en entender cómo obtenerla.

Ejemplo. Encontraremos la matriz Hessiana del campo escalar $f(x,y)=\sin(xy)$ en el punto $\left( 1,\frac{\pi}{4} \right)$. Para ello, calculamos las siguientes derivadas parciales de orden $1$ y $2$:

\[ \frac{\partial f}{\partial x}=y\cos(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial x^{2}}=-y^{2}\sin(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial y\partial x}=\cos(xy)-xy\sin(xy) \]

\[ \frac{\partial f}{\partial y}=x\cos(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial y^{2}}=-x^{2}\sin(xy),\hspace{0.3cm}\frac{\partial ^{2}f}{\partial x\partial y}=\cos(xy)-xy\sin(xy).\]

Por lo tanto

\[ H(x,y)=\begin{pmatrix} -y^{2}\sin(xy) &\cos(xy)-xy\sin(xy) \\ \cos(xy)-xy\sin(xy) & -x^{2}\sin(xy) \end{pmatrix}.\]

Evaluando en el punto $\left(1,\frac{\pi}{4} \right),$

\[ H\left(1,\frac{\pi}{4} \right)=\begin{pmatrix} -\frac{\pi ^{2}}{16}\frac{\sqrt{2}}{2} & \frac{\sqrt{2}}{2}\left( 1-\frac{\pi}{4}\right) \\ \frac{\sqrt{2}}{2}\left( 1-\frac{\pi}{4}\right) & -\frac{\sqrt{2}}{2} \end{pmatrix}.\]

$\triangle$

Mas adelante…

Con esto terminamos nuestro repaso de álgebra lineal, y con ello tenemos las herramientas necesarias para poder retomar nuestro estudio de las funciones en varias variables. En la siguiente entrada comenzaremos con el concepto de diferenciabilidad. A lo largo de las siguientes entradas, iremos viendo por qué las herramientas de álgebra lineal que desarrollamos son importantes.

Así mismo, cuando lleves un curso de Cálculo Diferencial e Integral IV también retomaras una parte importante de la teoría que hemos repasado.

Tarea moral

  1. Responder en la primer definición porque $[\bar{u}]^{t}A[\bar{v}]\in \mathbb{R}$.
  2. Demostrar que el espacio $W$ del último teorema es un subespacio vectorial de $V$.
  3. Explicar en la demostración del último teorema por qué éste se cumple cuando $b=0$ o $\dim V=1$.
  4. Explicar porque $\dim W=n-1$.
  5. Verifica que si una matriz $A$ es positiva definida, entonces cualquier matriz $B$ congruente a $A$ también es positiva definida.
  6. Demuestra el último teorema de esta entrada, es decir, que las matrices simétricas positivas definidas tienen eigenvalores positivos.

Entradas relacionadas

Cálculo Diferencial e Integral III: Formas lineales y formas bilineales

Por Alejandro Antonio Estrada Franco

Introducción

Hasta ahora hemos cubierto a modo de repaso varios temas de álgebra lineal relacionados con sistemas de ecuaciones lineales, transformaciones lineales, sus matrices asociadas y más. En esta y las entradas que siguen recordaremos más herramientas de álgebra lineal que serán de utilidad para nuestro contenido de diferenciabilidad. Hablaremos de las formas lineales de $\mathbb{R}^n$, de sus formas bilineales y de sus formas cuadráticas.

Como es usual, este contenido cubre sólo por encima lo que se vería en un curso completo de álgebra lineal, en donde se ahonda en varias demostraciones, se dan más ejemplos y se tratan espacios vectoriales más generales. Para estos temas en específico, las siguientes entradas pueden ser un buen punto de partida:

Formas lineales

Las formas lineales son transformaciones lineales, pero son unas muy específicas: las que caen en $\mathbb{R}$.

Definición. Una transformación lineal $\bar{\phi} :\mathbb{R}^n\to \mathbb{R}$ se le llama forma lineal o funcional lineal.

Definición. Llamaremos al espacio vectorial $\mathcal{L}(\mathbb{R}^n,\mathbb{R})$ el espacio dual de $\mathbb{R}^n$ y lo denotamos por ${\mathbb{R}^n}^\ast$.

Hay una relación directa entre las bases de $\mathbb{R}^n$ y las de ${\mathbb{R}^n}^\ast$. Como los elementos de ${\mathbb{R}^n}^\ast$ son transformaciones lineales, basta decir qué les hacen a los elementos de una base. De aquí se motiva la siguiente definición.

Definición. Tomemos una base $\beta=\{ \bar{e}_{1},\dots ,\bar{e}_{n} \}$ para $\mathbb{R}^n$. Sean $\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\in {\mathbb{R}^n}^\ast$ definidas como sigue: \[ \bar{\phi} _{i}(\bar{e}_{j})=\left\lbrace\begin{array}{c} 1\hspace{1cm}si\hspace{1cm}i=j \\ 0\hspace{1cm}si\hspace{1cm}i\neq j. \end{array}\right. \]

A $\bar{\phi} _{1},\dots ,\bar{\phi} _{n}$ le llamamos la base dual a $\beta$ y la denotamos por $\beta^\ast$.

El nombre queda justificado por el siguiente resultado.

Teorema. Se tiene que $\beta^\ast=\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ es una base para ${\mathbb{R}^n}^\ast$.

Demostración. Debemos mostrar que $\beta^\ast$ es generador e independiente. Veremos que es generador, y la independencia lineal quedará de tarea moral. Tomemos $\bar{\alpha} \in {\mathbb{R}^n}^\ast$. Supongamos que para cada $j$ se tiene $\bar{\alpha} (\bar{e}_{j})=r_{j}$. Afirmamos que $\bar{\alpha} = r_{1}\bar{\phi} _{1} +\dots +r_{n}\bar{\phi} _{n}$.

Para mostrar la igualdad anterior, que es una igualdad de formas lineales, veremos la igualdad vector a vector. Sea $\bar{v}\in \mathbb{R}^n$. Calcularemos $\bar{\alpha} (\bar{v})$. Para ello, expresamos a $\bar{v}$ como combinación de elementos de $\beta$: $$\bar{v}=\sum _{i=1}^{n}x_{i}\bar{e}_{i}.$$

Al aplicar $\alpha$ obtenemos:

\begin{align*}
\bar{\alpha} (\bar{v})&=\bar{\alpha} \left( \sum _{i=1}^{n}x_{i}\bar{e}_{i} \right)\\
&=\sum_{i=1}^{n}x_{i}\bar{\alpha} (\bar{e}_{i})\\
&=\sum_{i=1}^{n}x_{i}r_{i}\\
&=\sum_{i=1}^{n}x_{i}r_{i}\bar{\phi} _{i}(\bar{e}_{i})\\
&= \sum_{i=1}^{n}r_{i}\bar{\phi }_{i}(x_{i}\bar{e}_{i})\\
&=\sum_{i=1}^{n}r_{i}\bar{\phi} _{i}\left( \sum_{k=1}^{n}x_{k}\bar{e}_{k} \right) \quad \text{(agregando varios $0$)}\\
&=\left( r_{1}\bar{\phi} _{1}+\dots +r_{n}\bar{\phi} _{n}\right)\left( \sum_{k=1}^{n}x_{k}\bar{e}_{k}\right)\\
&=\left( r_{1}\bar{\phi} _{1}+\dots +r_{n}\bar{\phi} _{n}\right)(\bar{v})\\
\end{align*}

Así se da la igualdad $\bar{\alpha} = r_{1}\bar{\phi} _{1} +\dots +r_{n}\bar{\phi} _{n}$, por lo tanto $\beta^\ast$ es un conjunto generador ${\mathbb{R}^n}^\ast$

$\square$

De la demostración podemos obtener algo más. Supongamos que tomamos $\bar{v}\in \mathbb{R}^n$ y una base $\beta=\{\bar{e}_1,\ldots,\bar{e}_n\}$. Supongamos que $\bar{v}=\sum_{i=1}^{n}x_{i}\bar{e}_{i}$. A partir de aquí, podemos construir una forma lineal $\psi(\bar{v})$ que cumple $\psi(\bar{v})=\sum_{i=1}^n x_i \bar{\phi}_i$. Se puede verificar que la asignación $\psi: \mathbb{R}^n\to {\mathbb{R}^n}^\ast$ es un isomorfismo. De aquí, obtenemos que $\mathbb{R}^n\cong {\mathbb{R}^n}^\ast$.

Hasta ahora, de cualquier base de $\mathbb{R}^n$ se puede obtener una base dual, que es base de ${\mathbb{R}^n}^\ast$. ¿Podemos hacer lo inverso? El siguiente resultado dice que sí, si tenemos una base para ${\mathbb{R}^n}^\ast$, podemos construir una para $\mathbb{R}^n$ muy conveniente.

Teorema. Dada $\beta^\ast =\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ base para ${\mathbb{R}^n}^\ast$, existe $\beta =\{\bar{w}_{1},\dots , \bar{w}_{n}\}$ base para $\mathbb{R}^n$; tal que $\bar{\phi} _{i}(\bar{w}_{j})=\delta _{ij}$ donde: \[ \delta_{ij}= \left\lbrace\begin{array}{c} 1\hspace{1cm}si\hspace{1cm}i=j \\ 0\hspace{1cm}si\hspace{1cm}i\neq j, \end{array} \right . \]

es decir, tal que $\beta^\ast$ es justo la base dual de $\beta$.

Demostración. Para construir la base deseada, hacemos los siguientes pasos. Cada paso está esbozado. Los detalles quedan como tarea moral.

  1. Primero notemos que para cada $i=1,\dots ,n$ se tiene, por el teorema de la dimensión, que:
    \begin{align*}
    n&=\dim\mathbb{R}^n\\
    &=\dim(\ker(\bar{\phi}_{i}))+\dim(\text{Im}(\bar{\phi} _{i}))\\
    &=\dim(\ker(\bar{\phi}_{i}))+1,
    \end{align*}
    en donde usamos que $\bar{\phi}_i$ es forma lineal no cero (por estar en una base), de donde su imagen tiene dimensión $1$. De aquí $\dim(\ker(\bar{\phi} _{i}))=n-1$. Si tomamos una base de $\ker(\bar{\phi}_i)$, tiene $n-1$ elementos y por lo tanto podemos completarla a una base de $\mathbb{R}^n$ agregando un cierto vector $\bar{v}_i$.
  2. Afirmamos que $\bar{v}_1,\bar{v}_2,\ldots,\bar{v}_n$ elegidos de la manera anterior son un conjunto linealmente independiente. En efecto, al tener una combinación lineal $$\alpha_1\bar{v}_1+\ldots + \alpha_n\bar{v}_n=\bar{0},$$ podemos para cada $i=1,\ldots,n$ aplicar $\bar{\phi}_i$ a ambos lados. Del lado izquierdo se eliminarán todos términos excepto $\alpha_i\bar{\phi}_i(\bar{v}_i)$. Como $\bar{\phi}_i(\bar{v}_i)\neq 0$, entonces $\alpha_i=0$ para todo $i=1,\ldots,n$. Como $\bar{v}_1,\ldots,\bar{v}_n$ son linealmente independientes, y son $n$, entonces son una base de $\mathbb{R}^n$.
  3. Ahora, pensemos que $\bar{\phi}_i(\bar{v}_i)=r_i\neq 0$. Podemos dividir entre $r_i$ para obtener $\bar{\phi}_i\left(\frac{\bar{v}_i}{r_i}\right)=1$.
  4. De todo lo anterior, $\{\bar{v}_{1}/r_{1},\dots ,\bar{v}_{n}/r_{n} \}$ es la base buscada.

$\square$

A la base conformada por los vectores $\bar{w}_1,\ldots,\bar{w}_n$ le llamamos la base primal de $\beta^\ast$.

En estos dos teoremas hemos desarrollado técnicas para construir bases para un espacio y su dual que se coordinan haciendo simples las evaluaciones de las funciones de la base dual sobre las de la base del espacio original. Entre estas dos bases para el espacio y su dual tenemos un par de ecuaciones que las correlacionan muy convenientemente.

Teorema. Sean $\{ \bar{v}_{1},\dots \bar{v}_{n}\}$ una base de $\mathbb{R}^n$ y $\{ \bar{\phi} _{1},\dots \bar{\phi} _{n} \}$ la base dual de ${\mathbb{R}^n}^\ast$. Para todo $\bar{u}\in \mathbb{R}^n$ tenemos $$\bar{u}=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\bar{v}_{i}, $$ y para todo $\Phi \in {\mathbb{R}^n}^\ast$ tenemos $$\Phi =\sum_{i=1}^n\Phi (\bar{v}_{i})\bar{\phi} _{i}.$$

Demostración. Sea $\bar{u}\in \mathbb{R}^n$, supongamos $\bar{u}=\sum_{i}x_{i}\bar{v}_{i}$. Para cada $j$ entre $1$ y $n$, tenemos
\begin{align*}
\bar{\phi} _{j}(\bar{u})&=\sum_{i=1}^n x_{i}\bar{\phi} _{j}(\bar{v}_{i})\\
&=x_{j}\bar{\phi} _{j}(\bar{v}_{j})\\
&=x_{j}.
\end{align*}

De esta manera $x_{j}=\bar{\phi} _{j}(\bar{u})$, por tanto obtenemos $\bar{u}=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\bar{v}_{i}$.

De manera similar, sea $\Phi \in {\mathbb{R}^n}^\ast$, supongamos $\Phi =\sum_{i}y_{i}\bar{\phi} _{i}$. Para cada $j$ entre $1$ y $n$, tenemos
\begin{align*}
\Phi (\bar{v}_{j})&=\sum_{i=1}^n y_{i}\bar{\phi} _{i}(\bar{v}_{j})\\
&=y_{j}\bar{\phi} _{j}(\bar{v}_{j})\\
&=y_{j}.
\end{align*}

Así hemos obtenido $\Phi (\bar{v}_{j})=y_{j}$, con lo que concluimos $\Phi = \sum_{i=1}^n \Phi (\bar{v}_{i})\bar{\phi} _{i}$.

$\square$

Formas bilineales

Este desarrollo teórico nos permite abordar las formas bilineales tal y como las usaremos mas adelante.

Definición. Sea $\mathbb{R}^n$ un espacio vectorial sobre $\mathbb{R}$. Una forma bilineal es una función $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ que satisface:

  1. $b(r\bar{u}_{1}+\bar{u}_{2},\bar{v})=rb(\bar{u}_{1},\bar{v})+b(\bar{u}_{2},\bar{v})$ para todo real $r$ y vectores $\bar{u}_1,\bar{u}_2,\bar{v}$ en $\mathbb{R}^n$, a lo que llamamos linealidad en la primera entrada.
  2. $b(\bar{u},r\bar{v}_{1}+\bar{v}_{2})=rb(\bar{u},\bar{v}_{1})+b(\bar{u},\bar{v}_{2})$ para todo real $r$ y vectores $\bar{v}_1,\bar{v}_2,\bar{u}$ en $\mathbb{R}^n$ a lo que llamamos linealidad en la segunda entrada.

Ejemplo. Sea $A\in M_n\left( \mathbb{R}\right)$. A partir de la matriz $A$ puede construirse una forma bilineal $b_{A}$ sobre $\mathbb{R}^{n}$. Para los vectores $\bar{x}=(x_{1},\dots ,x_{n})$ y $\bar{y}=(y_{1},\dots ,y_{n})$, queda definida como sigue

$$b_{A}(\bar{x},\bar{y})=\bar{x}^{T}A\bar{y}.$$

Realizando las cuentas matriciales, tenemos:

\begin{align*}
b_{A}(\bar{x},\bar{y})&=\begin{pmatrix}x_{1}\dots x_{n}\end{pmatrix} \begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \dots & a_{nn} \end{pmatrix}\begin{pmatrix}y_{1} \\ \vdots \\ y_{n} \end{pmatrix}\\
&=\sum_{i,j=1}^{n}x_{i}a_{ij}y_{j}.
\end{align*}

Queda como tarea moral verificar que $f_{A}$ en efecto es bilineal, lo que se recomienda verificar en la expresión $\bar{x}^{T}A\bar{y}$.

Un ejemplo todavía más concreto sería tomar la matriz $A=\begin{pmatrix} 2 & 5 \\ 3 & 4 \end{pmatrix}$. Al realizar las cuentas matriciales obtenemos:

$$\begin{pmatrix} x_1 & x_2 \end{pmatrix}\begin{pmatrix} 2 & 5 \\ -3 & 4 \end{pmatrix} \begin{pmatrix} y_1 \\ y_2 \end{pmatrix} = 2x_1y_1 + 5x_1y_2 – 3x_2y_1 + 4 x_2y_2.$$

$\triangle$

El espacio de formas bilineales

Denotaremos por $B(\mathbb{R}^n)$ al conjunto de las formas bilineales en $\mathbb{R}^n$. Le damos a $B(\mathbb{R}^n)$ estructura de espacio vectorial con las operaciones siguientes: $$(b_1+b_2)(\bar{u},\bar{v})=b_1(\bar{u},\bar{v})+b_2(\bar{u},\bar{v}),$$ y $$(rb)(\bar{u},\bar{v})=rb(\bar{u},\bar{v}),$$ para todos los $b_1,b_2,b\in B(\mathbb{R}^n)$ y $r\in \mathbb{R}$.

Con la teoría que tenemos hasta ahora, podemos construir fácilmente una base para el espacio $B(\mathbb{R}^n)$.

Teorema. Sea $\{\bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ una base del espacio dual ${\mathbb{R}^n}^\ast$. Entonces $$\mathbb{B}=\{b_{ij}|i,j=1,\dots ,n \}$$ es una base para $B(\mathbb{R}^n)$, donde $$b_{ij}(\bar{u},\bar{v})=\bar{\phi} _{i}(\bar{u})\bar{\phi} _{j}(\bar{v}).$$ De este modo $\dim B(\mathbb{R}^n)=n^{2}$.

Demostración. Para $\{ \bar{\phi} _{1},\dots ,\bar{\phi} _{n}\}$ podemos construir su base primal $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$,es decir, base de $\mathbb{R}^n$ tal que $\bar{\phi} _{i}(\bar{v}_{j})=\delta _{ij}$, para todo $i,j$.

Veamos que las formas bilineales propuestas en efecto son un conjunto generador. Sea $b\in B(\mathbb{R}^n)$. Para $\bar{u},\bar{v}$ arbitrarios en $\mathbb{R}^n$, calculemos $b(\bar{u},\bar{v})$. Para ello recordemos que $$\bar{u}=\sum_{i=1}^n\bar{\phi}_{i}(\bar{u})\bar{v}_{i}$$ y $$\bar{v}=\sum_{j=1}^n\bar{\phi} _{j}(\bar{v})v_{ij}.$$ Usando esto:

\begin{align*}
b(\bar{u},\bar{v})&=b\left( \sum_{i=1}^n\phi _{i}(\bar{u})\bar{v}_{i}, \sum_{j=1}^n\bar{\phi} _{j}(\bar{v})\bar{v}_{j} \right)\\
&=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})b\left( \bar{v}_{i}, \sum_{j=1}^n\bar{\phi} _{j}(\bar{v})\bar{v}_{j} \right)\\
&=\sum_{i=1}^n\bar{\phi} _{i}(\bar{u})\sum_{j=1}^n\bar{\phi} _{j}(\bar{v})b(\bar{v}_{i}, \bar{v}_{j})\\
&=\sum_{i=1}^n\sum_{j=1}^n\bar{\phi} _{i}(\bar{u})\bar{\phi} _{j}(\bar{v})b(\bar{v}_{i}, \bar{v}_{j})\\
&=\sum_{i=1}^n\sum_{j=1}^n b_{ij}(\bar{u},\bar{v})b(\bar{v}_{i},\bar{u}_{j}).
\end{align*}

Así vemos que $b$ es combinación lineal del conjunto $\mathbb{B}$. Concluimos que $\mathbb{B}$ es un conjunto generador de $B(\mathbb{R}^n)$. Para calcular la dimensión de $B(\mathbb{R}^n)$, falta todavía ver que $\mathbb{B}$ es linealmente independiente, lo cual queda como tarea moral (en la lista de ejercicios hay una sugerencia). Tras probar que $\mathbb{B}$ es linealmente independiente, se tiene que $\dim B(\mathbb{R}^n)=n^{2}$.

$\square$

Forma matricial de formas bilineales

En el ejemplo anterior vimos cómo a partir de una matriz $A$ podemos construir una forma bilineal $(\bar{x},\bar{y})\to \bar{x}^T A \bar{y}$ de $\mathbb{R}^n$. En realidad así se pueden obtener todas las formas bilineales.

Definición. Consideremos una forma bilineal $b:\mathbb{R}^n\times \mathbb{R}^n \to \mathbb{R}$. Tomemos una base $\beta=\{\bar{u}_1,\ldots ,\bar{u}_n\}$. Tomemos la matriz $\text{Mat}_\beta(b)$ en $M_n(\mathbb{R})$ cuya entrada $(i,j)$ es $f(\bar{u}_{i},\bar{v}_{j})$. Llamaremos a esta matriz la representación matricial de $f$ relativa a la base $\beta$.

La matriz $A:=\text{Mat}_\beta(b)$ representa a $f$ en el siguiente sentido. Se tiene que, para cualesquiera $\bar{u},\bar{v}$ en $\mathbb{R}^n$ se cumple que si los vectores de coordenadas de $\bar{u}$ y $\bar{v}$ en la base $\beta$ son $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$, entonces:

\begin{align*}
b(\bar{u},\bar{v})&=\sum_{i=1}^n\sum_{j=1}^n x_{i}y_{j}b(\bar{u}_{i},\bar{u}_{j})\\
&=\begin{pmatrix} x_{1} & \dots & x_{n}\end{pmatrix}A\begin{pmatrix}y_{1} \\ \vdots \\ y_{n} \end{pmatrix}\\
&=X^{T}A Y.
\end{align*}

Ejemplo. Tomemos la forma bilineal $b$ de $\mathbb{R}^2$ dada por $$b((x_1,x_2),(y_1,y_2))=5x_1y_2+3x_2y_1$$ (verifica que es forma bilineal). Tomemos la base $(1,1)$ y $(1,-1)$ de $\mathbb{R}^2$. Para encontrar la representación matricial de $b$ en esta base, debemos hacer los siguientes cálculos:

\begin{align*}
b((1,1),(1,1))&=8\\
b((1,1),(1,-1))&=-2\\
b((1,-1),(1,1))&=2\\
b((1,-1)(1,-1))&=-8\\
\end{align*}

De esta manera, la representación matricial es $$\begin{pmatrix} 8 & -2 \\ 2 & -8 \end{pmatrix}.$$

$\triangle$

Matrices congruentes y rango

Recordemos dos definiciones más.

Definición. El rango de una matriz es el número máximo de columnas (tratadas como vectores columna) linealmente independientes. La notación para una matriz $A$ será $\rank(A)$.

Definición. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se dice que $B$ es congruente a $A$ si existe una matriz invertible $P$ tal que $B=P^{t}AP$.

Es sencillo mostrar que esta relación «es congruente a» es una relación de equivalencia, lo cual queda como tarea moral revisar.

Por resultados de rango de matrices, se cumple que el rango de una matriz no cambia si la multiplicamos por una matriz invertible. Si $A$ y $B$ son congruentes mediante la matriz $P$, tenemos que $B=P^t A P$. Como $P$ es invertible, $P^t$ también. Así, $B$ tiene el mismo rango que $A$.

Al igual que con las transformaciones lineales, la representación matricial de las formas bilineales depende de la base del espacio dominio que se considere. Pero tenemos una relación importante entre distintas representaciones matriciales de formas bilineales.

Teorema. Cualesquiera dos representaciones matriciales de una misma forma bilineal son congruentes.

Demostración. Consideremos $b:\mathbb{R}^n\times \mathbb{R}^n\to \mathbb{R}$ una forma bilineal. Tomemos $\beta=\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$ y $\beta’=\{\bar{u}_{1},\dots ,\bar{u}_{n}\}$ dos bases para $\mathbb{R}^n$. Supongamos que para cada $i$ tenemos $$\bar{v}_{i}=\sum_{k=1}^{n}c_{ik}\bar{u}_{k}.$$

Así:
\begin{align*}
b(\bar{v}_{i},\bar{v}_{j})&=b\left( \sum_{k=1}^{n}c_{ik}\bar{u}_{k},\sum_{t=1}^{n}c_{jt}\bar{u}_{t} \right)\\
&=\sum_{k=1}^n\sum_{t=1}^n c_{ik}c_{jt}b(\bar{u}_{k},\bar{u}_{t}).
\end{align*}

Definamos $a’_{kt}=b(\bar{u}_{k},\bar{u}_{t})$, y tomemos $A’$ como la matriz en $M_n(\mathbb{R})$ cuya entrada $(k,t)$ es $a’_{kt}$. Tenemos entonces:

\[b(\bar{v}_{i},\bar{v}_{j})=\begin{pmatrix}c_{i1} & \dots & c_{in} \end{pmatrix}A’\begin{pmatrix}c_{j1} \\ \vdots \\ c_{jn} \end{pmatrix}. \]

Definamos a la matriz $C$ en $M_n(\mathbb{R})$ a aquella con entradas $(k,t)$ iguales a $c_{kt}$. Al variar sobre los posibles valores de $(i,j)$, la igualdad anterior nos dice que la entrada $(i,j)$ de la forma matricial $A$ de $b$ en la base $\beta$ es igual a la entrada $(i,j)$ de la matriz $C^tA’C$, en donde notamos que $A’$ es la forma matricial de $b$ en la base $\beta’$. Esto nos dice que $A=C^{t}A’C$. Así $A$ y $A’$ son congruentes.

$\square$

Con esto, podemos establecer la siguiente definición sin ambigüedades.

Definición. El rango de una forma bilineal $b$ en $\mathbb{R}^n$, escrito $\rank(b)$ se define como el rango de cualquiera de sus representaciones matriciales. Además decimos que $b$ es degenerada o no degenerada según sea $\rank(b)<\dim\mathbb{R}^n$ o $\rank(b)=\dim\mathbb{R}^n$, respectivamente.

Más adelante…

Esta entrada repasa los conceptos de formas lineales y bilineales. La siguiente entrada será nuestra última entrada de repaso de álgebra lineal. Lo que haremos es recordar cómo a partir de las formas bilineales podemos definir a las formas cuadráticas. Las formas cuadráticas también nos ayudarán a establecer ciertas propiedades de funciones al combinarlas con la noción de diferenciabilidad.

En esta entrada hablamos del rango de una matriz. Más adelante retomaremos este concepto, y lo usaremos cuando enunciemos el teorema del rango, un resultado crucial en diferenciabilidad.

Tarea moral

  1. Realiza los siguientes dos problemas:
    • Encuentra la base dual de la base $\{(1,2,3),(3,2,1),(1,-1,0)\}$ de $\mathbb{R}^3$ explícitamente.
    • Encuentra una base de $\mathbb{R}^3$ cuya base dual sean las formas lineales $l_1(x,y,z)=x$, $l_2(x,y,z)=3x-2$, $l_3(x,y,z)=x+y-z$.
  2. Completa los detalles en cada paso del teorema que nos dice cómo obtener una base primar para una base dual.
  3. En el teorema de bases para el espacio de formas bilineales, verifica que el conjunto de formas lineales propuestas es linealmente independiente. Sugerencia. Toma una combinación lineal igual a cero; luego evalúa en los vectores de la base $\{\bar{v}_{1},\dots ,\bar{v}_{n}\}$. Recuerda la definición de $b_{ij}$ y el efecto de evaluar $\bar{\phi} _{j}$ en $\bar{v}_{i}$.
  4. Revisa este enlace correspondiente al curso de Álgebra Lineal I de este blog para profundizar en el tema del rango de una transformación lineal y cómo se relaciona con el rango de una matriz.
  5. Demuestra que la relación «es congruente a» es una relación de equivalencia en $M_n(\mathbb{R})$.

Entradas relacionadas

Álgebra Lineal II: Dualidad y representación de Riesz en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

En Álgebra Lineal I introdujimos el concepto de espacio dual, a grandes rasgos, era el espacio vectorial donde estaban todas las formas lineales de un espacio hacia su campo. Por otro lado, en entradas recientes hicimos un recordatorio de qué era un producto interior. Lo que haremos ahora es relacionar ambos conceptos. Esta relación no debería ser tan inesperada, pues un producto interior es una forma bilineal, y al fijar una entrada de este obtenemos una forma lineal.

Lo primero que haremos es ver cómo conectar la matriz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».

Nos enfocaremos únicamente a los resultados en el caso real. Los casos en el caso complejo son muy parecidos, y se exploran en los ejercicios.

La matriz de una transformación que «crea» formas lineales

Sea $V$ un espacio vectorial real con una forma bilineal $b$. A partir de $b$ podemos construir muchas formas lineales, a través de la función $\varphi_b:V\to V^\ast$ que asigna a cada vector $y$ de $V$ a la forma lineal $\varphi_b(y):=b(\cdot,y)$.

Podemos pensar a $\varphi_b$ como «una maquinita que genera formas lineales» que depende del vector $b$. Claramente $\varphi_b(y)$ es lineal, pues $b$ es lineal en su primera entrada. Y también claramente $\varphi_b$ es lineal, pues $b$ es lineal en su segunda entrada. En cierto sentido, la matriz correspondiente a la forma bilineal $b$ coincide con la matriz correspondiente a $\varphi_b$.

Proposición. Sea $\beta$ una base de un espacio vectorial $V$ de dimensión finita sobre los reales. Sea $\beta^\ast$ su base dual. Tomemos $b$ una forma bilineal en $V$. La matriz de $\varphi_b$ con respecto a las bases $\beta$ y $\beta’$ es igual a la matriz de $b$ con respecto a la base $\beta$.

Demostración. Llamemos a los elementos de la base $\beta$ como $u_1,\ldots,u_n$ y a los de la base $\beta^ \ast$ como $l_1,\ldots,l_n$. Para encontrar la $j$-ésima columna de la matriz de $\varphi_b$ con respecto a $\beta$ y $\beta^\ast$, debemos expresar a cada $\varphi_b(u_j)$ como combinación lineal de los elementos $l_1,\ldots,l_n$. Para hacer esto, es más sencillo ver cómo es $\varphi_b(u_j)(x)$ para cada $x\in V$ y usar que los $l_i$ «leen» las coordenadas en la base $\beta$.

Para ello, tomemos $x=\sum_{i=1}^nu_ix_i$. Tenemos lo siguiente:

\begin{align*}
\varphi_b(u_j)(x)&=b(\sum_{i=1}^nu_ix_i,u_j)\\
&= \sum_{i=1}^nx_ib(u_i,u_j)\\
&= \sum_{i=1}^n l_i(x) b(u_i,u_j).
\end{align*}

Como esto sucede para cada vector $x$, tenemos entonces que $$\varphi_b(u_j)=\sum_{i=1}^n b(u_i,u_j) l_i.$$

Pero esto es justo lo que queremos. Las entradas de la $j$-ésima columna de la matriz que representa a $\varphi_b$ son entonces los coeficientes $b(u_1,u_j),b(u_2,u_j),\ldots,b(u_n,u_j)$. Pero esas son justo las entradas de la $j$-ésima columna de la matriz que representa a $b$ en la base $\beta$.

$\square$

Teorema de representación de Riesz

La sección anterior explica cómo de una forma bilineal $b$ podemos obtener una «máquinita» que genera formas lineales $\varphi_b$. Si $b$ es mucho más especial (un producto interior), entonces esta maquinita es «más potente», en el sentido de que puede generar cualquier forma lineal del espacio. A este resultado se le conoce como el teorema de representación de Riesz. Aunque sus versiones más generales incluyen ciertos espacios de dimensión infinita, y el enunciado dice algo más general, en este curso nos limitaremos a enunciar y demostrar la versión en espacios vectoriales de dimensión finita.

Teorema (teorema de representación de Riesz). Sea $V$ un espacio euclidiano con producto interno $\langle \cdot, \cdot \rangle$. La función $\varphi_{\langle \cdot, \cdot \rangle}: V \rightarrow V^\ast$ es un isomorfismo.

Demostración. Debemos probar que $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal biyectiva hacia $V^\ast$. Como mencionamos en la sección anterior, cada $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es una forma lineal pues el producto interior es lineal en su primera entrada. Además, $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal pues el producto interior es lineal en su segunda entrada.

Por los resultados que se vieron en el curso de Álgebra Lineal I, se tiene que $\dim V = \dim V^\ast$. De esta manera, basta ver que $\varphi_{\langle\cdot,\cdot \rangle}$ es inyectiva. Y para ello, basta ver que el único vector $y$ tal que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero es $y=0$.

Supongamos entonces que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero. Si este es el caso, entonces para cualquier $x$ en $V$ tendríamos que $\langle x, y \rangle = 0$. En particular, esto sería cierto para $x=y$, de modo que $\langle y, y \rangle =0$. Pero como el producto interior es positivo definido, esto implica que $y=0$.

Esto muestra que $\varphi_{\langle \cdot, \cdot \rangle}$ es inyectiva. Como es transformación lineal entre espacios de la misma dimensión, entonces es biyectiva.

$\square$

Ejemplo de representación de Riesz

Las operaciones que se hacen para calcular una forma lineal no siempre son sencillas. Lo que nos dice el teorema de representación de Riesz es que podemos tomar un «vector representante» de una forma lineal para que evaluarla corresponda «simplemente» a hacer un producto interior. Si es fácil hacer ese producto interior, entonces podemos simplificar la evaluación de la forma lineal.

Ejemplo. Tomemos $V$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $2$. Hemos visto con anterioridad que $\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}$ dado por: $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2) $$ es un producto interior.

Hemos visto también que $I:V\to \mathbb{R}$ dada por $I(p)=\int_0^1 p(x)\, dx$ es una forma lineal. El teorema de representación de Riesz nos garantiza que $I$, que es una integral definida, debería poder «representarse» como el producto interior con un polinomio especial $q$. Esto parecen ser buenas noticias: para $I(p)$ necesitamos hacer una integral. Para hacer el producto interior, sólo son unas multiplicaciones y sumas.

El polinomio «mágico» que funciona en este caso es el polinomio $q(x)=-\frac{x^2}{2}+\frac{3}{4}x+\frac{5}{12}$. Puedes verificar que:

\begin{align*}
q(0)&=\frac{5}{12}\\
q(1)&=\frac{2}{3}\\
q(2)&=-\frac{1}{12}.
\end{align*}

De esta manera, si hacemos el producto interior con cualquier otro polinomio $p(x)=ax^2+bx+c$ obtenemos:

\begin{align*}
\langle p, q \rangle &= p(0)q(0) + p(1)q(1)+p(2)q(2)\\
&= c\cdot \frac{5}{12} + (a+b+c)\cdot \frac{2}{3} + (4a+2b+c) \cdot \left(-\frac{1}{12}\right)\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

Si por otro lado hacemos la integral, obtenemos:

\begin{align*}
\int_0^1 ax^2 + bx + c \, dx &= \left. \left(\frac{ax^3}{3}+\frac{bx^2}{2}+cx \right)\right|_0^1\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

En ambos casos se obtiene lo mismo.

$\triangle$

Se podría tener una discusión más profunda para explicar cómo se obtuvo el polinomio $q$ del ejemplo anterior. Sin embargo, dejaremos la experimentación de esto para los ejercicios. Por ahora, la mayor ventaja que le encontraremos al teorema de representación de Riesz es la garantía teórica de que dicho vector que representa a una forma lineal dado un producto interior siempre existe en los espacios euclideanos.

Más adelante…

Hemos enunciado y demostrado una versión del teorema de Riesz para espacios euclieanos. Este teorema tiene versiones más generales en el contexto de espacios de Hilbert. Así mismo, una versión más extensa del teorema de Riesz nos dice cómo es la norma del vector que representa a un producto interior. Estos resultados son muy interesantes, pero quedan fuera del alcance de este curso. Es posible que los estudies si llevas un curso de análisis funcional.

Un poco más adelante, en la Unidad 3, usaremos el teorema de representación de Riesz para definir a las transformaciones adjuntas, a las simétricas y a las ortogonales. Por ahora, nos enfocaremos en estudiar más definiciones y propiedades en espacios euclideanos. La siguiente definición que repasaremos es la de ortogonalidad para vectores y para espacios vectoriales. Es un concepto que se estudia por encima en Álgebra Lineal I, pero ahora tenemos herramientas para poder decir más.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a $\varphi_b: V \rightarrow V^*$ en la otra entrada? Es decir, como la función tal que $\varphi_b(x)=b(x,\cdot)$? Si hacemos esto, ¿cambian en algo los resultados que vimos?
  2. Considera el espacio vectorial de matrices en $M_n(\mathbb{R})$. Anteriormente vimos que $b(A,B)=\text{tr}(\text{ }^t A B)$ es un producto interior y que sacar traza es una forma lineal. De acuerdo al teorema de representación de Riesz, debe haber una matriz $T$ que representa a la traza, es decir, tal que $\text{tr}(A)=b(A,T)$. ¿Quién es esta matriz $T$? Ahora, si tomamos la transformación que manda una matriz $A$ a la suma de las entradas en su antidiagonal, esto también es una forma lineal. ¿Quién es la matriz que representa a esta forma lineal con el producto interior dado?
  3. Enuncia y demuestra un teorema de igualdad de formas matriciales para el caso de formas sesquilineales. ¿Necesitas alguna hipótesis adicional?
  4. Enuncia y demuestra un teorema de representación de Riesz para espacios hermitianos. Deberás tener cuidado, pues el vector que representa a una forma lineal tendrá que estar en la coordenada que conjuga escalares. ¿Por qué?
  5. ¿Será cierto el teorema de representación de Riesz si la forma bilineal no es un producto interior? Identifica dónde falla la prueba que dimos. Luego, construye un contraejemplo para ver que la hipótesis de que $b$ sea positiva definida es fundamental. Es decir, encuentra un espacio vectorial $V$ real con una forma bilineal simétrica y positiva $b$, en donde exista una forma lineal $l$ tal que sea imposible encontrar un vector $y$ tal que para todo $x$ en $V$ se tenga que $l(x)=b(x,y)$. Sugerencia. Parace que hay muchos cuantificadores. Intenta dar un contraejemplo lo más sencillo posible, por ejemplo, en $\mathbb{R}^2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si $A$ es una matriz de $m\times n$, su transpuesta $^tA$ es la matriz de $n\times m$ que se obtiene de reflejar a las entradas de $A$ en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos $A=[a_{ij}]$, entonces $^tA=[a_{ji}]$. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y $^tA = A^{-1}$. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si $A$ es una matriz de $n\times n$ con entradas reales y simétrica, entonces:

  • Sus eigenvalores $\lambda_1,\ldots,\lambda_n$ (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal $P$ de $n\times n$ y con entradas reales tal que si tomamos a $D$ la matriz diagonal de $n\times n$ cuyas entradas en la diagonal principal son $\lambda_1,\ldots,\lambda_n$, entonces $$A=P^{-1}DP.$$

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si $A=P^{-1}DP$ como en el teorema anterior, entonces
\begin{align*}
A^2&=(P^{-1}DP)(P^{-1}DP)\\
&=P^{-1}DDP\\
&=P^{-1}D^2P,
\end{align*}

y de manera inductiva se puede probar que $A^k=P^{-1}D^kP$. Elevar la matriz $D$ a la $k$-ésima potencia es sencillo, pues como es una matriz diagonal, su $k$-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la $k$.

Problema. Sea $A$ una matriz de $n\times n$ simétrica y de entradas reales. Muestra que si $A^k = O_n$ para algún entero positivo $k$, entonces $A=O_n$.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de $A$. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como $A$ es simétrica y de entradas reales, entonces sus eigenvalores $\lambda_1,\ldots, \lambda_n$ son reales y es diagonalizable. Digamos que su diagonalización es $P^{-1} D P$. Tenemos que $$O_n = A^k = P^{-1} D^k P.$$ Multiplicando por la matriz $P$ a la izquierda, y la matriz $P^{-1}$ a la derecha, tenemos que $D^k=O_n$. Las entradas de $D^k$ son $\lambda_1^k,\ldots,\lambda_n^k$, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, $$\lambda_1=\ldots=\lambda_n=0.$$

Concluimos que $D=O_n$, y que por lo tanto $A=P^{-1} O_n P = O_n$.

$\square$

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz $$A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.$$ Calcula las primeras potencias de $A$ a mano. Conjetura y muestra cómo es $A^n$ en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el $n$-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz $A$ obtenemos:

\begin{align*}
A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\
A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\
A^3&=\begin{pmatrix} 1 & 2 \\ 2& 3 \end{pmatrix},\\
A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\
A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.
\end{align*}

Al parecer, en las entradas de $A$ van apareciendo los números de Fibonacci. Seamos más concretos. Definimos $F_0=0$, $F_1=1$ y para $n\geq 0$ definimos $$F_{n+2}=F_{n}+F_{n+1}.$$ La conjetura es que para todo entero $n\geq 1$, se tiene que $$A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.$$

Esto se puede probar por inducción. Arriba ya hicimos el caso $n=1$. Supongamos la conjetura cierta hasta un entero $n$ dado, y consideremos la matriz $A^{n+1}$. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

\begin{align*}
A^{n+1}&=AA^n\\
& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\
&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\
&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.
\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz $A$ es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de $A$. Su polinomio característico es $$\begin{vmatrix} \lambda & -1 \\ – 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.$$

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de $A$) son $$\frac{1\pm \sqrt{5}}{2}.$$ Por el momento, para simplificar la notación, llamemos $\alpha$ a la de signo más y $\beta$ a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible $P$ de $2\times 2$ tal que $$A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.$$

De esta forma, $$A^n = P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.$$

Aquí no es tan importante determinar concretamente $P$ ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de $\alpha^n$ y $\beta^n$ y de que los coeficientes de esta combinación lineal ya no dependen de $n$, sino sólo de las entradas de $P$. En particular, la entrada superior derecha de $A^n$ por un lado es $F_n$, y por otro lado es $r\alpha^n + s\beta ^n$.

¿Cómo obtenemos los valores de $\alpha$ y $\beta$? Basta substituir $n=1$ y $n=2$ para obtener un sistema de ecuaciones en $\alpha$ y $\beta$. Aquí abajo usamos que como $\alpha$ y $\beta$ son raíces de $x^2-x-1$, entonces $\alpha^2=\alpha+1$, $\beta^2=\beta+1$ y $\alpha+\beta = 1$.

$$\begin{cases}
1= F_1 = r \alpha + s \beta \\
1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.
\end{cases}$$

De aquí, obtenemos la solución
\begin{align*}
r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\
s&=-r = -\frac{1}{\sqrt{5}}.
\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es $$F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n – \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.$$

$\square$

Matrices positivas y positivas definidas

Por definición, una matriz simétrica $A$ de $n\times n$ con entradas reales es positiva si para cualquier vector (columna) $v$ en $\mathbb{R}^n$ se tiene que $$^t v A v \geq 0.$$ Aquí $^tv$ es la transposición de $v$, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector $v=0$, entonces decimos que $A$ es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz $A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix},$ pues para cualquier vector $v=(x,y)$ se tiene que $$^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.$$ Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como $(1,1)$. Como puedes verificar, un ejemplo de matriz positiva definida es $$B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.$$

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en $\mathbb{R}^n$. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Hay un resultado análogo para cuando se quiere determinar si una matriz $A$ es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos $3$ y $4$ se necesita además que $B$ y $C$ sean invertibles.

Problema. Sea $A$ una matriz de $n\times n$ con entradas reales, simétrica y positiva. Muestra que si $$\text{tr}(A) = n \sqrt[n]{\det(A)},$$ entonces $A$ conmuta con cualquier matriz de $n\times n$.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que $A$ se puede diagonalizar con matrices $A=P^{-1} D P$, donde $D$ es la matriz diagonal que tiene en su diagonal principal a los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$, y $P^{-1}$ es una matriz invertible. Como $A$ y $D$ son similares, se tiene que
\begin{align*}
\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\
\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.
\end{align*}

Como $A$ es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

$$\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.$$

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor $\lambda$, y entonces $D=\lambda I_n$. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de $n\times n$, tendríamos entonces que

\begin{align*}
A&=P^{-1}D P \\
&=P^{-1}(\lambda I_n) P\\
&=(\lambda I_n) (P^{-1}P)\\
&=\lambda I_n.
\end{align*}

Con esto probamos que $A$ es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de $n\times n$.

$\square$

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de formas cuadráticas y producto interior

Por Blanca Radillo

Introducción

En las últimas sesiones, hemos introducido el tema de formas bilineales y formas cuadráticas. Más adelante, hablamos de positividad de formas cuadráticas y de producto interior. Ahora veremos algunos problemas de formas cuadráticas y producto interior.

Problemas resueltos de formas cuadráticas

Sabemos que si $T:V\times V\rightarrow \mathbb{R}$ es una transformación lineal, $T$ no necesariamente es una forma bilineal (durante la clase del viernes se discutió un ejemplo), entonces una pregunta interesante es ¿qué información tenemos sobre el núcleo de una forma cuadrática? Es fácil ver que una forma cuadrática no es una transformación lineal, pero está asociada a una forma bilineal. Interesadas en esta pregunta, analizaremos algunas propiedades del núcleo de una forma bilineal y de una forma cuadrática.

Problema 1. a) Si $q$ es una forma cuadrática en $\mathbb{R}^n$, ¿el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ es un subespacio de $\mathbb{R}^n$?
b) Describe ${ x\in \mathbb{R}^n:q(x)=0}$ si:
1) $q(x,y)=x^2+y^2$,
2) $q(x,y,z)=xy+yz+zx$
3) $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.

Solución. a) La respuesta es: no, el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ no necesariamente es un subespacio, ya que no necesariamente es cerrado bajo la suma. Daremos un ejemplo.

Sea $q:\mathbb{R}^2\rightarrow \mathbb{R}$ definido como $q((x,y))=x^2-y^2$. Sabemos que ésta es una forma cuadrática. Notemos que para todo $x,y \in\mathbb{R}$, si $v_1=(x,x),v_2=(y,-y)$, entonces $q(v_1)=x^2-x^2=0$ y $q(v_2)=y^2-(-y)^2=0$, entonces $v_1,v_2 \in \{ x\in \mathbb{R}^n: q(x)=0 \}$. Pero $v_1+v_2=(x+y,x-y)$ no pertenecen al núcleo de $q$, ya que $q(v_1+v_2)=q((x+y,x-y))=(x+y)^2-(x-y)^2=4xy\neq 0$ si $x,y\neq 0$.

b.1) Sea $(x,y)\in\mathbb{R}^2$ tal que $q((x,y))=x^2+y^2=0$. Como $x,y\in\mathbb{R}$, sabemos que la única posibilidad en que la suma de dos cuadrados sea cero es que ambos sean cero, por lo tanto $\{ x\in \mathbb{R}^2: q(x)=0 \}=\{(0,0)\}$.

b.2) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=xy+yz+zx=0$. Si $x=0$ entonces $yz=0$, esto es posible sólo si $y=0$ o $z=0$. Entonces el núcleo contiene a los ejes $(x,0,0)$, $(0,y,0)$ y $(0,0,z)$. Ahora, si $x=-y$, entonces $xy+yz+zx=-x^2-xz+zx=-x^2=0$, por lo tanto $x=0=y$, obteniendo nuevamente a los ejes. Ahora suponemos que $x+y\neq 0$. Entonces $xy+yz+zx=xy+z(x+y)=0$, obteniendo que $z=-\frac{xy}{x+y}$ (el cono elíptico). Por lo tanto el núcleo de $q$ son los ejes y el cono elíptico.

b.3) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=(x-y)^2+(y-z)^2+(z-x)^2=0$. Al igual que en el inciso (b.1), esto sólo es posible si $x-y=y-z=z-x=0$, entonces $x=y=z$. Por lo tanto, $\{ x\in \mathbb{R}^n: q(x)=0 \}=\{(x,x,x):x\in\mathbb{R}\}$.

$\triangle$

Problema 2. Sea $V=P_2(\mathbb{R})$ el espacio de polinomios en $[-1,1]$ con coeficientes reales de grado a lo más 2 y considera el mapeo $b:V\times V\rightarrow \mathbb{R}$ definido como

$b(f,g)=\int_{-1}^1 tf(t)g(t) dt.$

Prueba que $b$ es una forma bilineal simétrica de $V$. Si $q$ es la forma cuadrática asociada, encuentra las $f$ en $V$ tales que $q(f)=0$.

Solución. Mostrar que $b$ es bilineal es sencillo, y queda como tarea moral. Es fácil ver que es simétrica, ya que

\begin{align*}
b(f,g)&=\int_{-1}^1 tf(t)g(t) dt \\
&=\int_{-1}^1 tg(t)f(t)dt=b(g,f).
\end{align*}

Ahora, queremos encontrar las funciones $f$ tales que $q(f)=b(f,f)=\int_{-1}^1 tf^2(t)dt=0$. Como $f$ es un polinomio de grado $2$, es de la forma $f(x)=ax^2+bx+c$ para reales $a,b,c$ y entonces

\begin{align*}
0&=q(f)\\
&=\int_{-1}^1 tf^2(t)dt \\
&=\int_{-1}^1 t(at^2+bt+c)^2dt \\
& = \int_{-1}^1 t(a^2t^4+2abt^3+(b^2+2ac)t^2+2bct+c^2)dt \\
&=\int_{-1}^1 (a^2t^5+2abt^4+(b^2+2ac)t^3+2bct^2+c^2t)dt \\
&=\frac{4ab}{5}+\frac{4bc}{3}=0
\end{align*}

Esto implica que $4b(3a+5c)=0$, entonces $b=0$ o $3a+5c=0$. Por lo tanto $$\{f\in V:q(f)=0\}=\{ax^2+c \}\cup \{ax^2+bx-\frac{3a}{5}\}.$$

$\square$

Problemas resueltos de producto interior

Ahora recordemos que en la clase de ayer, definimos formas bilineales y cuadráticas positivas y definidas positivas, y a partir de ello, definimos qué es un producto interior. Así, en los siguientes problemas, veremos algunos ejemplos de estas definiciones.

Problema 3. Determina cuáles de las siguientes formas cuadráticas son positivas. ¿Cuáles también son definidas positivas?

  1. $q(x,y,z)=xy+yz+zx$.
  2. $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.
  3. $q(x,y,z)=x^2-y^2+z^2-xy+2yz-3zx$.

Solución. Sea $v=(x,y,z)\in\mathbb{R}^3$, recordemos que para cada uno de los incisos $q$ es positiva si $q(v)\geq 0$ para toda $v$ y es definida positiva si es positiva y $q(v)=0$ si y sólo si $v=0$.

1) Si escogemos a $v$ como $v=(1,-2,1)$ tenemos que
\begin{align*}q(v)&=q(1,-2,1)\\&=1(-2)+(-2)(1)+1(1)\\&=-2-2+1\\&=-3.\end{align*} Por lo tanto no es positiva ni definida positiva.

2) Dado que para todo $x,y,z$, tenemos que $(x-y)^2,(y-z)^2,(z-x)^2\geq 0$, entonces $q(v)\geq 0$ para todo $v\in\mathbb{R}^3$. Pero si $q(v)=0$, entonces $x=y=z$, pero no necesariamente son iguales a cero. Por lo tanto, $q$ es positiva pero no es definida positiva.

3) Si tomamos $v=(3,0,3)$, obtenemos que \begin{align*}q(v)&=(3)^2+(3)^2-3(3)(3)\\&=9+9-27\\&=-9\\&<0.\end{align*} Por lo tanto no es positiva ni definida positiva.

$\triangle$

Problema 4. Sea $V=C([a,b],\mathbb{R})$. Prueba que el mapeo $\langle \cdot , \cdot \rangle$ definido por $$\langle f,g \rangle = \int_a^b f(x)g(x) dx$$ es un producto interior en $V$.

Solución. Por lo visto en la clase de ayer, tenemos que un producto interior es una forma bilineal simétrica y definida positiva.
Es fácil ver que es forma bilineal simétrica. Basta con probar que es una forma definida positiva. Entonces $\langle f,f\rangle=\int_0^1 f^2(x)dx \geq 0$ ya que $f^2(x)\geq 0$ para toda $x$. Por lo tanto $\langle \cdot, \cdot \rangle$ es positiva. Como $f^2$ es continua y positiva, si $\int_0^1 f^2(x)dx=0$, implica que $f^2=0$, entonces $f=0$. Por lo tanto, $\langle \cdot , \cdot \rangle$ es definida positiva, y por ende, es un producto interior.

$\triangle$

Para finalizar, el siguiente problema es un ejemplo que pareciera ser producto interior, pero resulta que no serlo.

Problema 5. Sea $C^\infty([0,1],\mathbb{R})$ es el espacio de funciones suaves (funciones continuas cuyas derivadas de cualquier orden existen y son continuas). Definimos el espacio $V={ f\in C^\infty([0,1],\mathbb{R}): f(0)=f(1)=0 }$. Si definimos $$\langle f,g \rangle:=\int_0^1 (f(x)g'(x)+f'(x)g(x))dx,$$ ¿es $\langle \cdot , \cdot \rangle$ un producto interior en $V$?

Solución. Es claro ver que $\langle \cdot, \cdot \rangle$ es bilineal y simétrica, entonces falta demostrar si es o no es una forma definida positiva. Para $f\in V$, tenemos que $\langle f,f \rangle=\int_0^1 2f(x)f'(x)dx.$

Notemos que, por la regla de la cadena, $\frac{d}{dx}f^2(x)=2f(x)f'(x)$, entonces \begin{align*}\langle f,f \rangle&=\int_0^1 \frac{d}{dx} f^2(x) dx\\&=f^2(1)-f^2(0)\\&=0.\end{align*}

Por lo tanto $\langle f,f\rangle=0$ para toda $f$. Esto implica que no es definida positiva, y como consecuencia, no es producto interior de $V$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»