Archivo de la etiqueta: forma cuadrática

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en \mathbb{R}^n. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en \mathbb{R}^n, tales que

    \[A=P^{-1}DP.\]

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación T es simétrica y W es un subespacio estable bajo T, entonces W^\bot también lo es. Además, T restringida a W o a W^\bot también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Demostración. Como V es espacio Euclideano, entonces tiene cierta dimensión finita n. Haremos inducción fuerte sobre n. Si n=1, el polinomio característico de T es de grado 1 y con coeficientes reales, así que tiene una raíz \lambda real. Si v es un eigenvector de T para \lambda, entonces \frac{v}{\norm{v}} también es eigenvector de T y conforma una base ortonormal para V.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a n y tomemos V espacio Euclideano de dimensión n. Por el teorema fundamental del álgebra, el polinomio característico de T tiene por lo menos una raíz \lambda en \mathbb{C}. Como T es simétrica, cualquier matriz A que represente a T también, y \lambda sería una raíz del polinomio característico de A. Por el resultado que vimos en la entrada anterior, \lambda es real.

Consideremos el kernel W de la transformación \lambda \text{id} - T. Si W es de dimensión n, entonces W=V, y por lo tanto T(v)=\lambda v para todo vector v en V, es decir, todo vector no cero de V es eigenvector de T. De esta forma, cualquier base ortonormal de V satisface la conclusión. De esta forma, podemos suponer que W\neq V y que por lo tanto 1\leq \dim W \leq n-1, y como

    \[V=W\oplus W^\bot,\]

se obtiene que 1\leq \dim W^\bot \leq n-1. Sea B una base ortonormal de W, que por lo tanto está formada por eigenvectores de T con eigenvalor \lambda.

Como la restricción T_1 de T a W^\bot es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal B' de eigenvectores de T_1 (y por lo tanto de T) para W^\bot.

Usando de nuevo que

    \[V=W\oplus W^\bot,\]

tenemos que B\cup B' es una base de V formada por eigenvectores de T.

El producto interior de dos elementos distintos de B, o de dos elementos distintos de B' es cero, pues individualmente son bases ortonormales. El producto de un elemento de B y uno de B' es cero pues un elemento está en W y el otro en W^\bot. Además, todos los elementos de B\cup B' tiene norma 1, pues vienen de bases ortogonales. Esto muestra que B\cup B' es una base ortonormal de V que consiste de eigenvectores de T.

\square

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea A una matriz simétrica en M_n(\mathbb{R}). Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en M_n(\mathbb{R}), tales que

    \[A=P^{-1}DP.\]

Demostración. Como A es una matriz simétrica, la transformación T:F^n\to F^n dada por T(X)=AX es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de F^n que consiste de eigenvectores de T. Digamos que estos eigenvectores son C_1,\ldots,C_n. Por definición de T, estos eigenvectores de T son exactamente eigenvectores de A.

Anteriormente demostramos que si construimos a una matriz B usando a C_1,\ldots,C_n como columnas y tomamos la matriz diagonal D cuyas entradas son los eigenvalores correspondientes \lambda_1,\ldots,\lambda_n, entonces

    \[A=BDB^{-1}.\]

Afirmamos que la matriz B es ortogonal. En efecto, la fila j de la matriz ^t B es precisamente C_j. De esta forma, la entrada (i,j) del producto {^tB} B es precisamente el producto punto de C_i con C_j. Como la familia C_1,\ldots,C_n es ortonormal, tenemos que dicho producto punto es uno si i=j y cero en otro caso. De aquí, se concluye que {^tB} B=I_n.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo P=B^{-1}, tenemos la igualdad

    \[A=P^{-1}DP,\]

con D diagonal y P ortogonal, justo como lo afirma el teorema.

\square

Matrices positivas y positivas definidas

Una matriz A simétrica en M_n(\mathbb{R}) induce una forma bilineal simétrica en \mathbb{R}^n mediante la asignación

    \[(x,y) \mapsto {^t x} A y,\]

con forma cuadrática correspondiente

    \[x \mapsto {^t x} A x.\]

Definición. Una matriz A en M_n(\mathbb{R}) es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Demostración. (1) implica (2). Supongamos que A es positiva y tomemos \lambda un eigenvalor de A. Tomemos v un eigenvector de eigenvalor \lambda. Tenemos que:

    \begin{align*}\lambda \norm{v}^2 &=\lambda {^tv} v\\&= {^t v} (\lambda v)\\&={^t v} Av\\&\geq 0.  \end{align*}

Como \norm{v}^2\geq 0, debemos tener \lambda \geq 0.

(2) implica (3). Como A es matriz simétrica, por el teorema espectral tiene una diagonalización A=P^{-1}DP con P una matriz invertible y D una matriz diagonal cuyas entradas son los eigenvalores \lambda_1,\ldots,\lambda_n de A. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal E cuyas entradas son los reales \sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}. Notemos que E^2=D, así que si definimos a la matriz B=P^{-1}EP, tenemos que

    \[B^2=P^{-1}E^2 P = P^{-1}DP = A.\]

Además, B es simétrica pues como E es diagonal y P es ortogonal, tenemos que

    \begin{align*}{^tB} &= {^t P} {^t E} {^t (P^{-1})}\\&= P^{-1} E P\\&= B.\end{align*}

(3) implica (4). Es inmediato, tomando C=B y usando que B es simétrica.

(4) implica (1). Si A= {^tC} C y tomamos un vector v en \mathbb{R}^n, tenemos que

    \begin{align*}{^t v} A v &= {^tv} {^tC} C v\\&= {^t(Cv)} (Cv)\\&=\norm{Cv}^2\\&\geq 0,\end{align*}

lo cual muestra que A es positiva.

\square

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar “bonita”.
  • Productos interiores con imágenes en \mathbb{C}, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de \mathbb{R}^3 conformada por eigenvectores de la matriz \begin{pmatrix}10 & 0 & -7\\ 0 & 3 & 0 \\ -7 & 0 & 10\end{pmatrix}.
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz

        \[\begin{pmatrix}5 & 1 & 7\\1 & 10 & -7\\7 & -7 & 18\end{pmatrix}\]

    es positiva.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Producto interior y desigualdad de Cauchy-Schwarz

Introducción

Anteriormente, platicamos acerca de formas bilineales y de formas cuadráticas. Ahora veremos un tipo de formas bilineales especiales: las positivas y las positivas definidas. Las formas positivas definidas nos ayudan a definir qué es un producto interior. Esta es una noción fundamental que más adelante nos ayudará a definir distancias y ángulos.

Formas bilineales positivas y positivas definidas

Para hablar de geometría en espacios vectoriales, la siguiente noción es fundamental. Es importante notar que es una definición únicamente para formas bilineales simétricas.

Definición. Sea b:V\times V\to \mathbb{R} una forma bilineal simétrica.

  • Diremos que b es positiva si b(x,x)\geq 0 para todo vector x de V.
  • Diremos que b es positiva definida si b(x,x)>0 para todo vector x\neq 0 de v.

Tenemos una noción análoga para formas cuadráticas.

Definición. Sea q:V\to \mathbb{R} una forma cuadrática con forma polar b. Diremos que q es positiva si b lo es, y diremos que es positiva definida si b lo es.

Ejemplo. Como ya vimos antes, el producto punto de \mathbb{R}^n es una forma bilineal simétrica. También es positiva definida, pues si tenemos x=(x_1,\ldots,x_n), tenemos que

    \[x\cdot x =  x_1^2+\ldots+x_n^2\geq 0,\]

y esta es una igualdad si y sólo si x_1=\ldots=x_n=0, lo cual sucede si y sólo si x=0.

\square

Ejemplo. Considera V=\mathbb{R}_2[x] y consideremos la forma bilineal b dada por

    \[b(p,q)=p(0)q(1)+p(1)q(0).\]

Esta es una forma bilineal simétrica pues

    \begin{align*}b(p,q)&=p(0)q(1)+p(1)q(0)\\&=q(0)p(1)+q(1)p(0)\\&=b(q,p).\end{align*}

Notemos que

    \[b(p,p)=2p(0)p(1),\]

que no necesariamente es positivo. Por ejemplo, si tomamos el polinomio p(x)=x-\frac{1}{2}, tenemos que

    \begin{align*}b(p,p)&=2p(0)p(1)\\&=-2\cdot\frac{1}{2}\cdot\frac{1}{2}\\&=-\frac{1}{2}.\end{align*}

Así, esta es una forma bilineal simétrica, pero no es positiva (y por lo tanto tampoco es positiva definida).

\square

Problema. Considera la forma cuadrática Q en M_{2}(\mathbb{R}) que suma el cuadrado de las entradas de la diagonal de una matriz, es decir, aquella dada por

    \[Q\begin{pmatrix} a & b\\c & d\end{pmatrix}=a^2+d^2.\]

Determina su forma polar y si es positiva o positiva definida.

Solución. Para encontrar la forma polar B de Q, usamos la identidad de polarización

    \begin{align*}B&\left(\begin{pmatrix}a&b\\c&d\end{pmatrix},\begin{pmatrix} e & f\\ g & h \end{pmatrix}\right)\\&=\frac{(a+e)^2+(d+h)^2-a^2-e^2-d^2-h^2}{2}\\&=\frac{2ae+2dh}{2}\\&=ae+dh.\end{align*}

Como Q\begin{pmatrix}a&b\\c&d\end{pmatrix}=a^2+d^2\geq 0, tenemos que Q (y B) son positivas. Sin embargo, Q no es positiva definida (ni B), pues por ejemplo,

    \[Q\begin{pmatrix}0&1\\1&0\end{pmatrix} = 0.\]

Producto interior

Estamos listos para definir aquellos espacios sobre los que podemos hacer geometría.

Definición. Sea V un espacio vectorial sobre \mathbb{R}

  • Un producto interior en V es una forma bilineal simétrica y positiva definida.
  • Decimos que V es un espacio Euclideano si es de dimensión finita y está equipado con un producto interior.

Estamos siguiendo la convención del libro de Titu Andreescu, en donde es importante pedir que V sea de dimensión finita para ser Euclideano.

Cuando estamos hablando de espacios con producto interior, o de espacios Euclideanos, tenemos una forma bilineal simétrica y positiva definida b. Sin embargo, en vez de usar constantemente b(x,y), para simplificar la notación usaremos simplemente \langle x, y\rangle.

Definición. Si V es un espacio con producto interior \langle \cdot,\cdot \rangle, definimos la norma de un vector x como

    \[\Vert x \Vert =\sqrt{\langle x, x \rangle}.\]

Ejemplo. Como dijimos arriba, el producto punto en \mathbb{R}^n es una forma bilineal simétrica, así que es un producto interior. Como \mathbb{R}^n es de dimensión finita, entonces es un espacio Euclideano.

La norma de un vector x=(x_1,\ldots,x_n) está dada por \Vert x \Vert = \sqrt{x_1^2+\ldots+x_n^2}, y geométricamente se interpreta como la distancia de x al origen.

Un ejemplo más concreto es \mathbb{R}^4, en donde la norma del vector (1,2,3,1) es \sqrt{1^2+2^2+3^2+1^2}=\sqrt{15}.

\square

La notación de producto interior quizás te recuerde la notación que se usa cuando hablamos de dualidad. Sin embargo, es muy importante que distingas los contextos. En el caso de dualidad, tenemos

    \[\langle \cdot, \cdot \rangle: V^\ast\times V \to \mathbb{R},\]

y en este contexto de producto interior tenemos

    \[\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}.\]

Más adelante, puede que te encuentres en tu preparación matemática con el teorema de representación de Riesz, a partir del cual tendrá sentido que se use la misma notación.

Desigualdad de Cauchy-Schwarz

A continuación presentamos un resultado fundamental es espacios con formas bilineales positivas y positivas definidas.

Teorema (desigualdad de Cauchy-Schwarz). Sea b:V\times V\to \mathbb{R} una forma bilineal simétrica y q su forma cuadrática asociada.

  • Si b es positiva, entonces para todo x y y en V tenemos que

        \[b(x,y)^2\leq q(x)q(y).\]

    Si x y y son linealmente dependientes, se alcanza la igualdad.
  • Además, si b es positiva definida y x y y son linealmente independientes, entonces la desigualdad es estricta.

Demostración. Supongamos primero solamente que b es positiva. Consideremos la función f:\mathbb{R}\to \mathbb{R} dada por f(t)=q(x+ty). Como q es forma cuadrática positiva, tenemos que f(t)\geq 0 para todo real t. Por otro lado, expandiendo y usando que b es simétrica, tenemos que

    \begin{align*}f(t)&=q(x+ty)\\&=b(x+ty,x+ty)\\&=b(x,x)+2b(x,y)\cdot t + b(y,y) \cdot t^2\\&=q(x) + 2b(x,y)\cdot t + q(y) \cdot t^2.\end{align*}

En esta expresión, q(x), 2b(x,y) y q(y) son reales, así que f(t) es un polinomio cuadrático en t. Como f(t)\geq 0 para todo t en \mathbb{R}, el discriminante de este polinomio es no positivo, en otras palabras,

    \[(2b(x,y))^2-4q(x)q(y)\leq 0.\]

Sumando 4q(x)q(y) y dividiendo entre 4 ambos lados de la desigualdad, obtenemos que

    \[b(x,y)^2\leq q(x)q(y),\]

la cual es la desigualdad que queremos.

Si x y y son linealmente dependientes, podemos despejar a uno en términos del otro. Sin perder generalidad, podemos suponer que x=\alpha y. En este caso,

    \[b(\alpha y,y)^2=\alpha^2 b(y,y)=q(\alpha(y))q(y),\]

así que se da la igualdad.

Ahora, supongamos además que b es positiva definida y que se da la igualdad. Si esto sucede, el discriminante del polinomio cuadrático de arriba es igual a 0 y por lo tanto el polinomio tiene una raíz t. En otras palabras, q(x+ty)=0. Pero como q es positiva definida, esto implica que x+ty=0, de donde x y y son linealmente dependientes. Así, si x y y son linealmente independientes, tenemos que la desigualdad es estricta.

\square

El siguiente caso particular es uno de los más importantes y los más usados, por lo cual amerita que lo enunciemos separadamente.

Corolario. Sea V un espacio vectorial sobre \mathbb{R} equipado con un producto interior \langle \cdot, \cdot \rangle. Para cualesquiera x,y en V se cumple |\langle x, y \rangle| \leq \Vert x \Vert \cdot \Vert y \Vert.

Puede que te preguntes por qué enfatizamos los resultados de desigualdades. En varias partes de tu formación matemática trabajarás con espacios vectoriales en donde quieres hacer cálculo. Ahí, se define la convergencia y los límites en términos de una norma. Las desigualdades que probemos para espacios vectoriales son útiles para cuando se quiere demostrar la validez de ciertos límites. Más adelante mencionaremos algunas cosas adicionales al respecto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Considera la función q(w,x,y,z)=wx+yz. Muestra que es una forma cuadrática en \mathbb{R}^4. Encuentra su forma polar y determina si es una forma cuadrática positiva y/o positiva definida.
  • Muestra que

        \[q(w,x,y,z)=x^2+y^2+z^2+xy+yz+zx\]

    es una forma cuadrática en \mathbb{R}^4 y determina si es positiva y/o positiva definida.
  • Considera V=\mathcal{C}[0,1] el espacio vectorial de funciones continuas en el intervalo [0,1]. Muestra que

        \[\langle f,g\rangle = \int_0^1 f(x)g(x)\, dx\]

    define un producto interior en V. ¿Es V un espacio Euclideano? Determina la norma de la función f(x)=x^3.
  • Sea V=\mathbb{R}_2[x] el espacio vectorial de polinomios con coeficientes reales y de grado a lo más 1. Muestra que

        \[\langle p,q\rangle = p(0)q(0)+p(1)q(1)+p(2)q(2)\]

    hace a V un espacio Euclideano.

Más adelante…

En esta entrada definimos el concepto de producto interior y vimos cómo el producto interior induce una norma en el espacio vectorial. El concepto de norma nos permite generalizar la noción de distancia y esto nos permitirá ver cómo se puede hacer cálculo en espacios vectoriales.

En las siguientes entradas veremos cómo se define esta norma para diferentes espacios vectoriales con diferentes productos interiores. Podremos ver entonces cómo se generalizan otras nociones que ya hemos visto en cursos anteriores; como el concepto de ángulo.

Entradas relacionadas

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en \mathbb{R}^n en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial V es una transformación b:V\times V \to \mathbb{R} tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si b(x,y)=b(y,x) para cada par de vectores x,y en V. Una forma cuadrática de V es una transformación q:V\to \mathbb{R} tal que q(x)=b(x,x) para alguna forma bilineal b.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea q:V\to \mathbb{R} una forma cuadrática. Existe una única forma bilineal simétrica b:V\times V \to \mathbb{R} tal que q(x)=b(x,x) para todo vector x. Esta forma bilineal está determinada mediante la identidad de polarización

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\]

Demostración. Tomemos una forma cuadrática q de V. Por definición, está inducida por una forma bilineal B de V, es decir, q(x)=B(x,x). Definamos la transformación b mediante

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\]

Comencemos probando que b es una transformación bilineal simétrica. Notemos que:

    \begin{align*}b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\&=\frac{B(x,y)+B(y,x)}{2}.\end{align*}

De aquí es muy claro que b es forma bilineal, pues fijando x, set tiene que b(x,y) es combinación lineal de dos formas lineales en y; y fijando y, se tiene que b(x,y) es combinación lineal de dos formas lineales en x. Además, de esta igualdad (o directo de la definición de b) es claro que b(x,y)=b(y,x).

También de esta igualdad obtenemos que

    \[b(x,x)=B(x,x)=q(x).\]

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica b' tal que b'(x,x)=q(x) debe satisfacer, como en las cuentas que hicimos arriba, que

    \begin{align*}q(x+y)&=b'(x+y,x+y)\\&=q(x)+q(y)+b'(x,y)+b'(y,x)\\&=q(x)+q(y)+2b'(x,y).\end{align*}

De aquí, despejando b', se obtiene que debe tener la forma de b.

\square

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática q de V, a la única forma bilineal simétrica b de V tal que q(x)=b(x,x) le llamamos la forma polar de q.

Ejemplo. En el espacio vectorial \mathbb{R}^n, la transformación q:\mathbb{R}^n\to \mathbb{R} dada por

    \[q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.\]

es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a x=(x_1,\ldots,x_n) y y=(y_1,\ldots,y_n) a

    \[b(x,y)=x_1y_1+\ldots+x_ny_n.\]

Esto coincide con la construcción dada por la identidad de polarización, ya que

    \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

\square

Ejemplo. En el espacio vectorial \mathbb{R}[x] de polinomios con coeficientes reales, la transformación Q dada por

    \[Q(p)=p(0)p(1)+p(2)^2\]

es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización

    \begin{align*}B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).\end{align*}

\square

Propiedades de formas cuadráticas

Si q es una forma cuadrática, x es un vector y c es un real, tenemos que q(cx)=c^2q(x), pues sale una c por cada una de las coordenadas de la forma bilineal asociada. En particular, q(-x)=q(x).

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea q una forma cuadrática en V con forma polar b. Entonces:

  • Para todo par de vectores x y y en V, se tiene que

        \[b(x,y)=\frac{q(x+y)-q(x-y)}{4}.\]

  • (Ley del paralelogramo) Para todo par de vectores x y y en V, se tiene que

        \[q(x+y)+q(x-y)=2(q(x)+q(y)).\]

  • (Teorema de Pitágoras) Para vectores x y y tales que b(x,y)=0, se tiene que

        \[q(x+y)=q(x)+q(y).\]

  • (Diferencia de cuadrados) Para todo par de vectores x y y en V, se tiene que b(x+y,x-y)=q(x)-q(y).

Demostración. Por la identidad de polarización tenemos que

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},\]

y como q(y)=q(-y), tenemos también por la identidad de polarización que

    \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores x+y y x-y, y de usar que q(2x)=4q(x) y que q(2y)=4q(y).

\square

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial V de dimensión n, basta tomar una base \{e_1,\ldots,e_n\} de V y decidir los valores b_{ij} de b(e_i,e_j) para 1\leq i \leq j \leq n. Como b es simétrica, para j<i se tendría que b(e_i,e_j)=b(e_j,e_i), es decir, que b_{ji}=b_{ij}.

De esta forma, para todo vector v en V podemos encontrar el valor de q(v) expresando v en la base \{e_1,\ldots,e_n\}, digamos,

    \[v=a_1e_1+\ldots+a_ne_n,\]

de donde

    \[q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.\]

Ejemplo. Toda forma cuadrática en \mathbb{R}^3 se obtiene de elegir reales a,b,c,d,e,f y definir

    \[q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.\]

La forma polar de q es la forma bilineal B tal que para la base canónica e_1,e_2,e_3 de \matbb{R}^3 hace lo siguiente

    \begin{align*}B(e_1,e_1)&=a\\B(e_2,e_2)&=b\\B(e_3,e_3)&=c\\ B(e_1,e_2)&=B(e_2,e_1)=d\\ B(e_2,e_3)&=B(e_3,e_2)=e\\B(e_3,e_1)&=B(e_1,e_3)=f.\end{align*}

\square

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como \mathbb{R}^n. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales \alpha_1,\ldots, \alpha_r y formas lineales l_1,\ldots,l_r. Consideremos

    \[q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.\]

Se tiene que q es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes 1 y -1.

Teorema (clasificación de Gauss de formas cuadráticas). Sea q una forma cuadrática en \mathbb{R}^n. Entonces, existen enteros no negativos r y s, y formas lineares l_1,\ldots,l_r,m_1,\ldots,m_s en (\mathbb{R}^n)^\ast, todas ellas linealmente independientes, tales que

    \[q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.\]

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números r y s en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en \mathbb{R}^3 dada por q(x,y,z)=xy+yz+zx. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que:

    \[xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,\]

en donde

    \begin{align*}(x,y,z)&\mapsto \frac{2x+y+z}{2},\\(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\(x,y,z)&\mapsto x\end{align*}


son formas lineales linealmente independientes.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que q(x,y)=3x^2-y^2+7y no es una forma cuadrática.
  • Muestra que si \alpha_1,\ldots, \alpha_r son reales y tomamos formas lineales l_1,\ldots,l_r en \mathbb{R}^n, entonces

        \[q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2\]

    es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática Q(f)=\int_{0}^1 f^2(x)\, dx en el espacio vectorial de funciones continuas en el intervalo [0,1]?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las fromas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectorias. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Entradas relacionadas

Álgebra Lineal I: Formas bilineales, propiedades, ejemplos y aclaraciones

Introducción

En entradas anteriores hemos platicado de dualidad, ortogonalidad y transformaciones transpuestas. Es importante que repases esas entradas y nos escribas si tienes dudas, pues ahora pasaremos a un tema un poco diferente: formas bilineales y cuadráticas. Estas nociones nos permitirán seguir hablando acerca de la geometría de espacios vectoriales en general.

Para esta parte del curso, nos vamos a enfocar únicamente en espacios vectoriales sobre \mathbb{R}. Se pueden definir los conceptos que veremos para espacios vectoriales en otros campos. Sobre todo, es posible definir conceptos análogos en \mathbb{C} y obtener una teoría muy rica. Pero por ahora consideraremos sólo el caso de espacios vectoriales reales.

Aunque hablaremos de formas bilineales en general, una subfamilia muy importante de ellas son los productos interiores, que nos permiten hablar de espacios euclideanos. El producto interior es el paso inicial en una cadena muy profunda de ideas matemáticas:

  • Un producto interior nos permite definir la norma de un vector.
  • Con la noción de norma, podemos definir la distancia entre dos vectores.
  • A partir de un producto interior y su norma podemos mostrar la desigualdad de Cauchy-Schwarz, con la cual podemos definir ángulos entre vectores (por ejemplo, ¡podremos definir el ángulo entre dos polinomios!).
  • De la desigualdad de Cauchy-Schwarz, podemos probar que la noción de norma satisface la desigualdad del triángulo, y que por lo tanto la noción de distancia define una métrica.
  • Aunque no lo veremos en este curso, más adelante verás que una métrica induce una topología, y que con una topología se puede hablar de continuidad.

En resumen, a partir de un producto interior podemos hacer cálculo en espacios vectoriales en general.

Una forma bilineal con la cual probablemente estés familiarizado es el producto punto en \mathbb{R}^n, que a dos vectores (x_1,x_2,\ldots,x_n) y (y_1,y_2,\ldots,y_n) los manda al real

    \[x_1y_1+x_2y_2+\ldots+x_ny_n.\]

Este es un ejemplo de una forma bilineal que es un producto interior. También puede que estés familiarizado con la norma en \mathbb{R}^n, que a un vector (x_1,\ldots,x_n) lo manda al real

    \[\sqrt{x_1^2+x_2^2+\ldots+x_n^2}.\]

Lo que está dentro de la raíz es un ejemplo de una forma cuadrática positiva definida. Incluyendo la raíz, este es un ejemplo de norma en espacios vectoriales.

Hay muchas otras formas bilineales y formas cuadráticas, pero los ejemplos mencionados arriba te pueden ayudar a entender la intuición detrás de algunos de los conceptos que mencionaremos. Para marcar algunas cosas en las que la intuición puede fallar, pondremos algunas “Aclaraciones” a lo largo de esta entrada.

En el futuro, tener una buena noción de la geometría de espacios vectoriales te ayudará a entender mucho mejor los argumentos de cursos de análisis matemático, de variable compleja y de optativas como geometría diferencial. Dentro de este curso, entender bien el concepto de forma bilineal te será de gran utilidad para cuando más adelante hablemos de formas multilineales y determinantes.

Formas bilineales

La definición fundamental para los temas que veremos en estas entradas es la siguiente, así que enunciaremos la definición, veremos varios ejemplos y haremos algunas aclaraciones.

Definición. Sea V un espacio vectorial sobre \mathbb{R}. Una forma bilineal es una función b:V\times V \to \mathbb{R} tal que:

  • Para todo x en V, la función b(x,\cdot):V\to \mathbb{R} que manda v\in V a b(x,v) es una forma lineal.
  • Para todo y en V, la función b(\cdot, y):V\to \mathbb{R} que manda v\in V a b(v,y) es una forma lineal.

Ejemplo 1. Considera el espacio vectorial de polinomios \mathbb{R}_3[x] y considera la función

    \[b(p,q)=p(0)q(10)+p(1)q(11).\]

Afirmamos que b es una forma bilineal. En efecto, fijemos un polinomio p y tomemos dos polinomios q_1, q_2 y un real r. Tenemos que

    \begin{align*}b(p,q_1+rq_2)&=p(0)(q_1+rq_2)(10)+p(1)(q_1+rq_2)(11)\\&= p(0)q_1(10)+p(1)q_1(11) + r ( p(0)q_2(10)+p(1)q_2(11))\\&= b(p,q_1)+rb(p,q_2),\end{align*}

De manera similar se puede probar que para q fijo y p_1, p_2 polinomios y r real tenemos que

    \[b(p_1+rp_2,q)=b(p_1,q)+rb(p_2,q).\]

Esto muestra que b es una forma bilineal.

\square

Si v=0, entonces por el primer inciso de la definición, b(x,v)=0 para toda x y por el segundo b(v,y)=0 para toda y, en otras palabras:

Proposición. Si b es una forma bilineal en b, y alguno de x o y es 0, entonces b(x,y)=0.

De la linealidad de ambas entradas de b, se tiene la siguiente proposición.

Proposición. Tomemos b:V\times V\to \mathbb{R} una forma bilineal, vectores x_1,\ldots,x_n, y_1,\ldots,y_m y escalares a_1,\ldots,a_n,c_1,\ldots,c_n. Tenemos que

    \[b\left(\sum_{i=1}^n a_ix_i, \sum_{j=1}^m c_j y_j\right)=\sum_{i=1}^n\sum_{j=1}^m a_ic_jb(x_i,y_j).\]

La proposición anterior muestra, en particular, que para definir una forma bilineal en un espacio vectorial V de dimensión finita n, basta tomar una base \{e_1,\ldots,e_n\} de V y definir b(e_i,e_j) para toda 1\leq i,j \leq n.

Hagamos algunas aclaraciones acerca de las formas bilineales.

Aclaración 1. No es lo mismo una forma bilineal en V, que una transformación lineal de V\times V a \mathbb{R}.

Ejemplo. La transformación b((w,x),(y,z))=w+x+y+z sí es una transformación lineal de \mathbb{R}^2\times \mathbb{R}^2 \to \mathbb{R}, lo cual se puede verificar fácilmente a partir de la definición. Sin embargo, no es una forma bilineal. Una forma de verlo es notando que

    \[b((0,0),(1,1))=0+0+1+1=2.\]

Aquí una de las entradas es el vector cero, pero el resultado no fue igual a cero.

\square

Aclaración 2. Puede pasar que ninguna de las entradas de la forma bilineal sea 0, pero que evaluando en ella sí de 0.

Ejemplo. Consideremos la transformación b:\mathbb{R}^2\times \mathbb{R}^2 \to \mathbb{R} tal que

    \[b((w,x),(y,z))=wy-xz.\]

Verificar que esta es una forma bilineal es sencillo y se deja como tarea moral. Además, se tiene que b((1,0),(0,1))=0.

\square

Más adelante, cuando definamos producto interior, nos van a importar mucho las parejas de vectores v, w para las cuales b(v,w)=0.

Aclaración 3. Si b es una forma bilineal, no necesariamente es cierto que b(x,y)=b(y,x).

Ejemplo. Consideremos la transformación b:\mathbb{R}^2\times \mathbb{R}^2 \to \mathbb{R} tal que

    \[b((w,x),(y,z))=wz-xy.\]

Verificar que esta es una forma bilineal es sencillo y se deja como tarea moral. Notemos que b((2,1),(2,3))=6-2=4, mientras que b((2,3),(2,1))=2-6=-4.

\square

Aquellas formas para las que sí sucede que b(x,y)=b(y,x) son importantes y merecen un nombre especial.

Definición. Una forma bilineal b:V\times V\to \mathbb{R} es simétrica si b(x,y)=b(y,x) para todo par de vectores x,y en V.

Para definir una forma bilineal b simétrica en un espacio V de dimensión finita n, basta tomar una base \{e_1,\ldots,e_n\} y definir b en aquellas parejas b(e_i,e_j) con 1\leq i \leq j \leq n.

Más ejemplos de formas bilineales

A continuación enunciamos más ejemplos de formas bilineales, sin demostración. Es un buen ejercicio verificar la definición para todas ellas.

Ejemplo. Si a_1, a_2,\ldots, a_n son números reales y V=\mathbb{R}^n, entonces podemos definir b:V\times V \to \mathbb{R} que manda a x=(x_1,\ldots,x_n) y y=(y_1,\ldots,y_n) a

    \[b(x,y)=a_1x_1y_1+\ldots+a_nx_ny_n.\]

Este es un ejemplo de una forma bilineal simétrica. Si todos los a_i son iguales a 1, obtenemos el producto punto o producto interior canónico de \mathbb{R}^n.

Ejemplo. Tomemos V como el espacio vectorial de matrices M_n(\mathbb{R}). La transformación b:V\times V\to \mathbb{R} tal que b(A,B)=\text{tr}(AB) es una forma bilineal. Además, es simétrica, pues la traza cumple la importante propiedad \text{tr}(AB)=\text{tr}(BA), cuya verificación queda como tarea moral.

Ejemplo. Tomemos V el conjunto de funciones continuas y de periodo 2\pi que van de \mathbb{R} a sí mismo. Es decir, f:\mathbb{R}\to \mathbb{R} está en V si es continua y f(x)=f(x+2 \pi) para todo real x. Se puede mostrar que V es un subespacio del espacio de funciones continuas, lo cual es sencillo y se queda como tarea moral. La transformación b:V\times V \to \mathbb{R} tal que

    \[b(f,g)=\int_{-\pi}^\pi f(x) g(x)\, dx\]

es una forma bilineal.

Ejemplo. Consideremos V=\mathbb{R}[x], el espacio vectorial de polinomios con coeficientes reales. Para P y Q polinomios definimos

    \[b(P,Q)=\sum_{n=1}^\infty \frac{P(n)Q(2n)}{2^n}.\]

La serie de la derecha converge absolutamente, de modo que esta expresión está bien definida. Se tiene que b es una forma bilineal, pero no es simétrica.

Formas cuadráticas

Otra definición fundamental es la siguiente

Definición. Una forma cuadrática es una transformación q:V\to \mathbb{R} que se obtiene tomando una forma bilineal b:V\times V \to \mathbb{R} y definiendo

    \[q(x)=b(x,x).\]

Aclaración 4. Es posible que la forma bilineal b que define a una forma cuadrática no sea única.

Ejemplo. Consideremos a la forma bilineal de \mathbb{R}^2 tal que

    \[b((x,y),(w,z))=xz-yw.\]

La forma cuadrática dada por b es

    \[q(x,y)=b((x,y),(x,y))=xy-yx=0.\]

Esta es la misma forma cuadrática que la dada por la forma bilineal

    \[b'((x,y),(w,z))=yw-xz.\]

Pero b y b' son formas bilineales distintas, pues b((1,0),(0,1))=1, mientras que b'((1,0),(0,1))=-1.

\square

La aclaración anterior dice que puede que haya más de una forma bilineal que de una misma forma cuadrática. Sin embargo, resulta que la asignación es única si además pedimos a la forma bilineal ser simétrica. Este es el contenido del siguiente resultado importante.

Teorema (identidad de polarización). Sea q:V\to \mathbb{R} una forma cuadrática. Existe una única forma bilineal simétrica b:V\times V \to \mathbb{R} tal que q(x)=b(x,x) para todo vector x. Esta forma bilineal está determinada mediante la identidad de polarización

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\]

En la siguiente entrada mostraremos el teorema de la identidad de polarización. Por el momento, para tomar más intuición, observa como la identidad se parece mucho a la igualdad

    \[xy=\frac{(x+y)^2-x^2-y^2}{2}\]

en números reales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Completa los detalles de la segunda parte del primer ejemplo.
  • Verifica que en efecto las transformaciones de los ejemplos de las aclaración 2 y 3 son formas bilineales.
  • Muestra que el subconjunto de funciones continuas \mathbb{R} a \mathbb{R} y de cualquier periodo p es un subespacio del espacio vectorial \mathcal{C}(\mathbb{R}) de funciones continuas reales.
  • Demuestra que para A y B matrices en M_{n}(F) se tiene que \text{tr}(AB)=\text{tr}(BA).
  • Encuentra una forma cuadrática en el espacio vectorial \mathbb{R}_3[x] que venga de más de una forma bilineal.
  • Muestra que el conjunto de formas bilineales de V es un subespacio del espacio de funciones V\times V \to \mathbb{R}. Muestra que el conjunto de formas bilineales simétricas de V es un subespacio del espacio de formas bilineales de V.
  • Piensa en cómo la igualdad

        \[xy=\frac{(x+y)^2-x^2-y^2}{2}\]

    de números reales está relacionada con la identidad de polarización para el producto punto en \mathbb{R}^n.

Más adelante…

En esta entrada estudiamos una extensión de la noción de transformaciones lineales que ya habíamos discutido en la unidad anterior. Enunciamos algunos teoremas muy importantes sobre las transformaciones bilineales e hicimos algunos ejemplos de cómo podemos verificar si una transformación es bilineal. La noción de transformación bilineal, nos permitirá abordar un concepto muy importante: el producto interior.

En las siguientes entradas hablaremos del producto interior y cómo éste nos ayuda a definir ángulos y distancias entre vectores de un espacio vectorial.

Entradas relacionadas