Archivo de la etiqueta: espacio vectorial

Seminario de Resolución de Problemas: Desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Seguimos con las entradas de temas de desigualdades. Con anterioridad ya hablamos de desigualdades básicas y de desigualdades con medias. En esta ocasión estudiaremos una desigualdad muy versátil: la desigualdad de Cauchy-Schwarz.

En su versión más simple, lo que dice la desigualdad de Cauchy-Schwarz es lo siguiente.

Desigualdad (de Cauchy-Schwarz). Para cualesquiera números reales $a_1,\ldots,a_n$ y $b_1,\ldots,b_n$ se tiene que $$|a_1b_1+\ldots+a_nb_n| \leq \sqrt{a_1^2+\ldots+a_n^2} \sqrt{b_1^2+\ldots+b_n^2}.$$

Primero, veremos cómo se demuestra esta desigualdad. Luego, veremos varios problemas en los que se puede aplicar. Finalmente, hablaremos un poco de sus extensiones a espacios vectoriales.

La demostración polinomial de la desigualdad de Cauchy-Schwarz

Una forma de demostrar la desigualdad de Cauchy-Schwarz es usando inducción sobre $n$. Hay otra demostración usando polinomios. Veamos esa demostración, pues tiene la idea útil de usar argumentos polinomiales para demostrar igualdades.

Consideremos la expresión $$p(t)=\sum_{i=1}^n (a_i+b_i t)^2.$$ Como es una suma de cuadrados, esta expresión es no negativa. Haciendo los cuadrados, y desarrollando la suma, podemos escribirla de la siguiente forma, que nos dice que es un polinomio cuadrático en $t$:

\begin{align*}
\sum_{i=1}^n (a_i+b_i t)^2&=\sum_{i=1}^n \left(a_i^2 + 2a_ib_i t + b_i^2 t^2\right)\\
&=\sum_{i=1}^n a_i^2 + \left(2\sum_{i=1}^n a_ib_i \right)t + \left(\sum_{i=1}^n b_i^2\right)t^2.
\end{align*}

De esta forma $p(t)$ es un polinomio cuadrático y siempre toma valores no negativos. Así, a lo más puede tener una raíz $t$, por lo que su discriminante es menor o igual a $0$:

$$ \left(2\sum_{i=1}^n a_ib_i \right)^2-4\left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right)\leq 0$$

Al pasar el segundo término sumando al otro lado y dividir entre $4$ queda

$$\left(\sum_{i=1}^n a_ib_i \right)^2\leq \left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right).$$

Al sacar raíz cuadrada de ambos lados hay que tener cuidado de poner un valor absoluto al lado izquierdo. Al hacer esto, se obtiene el resultado deseado: $$\left|\sum_{i=1}^n a_ib_i \right|\leq \sqrt{\sum_{i=1}^n a_i^2}\cdot \sqrt{\sum_{i=1}^n b_i^2}.$$

Observa que la igualdad se da si y sólo si el discriminante es $0$, lo cual sucede si y sólo si el polinomio tiene una raíz $t$. Cuando esto pasa, cada uno de los sumandos al cuadrado de $p(t)$ debe ser $0$. Así, existe un real $t$ tal que $a_i=-tb_i$ para todo $i=1,\ldots,n$. Esto lo podemos decir en términos vectoriales como que «la igualdad se da si y sólo si el vector $(a_1,\ldots,a_n)$ es un múltiplo escalar del vector $(b_1,\ldots,b_n)$ » .

Un problema sobre acotar el valor de una variable

Problema. Sean $a,b,c,d$ números reales tales que
\begin{align*}
a+b+c+d&=6\\
a^2+b^2+c^2+d^2&=12.
\end{align*}
¿Cuál es el máximo valor que puede tener $d$?

Sugerencia. Aplica la desigualdad de Cauchy-Schwarz a las ternas $(a,b,c)$ y $(1,1,1)$.

Solución. Aplicando la desigualdad a las ternas $(a,b,c)$ y $(1,1,1)$ obtenemos que $$|a+b+c|\leq \sqrt{a^2+b^2+c^2}\cdot{\sqrt{3}}.$$ Usando las hipótesis sobre $a,b,c,d$, tenemos que esta desigualdad es equivalente a $|6-d|\leq \sqrt{3}\cdot {\sqrt{12-d^2}$. Elevando al cuadrado de ambos lados, obtenemos las desigualdades equivalentes
\begin{align*}
36-12d+d^2&\leq 3(12-d^2)\\
36-12d+d^2&\leq 36-3d^2\\
4d^2-12d&\leq 0\\
4d(d-3)&\leq 0.
\end{align*}

Para que se satisfaga esta desigualdad, tiene que pasar o bien que simultáneamente $d\leq 0$ y $d\geq 3$ (lo cual es imposible), o bien que simultáneamente $d\geq 0$ y $d\leq 3$. En conclusión, esto acota el máximo valor posible de $d$ con $3$.

En efecto, existe una solución con $d=3$. De acuerdo al caso de igualdad de la desigualdad de Cauchy-Schwarz, debe pasar cuando $(a,b,c)$ es un múltiplo escalar de $(1,1,1)$, es decir, cuando $a=b=c$. Como $a+b+c+d=6$ y queremos $d=3$, esto forza a que $a=b=c=1$. Y en efecto, tenemos que con esta elección $$a^2+b^2+c^2+d^2=1+1+1+9=12.$$

$\square$

Aplicando Cauchy-Schwarz en un problema con el circunradio

A veces podemos aprovechar información implícita en un problema geométrico y combinarla con la desigualdad de Cauchy-Schwarz. Veamos un problema en el que sucede esto.

Problema. Sea $P$ un punto en el interior del triángulo $ABC$ y $p,q,r$ las distancias de $P$ a los lados $BC, CA, AB$ respectivamente, que tienen longitudes $a,b,c$, respectivamente. Sea $R$ el circunradio de $ABC$. Muestra que $$\sqrt{p}+\sqrt{q}+\sqrt{r} \leq \sqrt{\frac{a^2+b^2+c^2}{2R}}.$$

Sugerencia pre-solución. Necesitarás aplicar la desigualdad de Cauchy-Schwarz más de una vez. Haz una figura para entender la expresión $ap+bq+cr$. Necesitarás también la fórmula que dice que se puede calcular el área $T$ de un triángulo mediante la fórmula $$T=\frac{abc}{R}.$$

Solución. Lo primero que haremos es aplicar la desigualdad de Cauchy-Schwarz en las ternas $(\sqrt{ap},\sqrt{bq},\sqrt{cr})$ y $(1/\sqrt{a},1/\sqrt{b},1/\sqrt{c})$ para obtener $$\sqrt{p}+\sqrt{q}+\sqrt{r}\leq \sqrt{ap+bq+cr}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}.$$

Observa que $ap$ es dos veces el área de $\triangle BCP$. De manera similar, tenemos que $bq$ y $cr$ son las áreas de $\triangle CAP$ y $\triangle ABP$ respectivamente. Así, si llamamos $T$ al área de $\triangle ABC$ tenemos que $ap+bq+cr=2T$. Otra expresión para el área de $\triangle ABC$ en términos de su circunradio $R$ es $$T=\frac{abc}{4R}.$$ En otras palabras, $ap+bq+cr=\frac{abc}{2R}$.

Esto nos permite continuar con la desigualdad como sigue:
\begin{align*}
\sqrt{p}+\sqrt{q}+\sqrt{r} &\leq \sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}\\
&=\sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{ab+bc+ca}{abc}}\\
&=\sqrt{\frac{ab+bc+ca}{2R}}.
\end{align*}

Esto es casi la desigualdad que queremos. Para terminar, basta mostrar que $$ab+bc+ca\leq a^2+b^2+c^2.$$ Esto se puede hacer de varias formas (intenta hacerlo usando la desigualdad MA-MG). Pero para continuar viendo la versatilidad de la desigualdad de Cauchy-Schwarz, observa que se puede deducir de ella aplicándola a las ternas $(a,b,c)$ y $(b,c,a)$.

$\square$

En el problema anterior, ¿para qué puntos $P$ se alcanza la igualdad?

Cauchy-Schwarz más allá de los números reales

Lo que está detrás de la desiguadad de Cauchy-Schwarz es en realidad la noción de producto interior en álgebra lineal. En cualquier espacio vectorial sobre los reales que tenga un producto interior $\langle \cdot, \cdot \rangle$ se satisface una desigualdad del tipo de la de Cauchy-Schwarz. No entraremos en los detalles de la teoría que se necesita desarrollar, pues eso se estudia en un curso de álgebra lineal. Sin embargo, enunciaremos el teorema y veremos una forma de aplicarlo.

Teorema (desigualdad de Cauchy-Schwarz). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$|\langle u , v\rangle|\leq \sqrt{\langle u , u\rangle}\cdot \sqrt{\langle v , v\rangle}.$$

Se puede mostrar que bajo las hipótesis del teorema la función $\norm{u}:=\langle u , u\rangle$ es una norma. Como platicamos con anterioridad, una norma satisface la desigualdad del triángulo, que en espacios vectoriales tiene un nombre especial.

Teorema (desigualdad de Minkowski). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ y $\norm{u}:=\langle u , u\rangle$, entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$\norm{u}+\norm{v}\geq \norm{u+v}.$$

Es relativamente sencillo ver que las desigualdades de Cauchy-Schwarz y de Minkowski son «equivalentes», en el sentido de que se puede mostrar una fácilmente suponiendo la otra y viceversa.

La desigualdad de Cauchy-Schwarz que usamos en las secciones anteriores es para el producto interior en $\mathbb{R}^n$ dado por $$\langle (a_1,\ldots,a_n),(b_1,\ldots,b_n) \rangle = a_1b_1+\ldots + a_nb_n,$$ al cual le llamamos el producto punto.

Si tenemos a $V$ el espacio vectorial de las funciones continuas reales en el intervalo $[0,1]$, entonces $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ es un producto interior para $V$. Esto nos puede ayudar a resolver algunos problemas.

Problema. Sea $f:[0,1]\to \mathbb{R}^+$ una función continua. Muestra que $$\left ( \int_0^1 f(x)\, dx \right) \left (\int_0^1 \frac{1}{f(x)}\, dt \right) \geq 1.$$

Sugerencia pre-solución. Aplica la desigualdad de Cauchy-Schwarz con el producto interior que discutimos antes de esta entrada.

Solución. Tomemos el producto interior $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ en el espacio vectorial de funciones reales y continuas en $[0,1]$. Como la imagen de $f$ está en los reales positivos, podemos definir la función $h:[0,1]\to \mathbb{R}^+$ dada por $h(x)=\sqrt{f(x)}$.

Tenemos que
\begin{align*}
\left \langle h, \frac{1}{h}\right \rangle &= \int_0^1 h(x)\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 1\, dx\\
&=1.
\end{align*}

Por otro lado,

\begin{align*}
\langle h, h \rangle &= \int_0^1 h(x)\cdot h(x)\, dx\\
&=\int_0^1 f(x)\, dx.
\end{align*}

y

\begin{align*}
\left\langle \frac{1}{h}, \frac{1}{h} \right\rangle&= \int_0^1 \frac{1}{h(x)}\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 \frac{1}{f(x)}\, dx
\end{align*}

La conclusión se sigue entonces de manera inmediata de la desigualdad de Cauchy-Schwarz para $\langle \cdot, \cdot \rangle$.

$\square$

Más problemas

Puedes encontrar más problemas que usan la desigualdad de Cauchy-Schwarz en la sección 7.1 del libro Problem Solving through Problems de Loren Larson. También puedes consultar más técnicas y problemas en el libro Desigualdades de la Olimpiada Mexicana de Matemáticas.

Álgebra Lineal I: Problemas de formas cuadráticas y producto interior

Por Blanca Radillo

Introducción

En las últimas sesiones, hemos introducido el tema de formas bilineales y formas cuadráticas. Más adelante, hablamos de positividad de formas cuadráticas y de producto interior. Ahora veremos algunos problemas de formas cuadráticas y producto interior.

Problemas resueltos de formas cuadráticas

Sabemos que si $T:V\times V\rightarrow \mathbb{R}$ es una transformación lineal, $T$ no necesariamente es una forma bilineal (durante la clase del viernes se discutió un ejemplo), entonces una pregunta interesante es ¿qué información tenemos sobre el núcleo de una forma cuadrática? Es fácil ver que una forma cuadrática no es una transformación lineal, pero está asociada a una forma bilineal. Interesadas en esta pregunta, analizaremos algunas propiedades del núcleo de una forma bilineal y de una forma cuadrática.

Problema 1. a) Si $q$ es una forma cuadrática en $\mathbb{R}^n$, ¿el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ es un subespacio de $\mathbb{R}^n$?
b) Describe ${ x\in \mathbb{R}^n:q(x)=0}$ si:
1) $q(x,y)=x^2+y^2$,
2) $q(x,y,z)=xy+yz+zx$
3) $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.

Solución. a) La respuesta es: no, el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ no necesariamente es un subespacio, ya que no necesariamente es cerrado bajo la suma. Daremos un ejemplo.

Sea $q:\mathbb{R}^2\rightarrow \mathbb{R}$ definido como $q((x,y))=x^2-y^2$. Sabemos que ésta es una forma cuadrática. Notemos que para todo $x,y \in\mathbb{R}$, si $v_1=(x,x),v_2=(y,-y)$, entonces $q(v_1)=x^2-x^2=0$ y $q(v_2)=y^2-(-y)^2=0$, entonces $v_1,v_2 \in \{ x\in \mathbb{R}^n: q(x)=0 \}$. Pero $v_1+v_2=(x+y,x-y)$ no pertenecen al núcleo de $q$, ya que $q(v_1+v_2)=q((x+y,x-y))=(x+y)^2-(x-y)^2=4xy\neq 0$ si $x,y\neq 0$.

b.1) Sea $(x,y)\in\mathbb{R}^2$ tal que $q((x,y))=x^2+y^2=0$. Como $x,y\in\mathbb{R}$, sabemos que la única posibilidad en que la suma de dos cuadrados sea cero es que ambos sean cero, por lo tanto $\{ x\in \mathbb{R}^2: q(x)=0 \}=\{(0,0)\}$.

b.2) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=xy+yz+zx=0$. Si $x=0$ entonces $yz=0$, esto es posible sólo si $y=0$ o $z=0$. Entonces el núcleo contiene a los ejes $(x,0,0)$, $(0,y,0)$ y $(0,0,z)$. Ahora, si $x=-y$, entonces $xy+yz+zx=-x^2-xz+zx=-x^2=0$, por lo tanto $x=0=y$, obteniendo nuevamente a los ejes. Ahora suponemos que $x+y\neq 0$. Entonces $xy+yz+zx=xy+z(x+y)=0$, obteniendo que $z=-\frac{xy}{x+y}$ (el cono elíptico). Por lo tanto el núcleo de $q$ son los ejes y el cono elíptico.

b.3) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=(x-y)^2+(y-z)^2+(z-x)^2=0$. Al igual que en el inciso (b.1), esto sólo es posible si $x-y=y-z=z-x=0$, entonces $x=y=z$. Por lo tanto, $\{ x\in \mathbb{R}^n: q(x)=0 \}=\{(x,x,x):x\in\mathbb{R}\}$.

$\triangle$

Problema 2. Sea $V=P_2(\mathbb{R})$ el espacio de polinomios en $[-1,1]$ con coeficientes reales de grado a lo más 2 y considera el mapeo $b:V\times V\rightarrow \mathbb{R}$ definido como

$b(f,g)=\int_{-1}^1 tf(t)g(t) dt.$

Prueba que $b$ es una forma bilineal simétrica de $V$. Si $q$ es la forma cuadrática asociada, encuentra las $f$ en $V$ tales que $q(f)=0$.

Solución. Mostrar que $b$ es bilineal es sencillo, y queda como tarea moral. Es fácil ver que es simétrica, ya que

\begin{align*}
b(f,g)&=\int_{-1}^1 tf(t)g(t) dt \\
&=\int_{-1}^1 tg(t)f(t)dt=b(g,f).
\end{align*}

Ahora, queremos encontrar las funciones $f$ tales que $q(f)=b(f,f)=\int_{-1}^1 tf^2(t)dt=0$. Como $f$ es un polinomio de grado $2$, es de la forma $f(x)=ax^2+bx+c$ para reales $a,b,c$ y entonces

\begin{align*}
0&=q(f)\\
&=\int_{-1}^1 tf^2(t)dt \\
&=\int_{-1}^1 t(at^2+bt+c)^2dt \\
& = \int_{-1}^1 t(a^2t^4+2abt^3+(b^2+2ac)t^2+2bct+c^2)dt \\
&=\int_{-1}^1 (a^2t^5+2abt^4+(b^2+2ac)t^3+2bct^2+c^2t)dt \\
&=\frac{4ab}{5}+\frac{4bc}{3}=0
\end{align*}

Esto implica que $4b(3a+5c)=0$, entonces $b=0$ o $3a+5c=0$. Por lo tanto $$\{f\in V:q(f)=0\}=\{ax^2+c \}\cup \{ax^2+bx-\frac{3a}{5}\}.$$

$\square$

Problemas resueltos de producto interior

Ahora recordemos que en la clase de ayer, definimos formas bilineales y cuadráticas positivas y definidas positivas, y a partir de ello, definimos qué es un producto interior. Así, en los siguientes problemas, veremos algunos ejemplos de estas definiciones.

Problema 3. Determina cuáles de las siguientes formas cuadráticas son positivas. ¿Cuáles también son definidas positivas?

  1. $q(x,y,z)=xy+yz+zx$.
  2. $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.
  3. $q(x,y,z)=x^2-y^2+z^2-xy+2yz-3zx$.

Solución. Sea $v=(x,y,z)\in\mathbb{R}^3$, recordemos que para cada uno de los incisos $q$ es positiva si $q(v)\geq 0$ para toda $v$ y es definida positiva si es positiva y $q(v)=0$ si y sólo si $v=0$.

1) Si escogemos a $v$ como $v=(1,-2,1)$ tenemos que
\begin{align*}q(v)&=q(1,-2,1)\\&=1(-2)+(-2)(1)+1(1)\\&=-2-2+1\\&=-3.\end{align*} Por lo tanto no es positiva ni definida positiva.

2) Dado que para todo $x,y,z$, tenemos que $(x-y)^2,(y-z)^2,(z-x)^2\geq 0$, entonces $q(v)\geq 0$ para todo $v\in\mathbb{R}^3$. Pero si $q(v)=0$, entonces $x=y=z$, pero no necesariamente son iguales a cero. Por lo tanto, $q$ es positiva pero no es definida positiva.

3) Si tomamos $v=(3,0,3)$, obtenemos que \begin{align*}q(v)&=(3)^2+(3)^2-3(3)(3)\\&=9+9-27\\&=-9\\&<0.\end{align*} Por lo tanto no es positiva ni definida positiva.

$\triangle$

Problema 4. Sea $V=C([a,b],\mathbb{R})$. Prueba que el mapeo $\langle \cdot , \cdot \rangle$ definido por $$\langle f,g \rangle = \int_a^b f(x)g(x) dx$$ es un producto interior en $V$.

Solución. Por lo visto en la clase de ayer, tenemos que un producto interior es una forma bilineal simétrica y definida positiva.
Es fácil ver que es forma bilineal simétrica. Basta con probar que es una forma definida positiva. Entonces $\langle f,f\rangle=\int_0^1 f^2(x)dx \geq 0$ ya que $f^2(x)\geq 0$ para toda $x$. Por lo tanto $\langle \cdot, \cdot \rangle$ es positiva. Como $f^2$ es continua y positiva, si $\int_0^1 f^2(x)dx=0$, implica que $f^2=0$, entonces $f=0$. Por lo tanto, $\langle \cdot , \cdot \rangle$ es definida positiva, y por ende, es un producto interior.

$\triangle$

Para finalizar, el siguiente problema es un ejemplo que pareciera ser producto interior, pero resulta que no serlo.

Problema 5. Sea $C^\infty([0,1],\mathbb{R})$ es el espacio de funciones suaves (funciones continuas cuyas derivadas de cualquier orden existen y son continuas). Definimos el espacio $V={ f\in C^\infty([0,1],\mathbb{R}): f(0)=f(1)=0 }$. Si definimos $$\langle f,g \rangle:=\int_0^1 (f(x)g'(x)+f'(x)g(x))dx,$$ ¿es $\langle \cdot , \cdot \rangle$ un producto interior en $V$?

Solución. Es claro ver que $\langle \cdot, \cdot \rangle$ es bilineal y simétrica, entonces falta demostrar si es o no es una forma definida positiva. Para $f\in V$, tenemos que $\langle f,f \rangle=\int_0^1 2f(x)f'(x)dx.$

Notemos que, por la regla de la cadena, $\frac{d}{dx}f^2(x)=2f(x)f'(x)$, entonces \begin{align*}\langle f,f \rangle&=\int_0^1 \frac{d}{dx} f^2(x) dx\\&=f^2(1)-f^2(0)\\&=0.\end{align*}

Por lo tanto $\langle f,f\rangle=0$ para toda $f$. Esto implica que no es definida positiva, y como consecuencia, no es producto interior de $V$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en $\mathbb{R}^n$ en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial $V$ es una transformación $b:V\times V \to \mathbb{R}$ tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si $b(x,y)=b(y,x)$ para cada par de vectores $x,y$ en $V$. Una forma cuadrática de $V$ es una transformación $q:V\to \mathbb{R}$ tal que $q(x)=b(x,x)$ para alguna forma bilineal $b$.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea $q:V\to \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b:V\times V \to \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo vector $x$. Esta forma bilineal está determinada mediante la identidad de polarización $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Demostración. Tomemos una forma cuadrática $q$ de $V$. Por definición, está inducida por una forma bilineal $B$ de $V$, es decir, $q(x)=B(x,x)$. Definamos la transformación $b$ mediante $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$ Comencemos probando que $b$ es una transformación bilineal simétrica. Notemos que:
\begin{align*}
b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\
&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,y)+B(y,x)}{2}.
\end{align*}

De aquí es muy claro que $b$ es forma bilineal, pues fijando $x$, set tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $y$; y fijando $y$, se tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $x$. Además, de esta igualdad (o directo de la definición de $b$) es claro que $b(x,y)=b(y,x)$.

También de esta igualdad obtenemos que $$b(x,x)=B(x,x)=q(x).$$

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica $b’$ tal que $b'(x,x)=q(x)$ debe satisfacer, como en las cuentas que hicimos arriba, que
\begin{align*}
q(x+y)&=b'(x+y,x+y)\\
&=q(x)+q(y)+b'(x,y)+b'(y,x)\\
&=q(x)+q(y)+2b'(x,y).
\end{align*}

De aquí, despejando $b’$, se obtiene que debe tener la forma de $b$.

$\square$

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática $q$ de $V$, a la única forma bilineal simétrica $b$ de $V$ tal que $q(x)=b(x,x)$ le llamamos la forma polar de $q$.

Ejemplo 1. En el espacio vectorial $\mathbb{R}^n$, la transformación $q:\mathbb{R}^n\to \mathbb{R}$ dada por $$q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.$$ es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a $x=(x_1,\ldots,x_n)$ y $y=(y_1,\ldots,y_n)$ a $$b(x,y)=x_1y_1+\ldots+x_ny_n.$$

Esto coincide con la construcción dada por la identidad de polarización, ya que \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

$\triangle$

Ejemplo 2. En el espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales, la transformación $Q$ dada por $$Q(p)=p(0)p(1)+p(2)^2$$ es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización
\begin{align*}
B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\
&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\
&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\
&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).
\end{align*}

$\triangle$

Propiedades de formas cuadráticas

Si $q$ es una forma cuadrática, $x$ es un vector y $c$ es un real, tenemos que $q(cx)=c^2q(x)$, pues sale una $c$ por cada una de las coordenadas de la forma bilineal asociada. En particular, $q(-x)=q(x)$.

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea $q$ una forma cuadrática en $V$ con forma polar $b$. Entonces:

  • Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$b(x,y)=\frac{q(x+y)-q(x-y)}{4}.$$
  • (Ley del paralelogramo) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$q(x+y)+q(x-y)=2(q(x)+q(y)).$$
  • (Teorema de Pitágoras) Para vectores $x$ y $y$ tales que $b(x,y)=0$, se tiene que $$q(x+y)=q(x)+q(y).$$
  • (Diferencia de cuadrados) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $b(x+y,x-y)=q(x)-q(y).$

Demostración. Por la identidad de polarización tenemos que $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},$$ y como $q(y)=q(-y)$, tenemos también por la identidad de polarización que \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores $x+y$ y $x-y$, y de usar que $q(2x)=4q(x)$ y que $q(2y)=4q(y)$.

$\square$

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial $V$ de dimensión $n$, basta tomar una base $\{e_1,\ldots,e_n\}$ de $V$ y decidir los valores $b_{ij}$ de $b(e_i,e_j)$ para $1\leq i \leq j \leq n$. Como $b$ es simétrica, para $j<i$ se tendría que $b(e_i,e_j)=b(e_j,e_i)$, es decir, que $b_{ji}=b_{ij}$.

De esta forma, para todo vector $v$ en $V$ podemos encontrar el valor de $q(v)$ expresando $v$ en la base $\{e_1,\ldots,e_n\}$, digamos, $$v=a_1e_1+\ldots+a_ne_n,$$ de donde $$q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.$$

Ejemplo. Toda forma cuadrática en $\mathbb{R}^3$ se obtiene de elegir reales $a,b,c,d,e,f$ y definir $$q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.$$ La forma polar de $q$ es la forma bilineal $B$ tal que para la base canónica $e_1,e_2,e_3$ de $\mathbb{R}^3$ hace lo siguiente

\begin{align*}
B(e_1,e_1)&=a\\
B(e_2,e_2)&=b\\
B(e_3,e_3)&=c\\
B(e_1,e_2)&=B(e_2,e_1)=d\\
B(e_2,e_3)&=B(e_3,e_2)=e\\
B(e_3,e_1)&=B(e_1,e_3)=f.
\end{align*}

$\triangle$

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como $\mathbb{R}^n$. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales $\alpha_1,\ldots, \alpha_r$ y formas lineales $l_1,\ldots,l_r$. Consideremos $$q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.$$ Se tiene que $q$ es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes $1$ y $-1$.

Teorema (clasificación de Gauss de formas cuadráticas). Sea $q$ una forma cuadrática en $\mathbb{R}^n$. Entonces, existen enteros no negativos $r$ y $s$, y formas lineares $l_1,\ldots,l_r,m_1,\ldots,m_s$ en $(\mathbb{R}^n)^\ast$, todas ellas linealmente independientes, tales que $$q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.$$

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números $r$ y $s$ en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en $\mathbb{R}^3$ dada por $q(x,y,z)=xy+yz+zx$. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que: $$xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,$$ en donde
\begin{align*}
(x,y,z)&\mapsto \frac{2x+y+z}{2},\\
(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\
(x,y,z)&\mapsto x
\end{align*}
son formas lineales linealmente independientes.

$\triangle$

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las formas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectoriales. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que $q(x,y)=3x^2-y^2+7y$ no es una forma cuadrática.
  • Muestra que si $\alpha_1,\ldots, \alpha_r$ son reales y tomamos formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$, entonces $$q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2$$ es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática $Q(f)=\int_{0}^1 f^2(x)\, dx$ en el espacio vectorial de funciones continuas en el intervalo $[0,1]$?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad y espacio ortogonal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales y del espacio dual. Vimos que las formas coordenadas correspondientes a una base forman bases del espacio dual. También hicimos ejemplos prácticos de cómo encontrar bases duales y cómo hacer cambios de base en el espacio dual. Usaremos la teoría que hemos desarrollado hasta el momento para estudiar los conceptos de ortogonalidad y espacio ortogonal.

Antes de comenzar, es importante dejar un consejo. Quizás a estas alturas asocias a la ortogonalidad con la perpendicularidad. Esta intuición puede ayudar un poco más adelante, pero por el momento es recomendable que dejes esa intuición de lado. El problema es que la «perpendicularidad» habla de parejas de segmentos, parejas de lineas, o parejas de vectores. Sin embargo, las nociones de ortogonalidad que estudiaremos ahora hablan de cuándo una forma lineal $l$ y un vector $v$ son ortogonales, por lo cual es mejor pensarlo por el momento en la ortogonalidad como un concepto nuevo.

Definiciones de ortogonalidad y espacio ortogonal

En esta sección, $V$ es un espacio vectorial sobre un campo $F$.

Definición. Tomemos una forma lineal $l$ de $V$ y $v$ un vector en $V$. Decimos que $l$ y $v$ son ortogonales si $$\langle l,v \rangle = 0.$$

De manera equivalente, $l$ y $v$ son ortogonales si $l(v)=0$, o si $v$ está en el kernel de $l$.

Ejemplo 1. Consideremos la forma lineal $l$ de los polinomios en $\mathbb{R}_2[x]$ que a un polinomio lo manda a su evaluación en $2$, es decir, tal que $l(p)=p(2)$. Consideremos al polinomio $p(x)=x^2-3x+2$. Tenemos que \begin{align*}l(p)&=p(2)\\&=2^2-3\cdot 2 +2\\&=4-6+2\\&=0,\end{align*} de modo que $\langle l, p\rangle =0,$ así que $l$ y $p$ son ortogonales. Por otro lado, si $q(x)=x+1$, tenemos que $\langle l,q\rangle = l(q)=3$, de modo que $l$ y $q$ no son ortogonales.

$\triangle$

Ejemplo 2. Consideremos la forma lineal $l(x,y,z)=2x+3y-z$ de $\mathbb{R}^3$. Un vector que es ortogonal con $l$ es el vector $v=(0,0,0)$. Un vector un poco más interesante es el vector $(1,1,5)$ pues $l(1,1,5)=2+3-5=0$.

El vector $(1,1,5)$ también es ortogonal a la forma lineal $m(x,y,z)=x+y-\frac{2z}{5}$, como puedes verificar.

$\triangle$

A partir de la noción anterior, nos podemos hacer dos preguntas. Dado un conjunto de vectores, ¿quiénes son todas las formas lineales ortogonales a todos ellos? Dado un conjunto de formas lineales, ¿quiénes son todos los vectores ortogonales a todas ellas? Esta noción queda capturada en la siguiente definición.

Definición. Para $S$ un subconjunto de $V$, definimos al ortogonal de $S$ como el conjunto de formas lineales de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot:= \{l\in V^\ast: \langle l,v \rangle = 0\, \forall v \in S\}.$$

Tenemos una definición dual para subconjuntos de $V^\ast$.

Definición. Para $S$ un subconjunto de $V^\ast$, el ortogonal de $S$ es el conjunto de vectores de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot=\{v\in V: \langle l, v \rangle = 0 \, \forall l\in S\}.$$

Observa que estamos definiendo al ortogonal para subconjuntos de $V$ (y de $V^\ast$), es decir, que $S$ no tiene por qué ser un subespacio vectorial de $V$. Por otro lado, sea o no $S$ un subespacio, siempre tenemos que $S^\bot$ es un subespacio. Por ejemplo, si $S$ es un subconjunto de $V$ y $l_1$, $l_2$ son formas lineales que se anulan en todos los elementos de $S$, entonces para cualquier escalar $c$ también tenemos que $l_1+cl_2$ se anula en todos los elementos de $S$.

Ejercicio. Tomemos $S$ al subconjunto de matrices diagonales con entradas enteras en $M_2(\mathbb{R})$. ¿Quién es $S^\bot$? Ojo: Aquí $S$ no es un subespacio.

Solución. Sabemos que para cualquier forma lineal $l$ de $M_2(\mathbb{R})$ existen reales $p$, $q$, $r$, $s$ tales que $$l\begin{pmatrix}a&b\\c&d\end{pmatrix}=pa+qb+rc+sd.$$

Si $l$ está en $S^\bot$, se tiene que anular en particular en las matrices $A=\begin{pmatrix} 1 & 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 0 & 1\end{pmatrix}$, pues ambas están en $S$. En otras palabras, $$0 = l(A) = p$$ y $$0 = l(B) = s.$$ Así, la forma lineal tiene que verse como sigue:

$$l\begin{pmatrix}a&b\\c&d\end{pmatrix}= qb+rc.$$

Y en efecto, todas las formas lineales de esta forma se anulan en cualquier matriz diagonal con entradas enteras, pues en esas matrices $b=c=0$.

$\triangle$

Encontrar el espacio ortogonal de manera práctica

Ya mencionamos que $S$ no necesariamente tiene que ser un subespacio para definir $S^\bot$. Sin embargo, usando la linealidad podemos mostrar que, para cualquiera de las dos definiciones, basta estudiar qué sucede con subespacios vectoriales. La demostración de la siguiente proposición es sencilla, y se deja como tarea moral.

Proposición 1. Para $S$ un subconjunto de $V$ (o de $V^\ast$), tenemos que $$S^\bot = \text{span}(S)^\bot.$$

Esta proposición es particularmente importante pues en espacios vectoriales de dimensión finita nos permite reducir el problema de encontrar ortogonales para subconjuntos de vectores (o de formas lineales), a simplemente resolver un sistema de ecuaciones. El procedimiento que hacemos es el siguiente (lo enunciamos para vectores, para formas lineales es análogo):

  • Tomamos una base $B=\{b_1,\ldots,b_n\}$ de $V$.
  • Tomamos un subconjunto $S$ de vectores de $V$.
  • Usamos la Proposición 1 para argumentar que $S^\bot=\text{span}(S) ^\bot$.
  • Consideramos una base $C=\{c_1,\ldots,c_m\}$ de $\text{span}(S)$ y notamos que una forma lineal $l$ se anula en todo $\text{span}(S)$ si y sólo si se anula en cada elemento de $C$.
  • Escribimos a cada $c_i$ como combinación lineal de elementos de $B$, digamos $$c_i=a_{i1}b_1+\ldots+a_{in}b_n.$$
  • Cada condición $l(c_i)=0$ se transforma en la ecuación lineal $$a_{i1}l(b_1)+\ldots+a_{in}l(b_n)=l(c_i)=0$$ en las variables $l(b_1), l(b_2),\ldots, l(b_n)$ igualada a $0$, de forma que las $m$ condiciones dan un sistema de ecuaciones homogéneo.
  • Podemos resolver este sistema con reducción gaussiana para encontrar todas las soluciones, aunque basta con encontrar a las soluciones fundamentales, pues justo forman la base de $\text{span}(S)^\bot=S^\bot$.

Veamos este método en acción.

Ejemplo de encontrar el espacio ortogonal de manera práctica

Ejercicio. Considera el subconjunto $S$ de $\mathbb{R}^3$ cuyos elementos son $(2,3,-5)$, $(-1,0,1)$, $(3,3,-6)$, $(-3,-2,5)$. Determina $S^\bot$.

Solución. Para encontrar $S^\bot$, basta encontrar $\text{span}(S)^\bot$.

Lo primero que notamos es que todos los vectores de $S$ satisfacen que la suma de sus entradas es $0$, así que todos los vectores en $\text{span}(S)$ también, de modo que $\text{span}(S)$ no es todo $\mathbb{R}^3$, así que es de dimensión a lo más $2$. Notamos también que $(-1,0,1)$ y $(2,3,-5)$ son linealmente independientes, así que $\text{span}(S)$ es de dimensión al menos $2$, de modo que es de dimensión exactamente $2$ y por lo tanto $(-1,0,1)$ y $(2,3,-5)$ es una base.

Para cualquier forma lineal $l$ en $\mathbb{R}^3$ existen reales $a$, $b$, $c$ tales que $l(x,y,z)=ax+by+cz$. Para encontrar aquellas formas lineales que se anulan en $\text{span}(S)$, basta encontrar aquellas que se anulan en la base, es decir, en $(-1,0,1)$ y $(2,3,-5)$. De esta forma, necesitamos resolver el sistema de ecuaciones homogéneo \begin{align*}-a+c&=0\\2a+3b-5c&=0.\end{align*}

Para resolver este sistema, aplicamos reducción gaussiana:

\begin{align*}
&\begin{pmatrix} -1 & 0 & 1\\ 2 & 3 & -5\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 3 & -3\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 1 & -1\end{pmatrix}
\end{align*}

La variable libre es $c$ y las pivote son $a$ y $b$. Obtenemos $a=c$ y $b=c$, de donde las soluciones se ven de la forma $(c,c,c)$. Concluimos entonces que $S^\bot$ son las formas lineales tales que $$l(x,y,z)=c(x+y+z)$$ para algún real $c$.

$\triangle$

En el ejemplo anterior, la dimensiones de $\text{span}(S)$ y de $\text{span}(S)^\bot$ suman $3$, que es la dimensión de $\mathbb{R}^3$. Esto no es una casualidad, como veremos en la siguiente sección.

El teorema de dualidad

Las dimensiones de un subespacio de un espacio vectorial de dimensión finita, y de su espacio ortogonal, están relacionadas con la dimensión del espacio. Este es uno de los teoremas más importantes de dualidad.

Teorema. Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y $W$ un subespacio de $V$ (o de $V^\ast)$. Entonces $$\dim W + \dim W^\bot = \dim V.$$

Demostración. Hagamos primero el caso en el que $W$ es un subespacio de $V$. Supongamos que $\dim V = n$ y que $\dim W = m$. Como $W$ es subespacio, tenemos que $m\leq n$. Tenemos que mostrar que $\dim W^\bot = n-m$, así que basta exhibir una base de $\dim W^\bot$ con $n-m$ formas lineales.

Para ello, tomemos $e_1,e_2,\ldots, e_m$ una base de $W$ y tomemos elementos $e_{m+1},\ldots,e_{n}$ que la completan a una base de $V$. Afirmamos que la base de $W^\bot$ que estamos buscando consiste de las formas coordenadas $e_{m+1}^\ast,\ldots,e_{n}^\ast$ correspondientes a $e_{m+1},\ldots,e_n$.

Por un lado, estas formas coordenadas son linealmente independientes, pues son un subconjunto de la base $e_1^\ast,\ldots, e_n^\ast$ de $V^\ast$. Por otro lado, si tenemos a una forma lineal $l$ de $V$, habíamos mostrado que la podemos expresar de la forma $$l=\sum_{i=1}^n \langle l, e_i \rangle e_i^\ast,$$ de modo que si $l$ se anula en todo $W$, en particular se anula en los vectores $e_1,\ldots,e_m$, por lo que $$l=\sum_{i=m+1}^n \langle l, e_i\rangle e_i^\ast,$$ lo cual exhibe a $l$ como combinación lineal de los elementos $e_{m+1}^\ast,\ldots,e_n^\ast$. De esta forma, este subconjunto de formas lineales es linealmente independiente y genera a $W^\bot$, que era justo lo que necesitábamos probar.

Ahora hagamos el caso en el que $W$ es un subespacio de $V^\ast$. Podríamos hacer un argumento análogo al anterior, pero daremos una prueba alternativa que usa la bidualidad canónica $\iota: V\to {V^\ast} ^\ast$. La igualdad $\langle l,v \rangle = 0$ es equivalente a $\langle \iota(v),l \rangle =0$. De esta forma, $v$ está en $W^\bot$ si y sólo si $\iota(v)\in {V^\ast} ^\ast$ se anula en todo $W$. Como $\iota$ es isomorfismo y el espacio de los $g\in {V^\ast} ^\ast$ que se anulan en $W$ tiene dimensión $$\dim V^\ast-\dim W = \dim V – \dim W$$ (por la primer parte del teorema), concluimos entonces que $$\dim W^\bot = \dim V – \dim W,$$ lo cual prueba la otra parte del teorema.

$\square$

Problema. Sea $W$ el subespacio de matrices simétricas de $M_3(\mathbb{R})$ ¿Cuál es la dimensión de $W^\bot$?

Solución. Se puede mostrar que $E_{11}$, $E_{22}$, $E_{33}$, $E_{12}+E_{21}$, $E_{23}+E_{32}$, $E_{13}+E_{31}$ forman una base para $W$. De esta forma, $W$ tiene dimensión $6$. Por el Teorema 1, tenemos que $\dim W^\bot = \dim M_3(\mathbb{R})-6=9-6=3$.

$\triangle$

Aplicar dos veces ortogonalidad en subespacios

Una consecuencia importante del teorema anterior es que aplicarle la operación «espacio ortogonal» a un subespacio de un espacio de dimensión finita nos regresa al inicio. Más formalmente:

Corolario. Si $V$ es un espacio vectorial de dimensión finita sobre un campo $F$ y $W$ un subespacio de $V$ (o de $V^\ast$), entonces $(W^\bot)^\bot=W$.

Demostración. Haremos la prueba para cuando $W$ es subespacio de $V$. La otra es análoga y se deja como tarea moral. Lo primero que vamos a mostrar es que $W\subset (W^\bot)^\bot$. Tomemos $w$ en $W$. Tenemos que mostrar que $l(w)=0$ para cualquier $l$ en $W^\bot$. Por definición, un $l$ en $W^\bot$ se anula en todo elemento de $W$, así que se anula particularmente en $w$, como queremos.

Como $W$ y $(W^\bot)^\bot$ son espacios vectoriales, tenemos que $W$ es subespacio de $(W^\bot)^\bot$. Por el teorema de dualidad, tenemos que $$\dim W^\bot = \dim V – \dim W.$$ Usando esto y de nuevo el teorema de dualidad, tenemos que $$\dim (W^\bot)^\bot = \dim V – \dim W^\bot = \dim W.$$

De esta forma, $W$ es un subespacio de $\dim (W^\bot)^\bot$ de su misma dimensión, y por lo tanto $W= (W^\bot)^\bot$.

$\square$

Hay que tener particular cuidado en usar el corolario anterior. Solamente se puede garantizar su validez cuando $W$ es un subespacio de $V$, y cuando $V$ es de dimensión finita. En efecto, si $S$ es simplemente un subconjunto de $V$ y no es un subespacio, entonces la igualdad $S=(S^\bot)^\bot$ es imposible, pues al lado derecho tenemos un subespacio de $V$ y al izquierdo no.

Más adelante…

En esta entrada hablamos de ortogonalidad y de espacios ortogonales como si fueran un concepto nuevo, dejando de lado, al menos por el momento, nuestras ideas previas de asociar ortogonalidad con perpendicularidad. También vimos cómo encontrar un espacio ortogonal de manera práctica y hablamos de un teorema muy importante: el teorema de la dualidad.

Lo que sigue es hablar de cómo la noción de ortogonalidad nos permite estudiar sistemas de ecuaciones e hiperplanos. En la siguiente entrada estudiaremos estos conceptos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra la proposición enunciada en la entrada.
  • Sea $S$ el subespacio de matrices diagonales en $M_n(\mathbb{R})$. ¿Cuál es la dimensión de $S^\bot$?
  • Considera $\mathbb{R}_3[x]$, el espacio vectorial de polinomios con coeficientes reales y grado a lo más $3$. Considera las formas lineales $\text{ev}_2$ y $\text{ev}_3$ que evalúan a un polinomio en $2$ y en $3$ respectivamente. ¿Quién es el espacio ortogonal de $\{\text{ev}_2,\text{ev}_3\}$?
  • Prueba la segunda parte del teorema de dualidad con un argumento análogo al que usamos para probar la primer parte.
  • Prueba el corolario para cuando $W$ es subespacio de $V^\ast$.
  • Verifica que las matrices propuestas en el último ejercicio en efecto forman una base para el subespacio de matrices simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de dualidad y base dual

Por Blanca Radillo

Introducción

En esta ocasión, comenzaremos a resolver problemas sobre un nuevo tema: espacio dual. La parte teórica ya la hemos cubierto en entradas anteriores. En la entrada de introducción a dualidad definimos el espacio dual y las formas coordenadas. Después, en una siguiente entrada, de bases duales vimos que las formas coordenadas son una base del espacio dual, hablamos de ciertos problemas prácticos para resolver, y vimos un teorema que relaciona bases, bases duales y una matriz invertible.

Problemas resueltos

Uno de los problemas de dualidad que discutimos la ocasión anterior es expresar a una base dual de vectores en $V$ en términos de la base dual de la base canónica. Veamos un ejemplo de esto.

Problema 1. Sean $v_1,v_2,v_3,v_4$ los vectores en $\mathbb{R}^4$ definidos como $$v_1=\begin{pmatrix} 1 \\ 1 \\ 1 \\ 1 \end{pmatrix}, v_2=\begin{pmatrix} 1 \\ 2 \\ 3 \\ 4 \end{pmatrix}, v_3=\begin{pmatrix} 0 \\ 0 \\ 1 \\ 2 \end{pmatrix}, v_4=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 5 \end{pmatrix}.$$ Demuestra que $V:=\{v_1,v_2,v_3,v_4\}$ es una base de $\mathbb{R}^4$ y encuentra la base dual de $V$ en términos de $e_i^\ast$, donde $e_i^\ast$ es la base dual de la base canónica de $\mathbb{R}^4$.

Solución. Dado que $V$ está conformado por cuatro vectores y la dimensión de $\mathbb{R}^4$ es $4$, basta con probar que son vectores linealmente independientes. Hay dos maneras de hacerlo.

Manera 1: Sean $a,b,c,d \in \mathbb{R}$ tales que $0=av_1+bv_2+cv_3+dv_4$. Esto da cuatro ecuaciones

\begin{align*}
0&=a+b+d\\
0&=a+2b\\
0&=a+3b+c\\
0&=a+4b+2c+5d.
\end{align*}

De la segunda obtenemos que $a=-2b$, sustituyendo en la primera y en la tercera
\begin{align*}
d&=2b-b=b,\\
c&=2b-3b=-b,
\end{align*}
y sustituyendo ésto en la cuarta, tenemos que $0=-2b+4b-2b+5b=5b$. Por lo tanto $a=b=c=d=0$, implicando que los vectores en $V$ son linealmente independientes, y por consiguiente forman una base de $\mathbb{R}^4$.

Manera 2: También podemos hacer la reducción gaussiana en la matriz $(A|I)$ donde $A$ es la matriz cuyas columnas son los vectores de $V$. Esta forma tiene la ventaja de que a la vez calcularemos la matriz inversa que nos interesa encontrar.
$$\left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 1 & 2 & 0 & 0 & 0 & 1 & 0 & 0 \\ 1 & 3 & 1 & 0 & 0 & 0 & 1 & 0 \\ 1 & 4 & 2 & 5 & 0 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 2 & 1 & -1 & -1 & 0 & 1 & 0 \\ 0 & 3 & 2 & 4 & -1 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 & 1 & -2 & 1 & 0 \\ 0 & 0 & 2 & 7 & 2 & -3 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 0 & 0 & 0 & 2 & -7/5 & 4/5 & -2/5 \\ 0 & 1 & 0 & 0 & -1 & 6/5 & -2/5 & 1/5 \\ 0 & 0 & 1 & 0 & 1 & -11/5 & 7/5 & -1/5 \\ 0 & 0 & 0 & 1 & 0 & 1/5 & -2/5 & 1/5 \end{array} \right)$$


Como podemos reducir a la identidad, los vectores iniciales son linealmente independientes y forman una base. Más aún, ya obtuvimos la inversa de $A$.

Ahora, para obtener la base dual $V^{\ast}:=\{v_1^\ast,v_2^\ast,v_3^\ast,v_4^\ast\}$ de la base $V$, por lo visto en la última entrada, podemos escribir a cada elemento de $V^\ast$ como combinación lineal de $e_i^\ast$, donde los coeficientes del vector $v_i^\ast$ están en la $i$-ésima fila de $A^{-1}$. Por lo tanto,
\begin{align*}
v_1^\ast &= 2e_1^\ast -\frac{7}{5} e_2^\ast +\frac{4}{5} e_3^\ast -\frac{2}{5}e_4^\ast\\
v_2^\ast &= -e_1^\ast +\frac{6}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast\\
v_3^\ast &= e_1^\ast -\frac{11}{5} e_2^\ast +\frac{7}{5} e_3^\ast -\frac{1}{5}e_4^\ast\\
v_4^\ast &= \frac{1}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast.
\end{align*}

$\square$

Otro tipo de problemas de dualidad consisten en determinar algunos vectores en $V$ cuya base dual sea una base dada de $V^\ast$.

Problema 2. Considera las siguientes formas lineales en $\mathbb{R}^3$: \begin{align*}
l_1(x,y,z)&=x-y, \\
l_2(x,y,z)&=y-z, \\
l_3(x,y,z)&=x+y-z.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.
  2. Encuentra una base de $\mathbb{R}^3$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) Por el último teorema de la entrada de bases duales, sabemos que $l_1,l_2,l_3$ forman una base si la matriz $A=[l_i(e_j)]$ es invertible, donde $e_j$ es la base canónica de $\mathbb{R}^3$.

Para mostrar que $A$ es invertible, calcularemos la forma escalonada reducida de la matríz $(A|I)$. Entonces,

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 1 & 1 & -1 & 0 & 0 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 2 & -1 & -1 & 0 & 1 \end{array} \right) \\
\to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 0 & -1 & 1 \\ 0 & 1 & 0 & -1 & -1 & 1 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right)
\end{align*}

Con esto concluimos que $A$ es invertible, y por lo tanto $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.

(2) En el inciso anterior, calculamos la inversa de $A$, obteniendo $$A^{-1}=\begin{pmatrix} 0 & -1 & 1 \\ -1 & -1 & 1 \\ -1 & -2 & 1 \end{pmatrix}.$$
Recordemos que la base $v_1,v_2,v_3$ de $\mathbb{R}^3$ está determinada por las columnas de $B=A^{-1}$, entonces $$v_1=\begin{pmatrix} 0 \\ -1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} -1 \\ -1 \\ -2 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}.$$

$\square$

Veamos otro ejemplo, en el que veremos formas lineales un poco más interesantes, relacionadas con cálculo.

Problema 3. Sea $V=\mathbb{C}_2[X]$ el espacio vectorial de polinomios de grado a lo más 2 con coeficientes complejos, y para cada $P\in V$ definimos
\begin{align*}
l_1(P)&=P(0), \\ l_2(P)&=\int_0^1 P(x) \, dx, \\ l_3(P)&=\int_0^1 P(x)e^{-2\pi ix}\, dx.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ pertenecen a $V^*$. Más aún, forman una base de $V^*$.
  2. Encuentra una base $v_1,v_2,v_3$ de $V$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) No es difícil ver que son formas lineales. Para $l_1$, notamos que \begin{align*}
l_1(P+Q)&=P(0)+Q(0)=l_1(P)+l_1(Q)\\
l_1(aP)&=aP(0)=al_1(P)
\end{align*} para cualesquiera polinomios $P$ y $Q$, y cualquier escalar $a$ en $\mathbb{C}$. Para $l_2$ y $l_3$, la linealidad se sigue por las propiedades de la integral.

Para probar que $l_1, l_2,l_3$ forman una base de $V^\ast$, lo haremos de manera similar al problema anterior. Sabemos que $1,x,x^2$ forman la base canónica de $V$, entonces $L:=\{l_1,l_2,l_3\}$ es una base de $V^\ast$ si la matriz $A=[l_i(e_j)]$ es invertible. Calculando $$l_1(1)=1, \ l_1(x)=l_1(x^2)=0,$$ $$l_2(1)=1, \ l_2(x)=\int_0^1 xdx=\frac{1}{2},$$ $$ l_2(x^2)=\int_0^1 x^2 dx=\frac{1}{3},$$ $$l_3(1)=\int_0^1 e^{-2\pi i x}dx=0, \ l_3(x)=\int_0^1 xe^{-2\pi i x}dx=\frac{i}{2\pi},$$ $$l_3(x^2)=\int_0^1 x^2e^{-2\pi i x}dx=\frac{1+i\pi}{2\pi^2}.$$
(Para calcular $l_3(x),l_3(x^2)$ se usa integración por partes). Entonces la matriz es $$A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1/2 & 1/3 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} \end{pmatrix}.$$

Ahora, reduciremos la matriz $(A|I)$ para simultáneamente probar que $A$ es invertible y encontrar $A^{-1}$. Tenemos que

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 1 & 1/2 & 1/3 & 0 & 1 & 0 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} & 0 & 0 & 1 \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1/2 & 1/3 & -1 & 1 & 0 \\ 0 & i\pi & 1+i\pi & 0 & 0 & 2\pi^2 \end{array} \right)\\
\to & \left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 3 & 2 & -6 & 6 & 0 \\ 0 & 1 & \frac{1+i\pi}{i\pi} & 0 & 0 & -2i\pi \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & \frac{-6-6\pi i}{3+\pi i} & \frac{6+6\pi i}{3+\pi i} & \frac{-4\pi^2}{3+\pi i} \\ 0 & 0 & 1 & \frac{6\pi i}{3+\pi i} & \frac{-6\pi i}{3+\pi i} & \frac{6\pi^2}{3+\pi i} \end{array} \right)
\end{align*}

Por lo tanto $A$ es invertible, implicando que $L$ es una base de $V^*$.

(2) Ya calculada en el inciso anterior, tenemos que $$A^{-1}=\frac{1}{3+\pi i} \begin{pmatrix} 3+\pi i & 0 & 0 \\ -6-6\pi i & 6+6\pi i & -4\pi^2 \\ 6\pi i & -6 \pi i & 6\pi^2 \end{pmatrix}.$$ De esta matriz leemos a las coordenadas de la base que estamos buscando en términos de la la base canónica $\{1,x,x^2\}$. Las columnas son los vectores de coordenadas. Por lo tanto, la base de $V$ tal que $L$ es la base dual es:

\begin{align*}
v_1&= \frac{1}{3+\pi i} \left(3+\pi i – (6+6\pi i) x + 6\pi i x^2\right) \\
v_2&= \frac{1}{3+\pi i} \left((6+6\pi i)x-6\pi i x^2 \right) \\
v_3&= \frac{1}{3+\pi i} \left( -4\pi^2 x+6\pi^2x^2 \right).
\end{align*}

$\square$

Fórmula de interpolación de Lagrange

La teoría de dualidad tiene amplias aplicaciones. Con ella se puede probar un resultado clásico: podemos construir un polinomio de grado $n$ que pase por $n+1$ puntos que nosotros queramos. En el siguiente ejercicio vemos los detalles.

Problema. (Interpolación de Lagrange) Sea $V=\mathbb{R}_n[X]$ el espacio vectorial de polinomios de grado a lo más $n$ con coeficientes reales. Sean $x_0,\dots,x_n$ números reales distintos. Para $0\leq i \leq n$ definimos $$L_i(x)=\prod_{0\leq j\leq n, j\neq i} \frac{x-x_j}{x_i-x_j}.$$

  1. Demuestra que $L_i(x_j)=\delta_{ij}$ para todo $1\leq i,j \leq n$, donde $\delta_{ij}$ es igual a 1 si $i=j$ y es igual a 0 si $i\neq j$.
  2. Prueba que $L_0,\dots,L_n$ forman una base de $V$.
  3. Encuentra la base dual de $L_0,\dots,L_n$.
  4. Prueba la Fórmula de Interpolación de Lagrange: para todo $P\in V$ tenemos que $$P=\sum_{i=0}^n P(x_i)L_i.$$
  5. Demuestra que para cualquiera $b_0,\dots,b_n \in\mathbb{R}$, podemos encontrar un único polinomio $P\in V$ tal que $P(x_i)=b_i$ para todo $0\leq i \leq n$. Este polinomio $P$ es llamado el polinomio de interpolación de Lagrange asociado a $b_0,\dots,b_n$.

Solución. (1) Si $j\neq i$, entonces $$L_i(x_j)=\frac{x_j-x_j}{x_i-x_j}\cdot\prod_{k\neq j,i} \frac{x_j-x_k}{x_i-x_k}=0.$$ Por otro lado si $i=j$, $$L_i(x_j)=L_i(x_i)=\prod_{k\neq i} \frac{x_i-x_k}{x_i-x_k} =1 .$$

(2) Dado que $\text{dim}(V)=n+1$, cuya base canónica es $1,x,\ldots,x^n$ y $L_0,\dots,L_n$ son $n+1$ vectores, para probar que son base, basta con demostrar que son linealmente independientes. Sean $a_0,\dots,a_n$ tales que $a_0L_0+\dots+a_nL_n=0$. Evaluando en $x_i$ y usando el inciso anterior, tenemos que $$0=\sum_{j=0}^n a_jL_j(x_i)=\sum_{j=0}^n a_j\delta_{ij}=a_i,$$ pero esto pasa cualquier $0\leq i \leq n$. Por lo tanto $L_0,\dots,L_n$ son linealmente independientes, y por consiguiente, son base de $V$.

(3) Por definición de la base dual $L_i^*(L_j)=\delta_{ij}$, y por el inciso (a) tenemos que $L_j(x_i)=\delta_{ij}$, entonces $L_i^*(L_j)=L_j(x_i)$, para toda $i,j$. Ahora, fijamos $i$. Dado que $L_0,\dots, L_n$ forman una base de $V$ y dado que $L_i^*$ es lineal, para todo polinomio $P$ en $V$, escrito en términos de la base como $$P(x)=a_0L_0+a_1L_1+\ldots+a_nL_n,$$ tenemos que
\begin{align*}
L_i^*(P)&=a_0L_i^*(L_0)+\ldots+a_nL_i^\ast(L_n)\\
&=a_0L_0(x_i)+\ldots+a_nL_n(x_i)\\
&=P(x_i).
\end{align*}

Por lo tanto la base dual es $L_i^*=\text{ev}_{x_i}$. Dicho de otra forma, la $i$-ésima forma coordenada consiste en evaluar en $x_i$.

(4) Sabemos que la base dual satisface que $$P=\sum_{i=0}^n \langle L_i^*,P \rangle L_i.$$ Pero por el inciso anterior, $\langle L_i^*,P\rangle =L_i^*(P)=P(x_i)$, entonces $P=\sum_i P(x_i)L_i$.

(5) Definimos $P=\sum_{i=0}^n b_iL_i$. Por el inciso (1), tenemos que $$P(x_j)=\sum_i b_iL_i(x_j)=\sum_i b_i\delta_{ij}=b_j.$$ Entonces el polinomio existe. Falta probar la unicidad.

Suponemos que existe $Q\in V$ tal que $Q(x_i)=b_i$ para todo $i$. Notemos que $P-Q$ es un polinomio de grado a lo más $n$ (por definición) y $(P-Q)(x_i)=0$ para todo $i$, esto implica que $P-Q$ tiene $n+1$ raíces distintas, lo cual es imposible si $P-Q \neq 0$, por lo tanto, $P-Q=0$, es decir $P=Q$.

$\square$

El último argumento viene de la teoría de polinomios. Puedes repasarla en otro curso que tenemos en el blog. Observa que este problema también se satisface para los polinomios con coeficientes complejos, $V=\mathbb{C}_n[X]$. Intenta reproducir la demostración por tu cuenta.

Expresar integral como suma de evaluaciones

Terminamos esta entrada con el siguiente problema. El enunciado no menciona dualidad, pero podemos usar la teoría desarrollada hasta ahora para resolverlo.

Problema. Sean $x_0,x_1,x_2\in [0,1]$, y sea $V=\mathbb{R}_2[X]$. Definimos el mapeo $$l(P)=\int_0^1 P(x)e^{-x} dx.$$ Demuestra que $l$ es una forma lineal en $V$ y prueba que existe una única tercia $(a_0,a_1,a_2)$ de números reales tales que para todo polinomio $P$ en $V$ se cumple que $$\int_0^1 P(x)e^{-x}dx=a_0P(x_0)+a_1P(x_1)+a_2P(x_2).$$

Solución. Debido a las propiedades de la integral, es fácil ver que $l$ es lineal, ya que

\begin{align*}
l(aP+Q)&=\int_0^1 (aP(x)+Q(x))e^{-x} dx \\
&= a\int_0^1 P(x)e^{-x}dx+\int_0^1 Q(x)e^{-x}dx \\
&=al(P)+l(Q).
\end{align*}

Usando el problema anterior, tenemos que $L_0^*=\text{ev}_{x_0}$, $L_1^*=\text{ev}_{x_1}$ y $L_2^*=\text{ev}_{x_2}$ forman una base de $V^$. Por lo tanto existen $(a_0,a_1,a_2)$ tales que $l=a_0L_0^*+a_1L_1^*+a_2L_2^*.$ Entonces

\begin{align*}
\int_0^1 P(x)e^{-x}&=l(P)=a_0L_0^*(P) + a_1L_1^*(P) + a_2L_3^*(P) \\
&= a_0P(x_0) + a_1P(x_1) + a_2P(x_2).
\end{align*}

Es fácil ver que es única esa tercia, ya que, si existiera otra $(b_0,b_1,b_2)$ tal que $$l=b_0L_0^*+b_1L_1^*+b_2L_2^*,$$ esto implica que $$0=(a_0-b_0)L_0^*+(a_1-b_1)L_1^*+(a_2-b_2)L_2^*,$$ y dado que $L_i^*$ son una base, tendríamos $a_i=b_i$ para $i=0,1,2$.

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»