Archivo de la etiqueta: espacio ortogonal

Cálculo Diferencial e Integral III: Multiplicadores de Lagrange

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior buscábamos optimizar un campo escalar $f$. Retomaremos este problema, pero ahora agregando restricciones al dominio de $f$. Para ello hablaremos del método de los multiplicadores de Lagrange, el cual nos permitirá dar una solución bajo ciertas condiciones de diferenciabilidad.

Esto en general es lo mejor que podremos hacer. En realidad, los problemas de este estilo son muy difíciles y no tienen una solución absoluta. Si no tenemos las condiciones del teorema de Lagrange, es posible que se tengan que hacer cosas mucho más compliadas para obtener óptimos exactos, o bien que se tengan que hacer aproximaciones numéricas.

En la demostración del teorema de los multiplicadores de Lagrange usaremos el teorema de la función implícita, lo cual es evidencia adicional de lo importante y versátil que es este resultado.

Un ejemplo para motivar la teoría

Imagina que tenemos la función $f(x,y)=x^2+y^2$ y queremos encontrar su mínimo. Esto es muy fácil. El mínimo se da cuando $x=y=0$, pues en cualquier otro valor tenemos un número positivo. Pero, ¿Qué pasaría si además queremos que los pares $(x,y)$ que usamos satisfagan también otra condición?, por ejemplo, que cumplan $$2x^2+3y^2=10$$

En este caso, la respuesta ya no es obvia. Podríamos intentar encontrar el mínimo por inspección, pero suena que será difícil. Podríamos intentar usar la teoría de la entrada anterior, pero esa teoría no nos dice nada de qué hacer con nuestra condición.

La teoría que desarrollaremos a continuación nos permitirá respondernos preguntas de este estilo. En este ejemplo en concreto, puedes pensar que la solución se obtendrá de la siguiente manera: La ecuación $2x^2+3y^2=10$ nos dibuja una elipse en el plano, como se ve en la figura 1 imagen 3. Las curvas de nivel de la superficie dibujada por la gráfica de la función $f$ corresponden a circunferencias concéntricas, cuyo centro es el origen. Al ir tomando circunferencias cada vez mas grandes en el plano comenzando con el punto $(0,0)$ nos quedaremos con la primera que toque a la elipse, de hecho la tocará en dos puntos, digamos $(x_1 ,y_1)$ y $(x_2 ,y_2)$, donde $f(x_1 ,y_1)=f(x_2 ,y_2)$ sería el mínimo buscado, es decir el mínimo que sobre la superficie $f(x,y)$ cumple con la ecuación $2x^2+3y^2=10$.

Pero como ahí se da una tangencia, entonces suena que justo en ese punto $(x,y)$ hay una recta simultáneamente tangente a la curva de nivel y a la elipse. Esto nos da una relación entre gradientes. El teorema de multiplicadores de Lagrange detecta y enuncia esta relación entre gradientes con precisión y formalidad, incluso cuando tenemos más de una condición. A estas condiciones también las llamamos restricciones, y están dadas por ecuaciones.

Enunciado del teorema de multiplicadores de Lagrange

A continuación enunciamos el teorema.

Teorema (multiplicadores de Lagrange). Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}$ es un campo escalar de clase $C^{1}$. Para $m<n$, tomamos $g_{1},\dots ,g_{m}:S\in \subset \mathbb{R}^{n}\rightarrow \mathbb{R}$ campos escalares de clase $C^{1}$ en $S$. Consideremos el conjunto $S^\ast$ donde todos los $g_i$ se anulan, es decir:

$$S^\ast=\{ \bar{x}\in S|g_{1}(\bar{x})=g_2(\bar{x})=\ldots=g_m(\bar{x})=0\}.$$

Tomemos un $\bar{x}_0$ en $S^\ast$ para el cual

  1. $f$ tiene un extremo local en $\bar{x}_0$ para los puntos de $S^\ast$ y
  2. $\triangledown g_{1}(\bar{x}_{0}),\dots ,\triangledown g_{m}(\bar{x}_{0})$ son linealmente independientes.

Entonces existen $\lambda _{1},\dots ,\lambda _{m}\in \mathbb{R}$, a los que llamamos multiplicadores de Lagrange tales que:

\[ \triangledown f(\bar{x}_{0})=\lambda _{1}\triangledown g_{1}(\bar{x}_{0})+\dots +\lambda _{m}\triangledown g_{m}(\bar{x}_{0}).\]

Si lo meditas un poco, al tomar $m=1$ obtenemos una situación como la del ejemplo motivador. En este caso, la conclusión es que $\triangledown f(\bar{x}_0)=\lambda \triangledown g(\bar{x}_0)$, que justo nos dice que en $\bar{x}_0$, las gráficas de los campos escalares $f$ y $g$ tienen una tangente en común.

Demostración del teorema de multiplicadores de Lagrange

Demostración. La demostración del teorema de multiplicadores de Lagrange usa varios argumentos de álgebra lineal. Esto tiene sentido, pues a final de cuentas, lo que queremos hacer es poner un gradiente ($\triangledown f(\bar{x}_0)$) como combinación lineal de otros gradientes ($\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$). A grandes rasgos, lo que haremos es:

  • Definir un espacio $W$.
  • Mostrar que $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$ generan al espacio ortogonal $W^\bot$.
  • Mostrar que $\triangledown f(\bar{x}_0)$ es ortogonal a todo vector de $W$, por lo cual estará en $W^\bot$ y así por el inciso anterior será combinación lineal de $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$.

Para construir el espacio $W$ del que hablamos, usaremos el teorema de la función implícita y la regla de la cadena. Empecemos este argumento. Consideremos la siguiente matriz:

\[ \begin{equation} \begin{pmatrix} \frac{\partial g_{1}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{m}}(\bar{x}_{0}) & \frac{\partial g_{1}}{\partial x_{m+1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{n}}(\bar{x}_{0}) \\ \vdots & \ddots & \vdots & \vdots & \ddots & \vdots \\ \frac{\partial g_{m}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{m}}{\partial x_{m}}(\bar{x}_{0}) & \frac{\partial g_{m}}{\partial x_{m+1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{n}}(\bar{x}_{0}) \end{pmatrix}. \end{equation}\]

Dado que los vectores $\triangledown g_1(\bar{x}_0),\ldots, \triangledown g_m(\bar{x}_0)$ son linealmente independientes, el rango por renglones de esta matriz es $m$, de modo que su rango por columnas también es $m$ (tarea moral). Sin perder generalidad (quizás tras hacer una permutación de columnas, que permuta las entradas), tenemos que las primeras $m$ columnas son linealmente independientes. Así, la matriz

\[ \begin{pmatrix} \frac{\partial g_{1}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{1}}{\partial x_{m}}(\bar{x}_{0}) \\ \vdots & \ddots & \vdots \\ \frac{\partial g_{m}}{\partial x_{1}}(\bar{x}_{0}) & \dots & \frac{\partial g_{m}}{\partial x_{m}}(\bar{x}_{0}) \end{pmatrix}\]

es invertible. Hagamos $l=n-m$ y reetiquetemos las variables coordenadas $x_1,\ldots,x_m$ como $v_1,\ldots,v_m$, y las variables coordenadas $x_{m+1},\ldots,x_n$ como $u_1,\ldots, u_l$. Escribiremos $\bar{x}_0=(\bar{v}_0,\bar{u}_0)$ para referirnos al punto al que hacen referencia las hipótesis. Esto nos permite pensar $\mathbb{R}^{n}=\mathbb{R}^{m}\times \mathbb{R}^{l}$ y nos deja en el contexto del teorema de la función implícita. Como la matriz anterior es invertible, existen $U\subseteq \mathbb{R}^l$ y $V\subseteq \mathbb{R}^m$ para los cuales $\bar{u}_0\in U$, $\bar{v}_0\in V$ y hay una única función $h=(h_1,\ldots,h_m):U\to V$ de clase $C^1$ tal que para $\bar{u}\in U$ y $\bar{v}\in V$ se cumple que $g(\bar{v},\bar{u})=0$ si y sólo si $\bar{v}=h(\bar{u})$.

Definamos ahora la función $H:U\subseteq \mathbb{R}^{l}\rightarrow \mathbb{R}^{m}\times \mathbb{R}^{l}$ como $H(\bar{u})=(h(\bar{u}),\bar{u})$, la cual es de clase $C^{1}$ en $U$.

Por cómo construimos $h$, sucede que $(h(\bar{u}),\bar{u})\in S^{*}$ para toda $\bar{u}\in U$. Por definición, esto quiere decir que para toda $i=1,\ldots,m$ tenemos que $$(g_{i}\circ H)(\bar{u})=0$$ para toda $\bar{u}\in U$. Esto quiere decir que $g_i\circ H$ es una función constante y por lo tanto su derivada en $\bar{u}_0$ es la transformación $0$. Pero otra forma de obtener la derivada es mediante la regla de la cadena como sigue:

\begin{align*} D(g_{i}\circ H)(\bar{u}_{0})&=Dg_{i}(H(\bar{u}_{0}))DH(\bar{u}_{0})\\ &=Dg_{i}(\bar{v}_{0},\bar{u}_{0})DH(\bar{u}_{0}).\end{align*}

En términos matriciales, tenemos entonces que el siguiente producto matricial es igual al vector $(0,\ldots,0)$ de $l$ entradas (evitamos poner $(\bar{v}_0,\bar{u}_0)$ para simplificar la notación):

\[ \begin{equation}\begin{pmatrix} \frac{\partial g_{i}}{\partial v_{1}}& \dots & \frac{\partial g_{i}}{\partial v_{m}} & \frac{\partial g_{i}}{\partial u_{1}} & \dots & \frac{\partial g_{i}}{\partial u_{l}} \end{pmatrix}\begin{pmatrix} \frac{\partial h_{1}}{\partial u_{1}} & \dots & \frac{\partial h_{1}}{\partial u_{l}} \\ \vdots & \ddots & \vdots \\ \frac{\partial h_{m}}{\partial u_{1}} & \dots & \frac{\partial h_{m}}{\partial u_{l}} \\ 1 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 1 \end{pmatrix}\end{equation},\]

para cada $i=1,\ldots, m$. Nos gustaría escribir esta conclusión de manera un poco más sencilla, para lo cual introducimos los siguientes vectores para cada $j=1,\ldots, l$:

\[ \bar{w}_{j}=\left( \left( \frac{\partial h_{1}}{\partial u_{j}}(\bar{u}_{0}),\dots ,\frac{\partial h_{m}}{\partial u_{j}}(\bar{u}_{0}) \right), \hat{e}_{j}\right).\]

Cada uno de estos lo pensamos como vector en $\mathbb{R}^m\times \mathbb{R}^l$. Además, son $l$ vectores linealmente independientes, pues sus entradas $\hat{e}_j$ son linealmente independientes. El espacio vectorial $W$ que generan es entonces un subespacio de $\mathbb{R}^m\times \mathbb{R}^l$, con $\dim(W)=l$.

De la ecuación $(2)$ tenemos que $\triangledown g_{i}(\bar{v}_{0},\bar{u}_{0})\cdot \bar{w}_{j}=0$ para todo $i=1,\dots ,m$, y $j=1,\dots ,l$. Se sigue que $\triangledown g_{i}(\bar{v}_{0},\bar{u}_{0})\in W^{\perp}$, donde $W^{\perp}$ es el complemento ortogonal de $W$ en $\mathbb{R}^{m}\times \mathbb{R}^{l}$. Pero además, por propiedades de espacios ortogonales tenemos que

\begin{align*}
\dim(W^{\perp})&=\dim(\mathbb{R}^{m}\times \mathbb{R}^{l})-dim(W)\\
&=m+l-l\\
&=m.
\end{align*}

Así $\dim(W^{\perp})=m$, además el conjunto $\left\{ \triangledown g_{i}(\bar{v}_{0},\bar{u}_{0}) \right\}_{i=1}^{m}$ es linealmente independiente con $m$ elementos, por tanto este conjunto es una base para $W^{\perp}$. Nuestra demostración estará terminada si logramos demostrar que $\triangledown f(\bar{v}_0,\bar{u}_0)$ también está en $W^\perp$, es decir, que es ortogonal a todo elemento de $W$.

Pensemos qué pasa al componer $f$ con $H$ en el punto $\bar{u}_0$. Afirmamos que $\bar{u}_0$ es un extremo local de $f\circ H$. En efecto, $(f\circ H)(\bar{u}_0)=f(g(\bar{u}_0),\bar{u}_0)=(\bar{v}_0,\bar{u}_0)$. Si, por ejemplo $(\bar{v}_0,\bar{u}_0)$ diera un máximo, entonces los valores $f(\bar{v},\bar{u})$ para $(\bar{v},\bar{u})$ dentro de cierta bola $B_\delta(\bar{v}_0,\bar{u}_0)$ serían menores a $f(\bar{v}_0,\bar{u}_0)$. Pero entonces los valores cercanos $\bar{u}$ a $\bar{u}_0$ cumplen $(f\circ H)(\bar{u})=f(h(\bar{u}),\bar{u})$, con $(\bar{u},h(\bar{u}))$ en $S^\ast$ y por lo tanto menor a $f(\bar{v}_0,\bar{u}_0)$ (para mínimos es análogo).

Resumiendo lo anterior, $\bar{u}_{0}$ es extremo local de $f\circ H$. Aplicando lo que aprendimos en la entrada anterior, la derivada de $f\circ H$ debe anularse en $\bar{u}_0$. Pero por regla de la cadena, dicha derivada es

\begin{align*}\triangledown (f\circ H)(\bar{u}_{0})&=D(f\circ H)(\bar{u}_{0})\\ &=Df(H(\bar{u}_{0}))DH(\bar{u}_{0})\\ &=Df(h(\bar{u}_{0}),\bar{u}_{0})DH(\bar{u}_{0})\\
&=Df(\bar{v}_0,\bar{u}_{0})DH(\bar{u}_{0})
\end{align*}

Viéndolo como multiplicación de matrices, el siguiente producto es el vector $(0,0,\ldots,0)$ de $l$ entradas:

\[ \begin{pmatrix} \frac{\partial f}{\partial v_{1}} & \dots & \frac{\partial f}{\partial v_{m}} & \frac{\partial f}{\partial u_{1}} & \dots & \frac{\partial f}{\partial u_{l}} \end{pmatrix}\begin{pmatrix} \frac{\partial h_{1}}{\partial u_{1}} & \dots & \frac{\partial h_{1}}{\partial u_{l}} \\ \vdots & \ddots & \vdots \\ \frac{\partial h_{m}}{\partial u_{1}} & \dots & \frac{\partial h_{m}}{\partial u_{l}} \\ 1 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 1 \end{pmatrix}=0 \]

De donde concluimos $\triangledown f(\bar{v}_{0},\bar{u}_{0})\cdot \bar{w}_{j}=0$ para cada $j=1,\dots l$. Esto precisamente nos dice que $\triangledown f(\bar{v}_{0},\bar{u}_{0})\in W^{\perp}$. Esto es justo lo que queríamos, pues habíamos demostrado que $\left\{ \triangledown g_{i}(\bar{v}_{0},\bar{u}_{0}) \right\}_{i=1}^{m}$ es una base de $W^{\perp}$. Por ello podemos expresar a $\triangledown f(\bar{v}_{0},\bar{u}_{0})$ como combinación lineal de esta base, es decir, existen $\lambda _{1},\dots ,\lambda _{m}$ escalares tales que:

\[ \triangledown f(\bar{v}_{0},\bar{u}_{0})=\lambda _{1}\triangledown g_{1}(\bar{v}_{0},\bar{u}_{0})+\dots +\lambda _{m}\triangledown g_{m}(\bar{v}_{0},\bar{u}_{0}). \]

$\square$

¡Qué bonita demostración! Usamos el teorema de la función implícita, la regla de la cadena (dos veces), nuestros resultados para valores extremos de la entrada anterior, y un análisis cuidadoso de ciertos espacios vectoriales.

Ejemplos del método de multiplicadores de Lagrange

Veamos algunos problemas que podemos resolver con esta nueva herramienta.

Ejemplo. Determinaremos los puntos extremos de $f(x,y)=x+2y$ bajo la condición $x^{2}+y^{2}=5$. Para poner todo en términos de nuestro teorema, definimos $g(x,y)=x^{2}+y^{2}-5$. Por el teorema de multiplicadores de Lagrange, en los puntos extremos debe existir una $\lambda$ tal que $\triangledown f(x,y)=\lambda \triangledown g(x,y)$. Calculando las parciales correspondientes, debemos tener entonces

\[ \left( 1,2 \right)=\lambda \left( 2x,2y \right).\]

Adicionalmente, recordemos que se debe satisfaces $g(x,y)=0$. Llegamos entonces al sistema de ecuaciones

\[ \left \{\begin{matrix} 1-2x\lambda=0 \\ 2-2y\lambda =0 \\ x^{2}+y^{2}-5=0 \end{matrix}\right. \]

Al despejar $x$ y $y$ en ambas ecuaciones tenemos:

\[ \begin{matrix} x=\frac{1}{2\lambda} \\ y=\frac{1}{\lambda} \\ x^{2}+y^{2}-5=0 \end{matrix}.\]

Poniendo los valores de $x$ y $y$ en la tercera ecuación, llegamos a $\left( \frac{1}{2\lambda}\right)^{2}+\left( \frac{1}{\lambda}\right)^{2}-5=0$, de donde al resolver tenemos las soluciones $\lambda _{1}=\frac{1}{2}$ y $\lambda _{2}=-\frac{1}{2}$.

Al sustituir en las ecuaciones de nuestro sistema, obtenemos como puntos críticos a $(x,y)=(-1,-2)$ y $(x,y)=(1,2)$.

Si intentamos calcular el hessiano de $f$, esto no nos dirá nada (no tendremos eigenvalores sólo positivos, ni sólo negativos). Pero esto ignora las restricciones que nos dieron. Podemos hacer una figura para entender si estos puntos son máximos o mínimos. En la Figura $1$ tenemos la gráfica de $f$, intersectada con la superfice dada por $g$. Nos damos cuenta que hay un punto máximo y uno mínimo. Al evaluar, obtenemos $f(1,2)=5$ y $f(-1,-2)=-5$. Esto nos dice que el máximo en la superficie se alcanza en $(1,2)$ y el mínimo en $(-1,-2)$.

Figura 2: Ilustración del Ejemplo 1 la función $g(x,y)=x^{2}+y^{2}-5$ esta dibujada en azul esta impone restricción a la función $f$ que dibuja un plano en el espacio.

$\triangle$

Ejemplo. Veamos cómo minimizar la expresión $$f(x,y,z)=x^{2}+y^{2}+z^{2}$$ sujetos a la condición $x+y+z=1$. Una vez más, proponemos $g(x,y,z)=x+y+z-1$ para tener la situación del teorema de multiplicadores de Lagrange. Debe pasar que $\lambda$ $\triangledown f(x,y,z)=\lambda \triangledown g(x,y,z)$. El gradiente de $g(x,y,z)$ es de puros ceros unos, así que tenemos el sistema de ecuaciones:

\[ \left \{\begin{matrix} 2x=\lambda \\ 2y=\lambda \\ 2z=\lambda \\ x+y+z-1=0 \end{matrix}\right.\]

De las primeras tres ecuaciones tenemos $2x=2y=2z$ de donde $x=y=z$. Sustituyendo en la tercera ecuación, $3x-1=0$, es decir $x=y=z=\frac{1}{3}$. Ya que sólo tenemos una solución, ésta es el mínimo del conjunto de soluciones. En la figura 3 tenemos la ilustración de la solución de este problema, la esfera centrada en el origen de radio $\frac{1}{3}$ toca al plano $x+y+z=1$ en el punto $\left( \frac{1}{3},\frac{1}{3},\frac{1}{3}\right)$

$\triangle$

Figura 3: En azul claro el plano $x+y+z=1$, inflamos esferas centradas en el origen; desde la de radio cero vamos aumentando el radio hasta tener el radio correspondiente para el cual la esfera toque tangentemente al plano.

Más adelante…

Con esta entrada cerramos el curso de Cálculo Diferencial e Integral III. ¡¡Felicidades!! Esperamos que todas estas notas te hayan sido de ayuda para estudiar, repasar o impartir la materia. Quedamos al pendiente de cualquier duda, observación o sugerencia en la sección de comentarios de las entradas.

Tarea moral

  1. Determina los extremos de la función $f(x,y)=xy+14$ bajo la restricción $x^{2}+y^{2}=18$
  2. El plano $x+y+2z=2$ interseca al paraboloide $z=x^{2}+y^{2}$ en una elipse $\mathbb{E}$. Determina el punto de la elipse con el valor mayor en el eje $z$, y el punto con el valor mínimo en el mismo eje. Sugerencia: $f(x,y,z)=x+y+2z-2$, y $g(x,y,z)=x^{2}+y^{2}-z$
  3. Determinar el máximo valor de $f(x,y,z)=x^{2}+36xy-4y^{2}-18x+8y$ bajo la restricción $3x+4y=32$
  4. Determinar los puntos extremos de la función $f(x,y,z)=x^{2}+y^{2}+z^{2}$ bajo la restricción $xyz=4$
  5. Demuestra que en una matriz $M$ su rango por columnas es igual a su rango por renglones. Sugerencia. Usa el teorema de reducción gaussiana. También, puedes revisar la entrada que tenemos sobre rango de matrices.

Entradas relacionadas

Álgebra Lineal I: Problemas de ortogonalidad, ecuaciones e hiperplanos

Por Ayax Calderón

Introducción

En esta entrada ejercitaremos los conceptos introducidos recientemente. Abordamos los temas de espacio ortogonal e hiperplanos. Para ello, resolveremos problemas de ortogonalidad relacionados con encontrar una base para el espacio ortogonal y de escribir subespacios en términos de ecuaciones e intersecciones de hiperplanos.

Problemas resueltos de espacio ortogonal

Problema 1. Sea $S=\{x^3+x, x^2+x ,-x^3+x^2+1\} \subseteq \mathbb{R}_3[x]$.
Describe $S^{\bot}$ dando una base de este espacio.

Solución. Una forma lineal $l$ sobre $\mathbb{R}_3[x]$ es de la forma

$l(a_0 + a_1x+a_2x^2+a_3x^3)=aa_0+ba_1+ca_2+da_3$

para algunos $a, b,c,d\in \mathbb{R}$, pues basta decidir quiénes son $a=l(1)$, $b=l(x)$, $c=l(x^2)$ y $d=l(x^3)$.

La condición $l\in S^{\bot}$ es equivalente a

$l(x^3+x)=l(x^2+x)=l(-x^3+x^2+1)=0.$

Esto es
\begin{align*}
l(x^3+x)&=b+d=0\\
l(x^2+x)&=b+c=0\\
l(-x^3+x^2+1)&=a+c-d=0.
\end{align*}

La matriz asociada al sistema es

$A=\begin{pmatrix}
0 & 1 & 0 & 1\\
0 & 1 & 1 & 0\\
1 & 0 & 1 & -1\end{pmatrix}$

y su forma escalonada reducida es

$A_{red}=\begin{pmatrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 1\\
0 & 0 & 1 & -1\end{pmatrix}.$

Así, $d$ es variable libre y \begin{align*} a&=0\\ b&=-d\\ c&=d.\end{align*}

De aquí, el conjunto de soluciones del sistema es
$$\{(0,-u,u,u) : u\in \mathbb{R}\}.$$

Las correspondientes formas lineales son $$l_u(a_0+a_1x+a_2x^2+a_3x^3)=u(-a_1+a_2+a_3).$$

Este es un subespacio de dimensión $1$, así que para determinar una base para $S^{\bot}$, basta con elegir una de estas formas lineales con $u\neq 0$, por ejemplo, para $u=1$ tenemos
$$l_1(a_o+a_1x+a_2x^2+a_3x^3)=-a_1+a_2+a_3.$$

$\triangle$

Problema 2. Sea $V$ un espacio vectorial sobre un campo $F$, sea $V^\ast$ su espacio dual y tomemos subconjuntos $S, S_1, S_2\subseteq V^\ast$ tales que $S_1\subseteq S_2$. Prueba lo siguiente.

  1. $S_2^{\bot}\subseteq S_1^{\bot}$.
  2. $S\subseteq (S^{\bot})^{\bot}$.

Solución.

  1. Sea $l\in S_2^{\bot}$. Por definición $l(s)=0$ para toda $s\in S_2$.
    Luego, si $s\in S_1$, entonces $s\in S_2$ y así $l(s)=0$. Por consiguiente $l\in S_1^{\bot}$. Concluimos $S_2^{\bot}\subseteq S_1^{\bot}$.
  2. Sea $s\in S$. Para cualquier $l\in S^{\bot}$ se cumple que $l(s)=0$ y así $s\in (S^{\bot})^{\bot}$

$\square$

Observación. El problema anterior también es cierto si suponemos que $S, S_1, S_2\subseteq V$ tales que $S_1\subseteq S_2$ y la prueba es idéntica a la anterior.

Observación. Por muy tentador que sea pensar que la igualdad se da en el inciso 2 del problema anterior, esto es totalmente falso: $(S^{\bot})^{\bot}$ es un subespacio de $V$ (o de $V^\ast$), mientras que no hay razón para que $S$ lo sea, pues este es solamente un subconjunto arbitrario de $V$ (o $V^\ast$). Como vimos en una entrada anterior, la igualdad se da si $S$ es un subespacio de $V$ (o de $V^\ast$) cuando $V$ es un subespacio de dimensión finita.

Problemas resueltos de ecuaciones lineales y de hiperplanos

Veamos ahora problemas de ortogonalidad relacionados con encontrar expresiones para un subespacio en términos de ecuaciones lineales y de hiperplanos.

Problema 1. Sea $W$ el subespacio de $\mathbb{R}^4$ generado por los vectores

$v_1=(1,1,0,1)$
$v_2=(1,2,2,1).$

Encuentra ecuaciones lineales en $\mathbb{R}^4$ cuyo conjunto solución sea $W$.

Solución. Necesitamos encontrar una base para $W^{\bot}$.
Recordemos que $W^{\bot}$ consiste de todas las formas lineales

$l(x,y,z,t)=ax+by+cz+dt$

tales que $l(v_1)=l(v_2)=0$, es decir
\begin{align*}
a+b+d&=0\\
a+2b+2c+d&=0.
\end{align*}

La matriz asociada al sistema anterior es

$A=\begin{pmatrix}
1 & 1 & 0 & 1\\
1 & 2 & 2 & 1\end{pmatrix}$

y por medio de reducción gaussiana llegamos a que su forma reducida escalonada es

$A_{red}=\begin{pmatrix}
1 & 0 & -2 & 1\\
0 & 1 & 2 & 0\end{pmatrix}.$

De aquí, $c$ y $d$ son variables libres y $a$ y $b$ son variables pivote determinadas por
\begin{align*}a&=2c-d\\b&=-2c.\end{align*}

Por lo tanto,
\begin{align*}
l(x,y,z,t)&=(2c-d)x-2cy+cz+dt\\
&=c(2x-2y+z)+d(-x+t).
\end{align*}

Así, deducimos que una base para $W^{\bot}$ está dada por

$l_1(x,y,z,t)=2x-2y+z$ y $l_2(x,y,z,t)=-x+t$

y por consiguiente $W=\{v\in \mathbb{R}^4 : l_1(v)=l_2(v)=0\}$, de donde $$l_1(v)=0, l_2(v)=0$$ son ecuaciones cuyo conjunto solución es $W$.

$\triangle$

Problema 2. Considera el espacio vectorial $V=\mathbb{R}_3[x]$. Escribe el subespacio vectorial generado por $p(x)=1-2x^2$ y $q(x)=x+x^2-x^3$ como la intersección de dos hiperplanos linealmente independientes en $V$.

Solución. Sea $\mathcal{B}=\{1,x,x^2,x^3\}=\{e_1,e_2,e_3,e_4\}$ la base canónica de $V$.

Entonces

\begin{align*}
p(x)&=e_1-2e_3\\
q(x)&=e_2+e_3-e_4.
\end{align*}

Escribir $W=\text{span}(p(x),q(x))$ como intersección de dos hiperplanos es equivalente a encontrar dos ecuaciones que definan a $W$, digamos $l_1(v)=l_2(v)=0$ pues entonces $$W=H_1 \cap H_2,$$ donde $H_1=\ker(l_1)$ y $H_2=\ker(l_2)$.

Así que sólo necesitamos encontrar una base $l_1,l_2$ de $W^{\bot}$.

Recordemos que una forma lineal en $\mathbb{R}_3[x]$ es de la forma $$l_1(x_1e_1+x_2e_2+x_3e_3+x_4e_4)=ax_1+bx_2+cx_3+dx_4$$

para algunos $a,b,c,d \in \mathbb{R}$.

Esta forma lineal $l$ pertenece a $W^{\bot}$ si y sólo si $$l(p(x))=l(q(x))=0,$$ o bien

\begin{align*}
a-2c&=0\\
b+c-d&=0.
\end{align*}

Podemos fijar $c$ y $d$ libremente y despejar $a$ y $b$ como sigue:

\begin{align*}a&=2c\\b&=-c+d.\end{align*}

Por consiguiente

\begin{align*}
l(x_1e_1&+x_2e_2+x_3e_3+x_4e_4)\\
&=2cx_1+(-c+d)x_2+cx_3+dx_4\\
&=c2x_1-x_2+x_3)+d(x_2+x_4).
\end{align*}

Así deducimos que una base $l_1,l_2$ de $W^{\bot}$ está dada por

\begin{align*}
l_1(x_1e_1+x_2e_2+x_3e_3+x_4e_4)&=2x_1-x_2+x_3\\
l_2(x_1e_1+x_2e_2+x_3e_3+x_4e_4)&=x_2+x_4.
\end{align*}

y así $W=H_1\cap H_2$, donde

\begin{align*}
H_1&=\ker(l_1)=\{a+bx+cx^2+dx^3\in V : 2a-b+c=0\}\\
H_2&=\ker(l_2)=\{a+bx+cx^2+dx^3\in V : b+d=0\}.
\end{align*}


$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad, hiperplanos y ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales, del espacio dual y de ortogonalidad. Con la teoría que hemos desarrollado en esas entradas, podemos cosechar uno de los hechos más importantes para espacios vectoriales de dimensión finita $n$: todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión $n-1$. El objetivo de esta entrada es dar las definiciones necesarias para enunciar y demostrar este resultado formalmente.

Hiperplanos

Antes de demostrar el resultado mencionado en la introducción, tomaremos un poco de intuición geométrica de $\mathbb{R}^3$.

En $\mathbb{R}^3$ tenemos sólo un subespacio de dimensión $0$, que es $\{(0,0,0)\}$, un punto. Para obtener un subespacio de dimensión $1$, tenemos que tomar un vector $v\neq 0$ y considerar todos los vectores $rv$ con $r$ en $\mathbb{R}$. Esto corresponde geométricamente a una línea por el origen, con la misma dirección que $v$. En otras palabras, los subespacios de dimensión $1$ son líneas por el origen.

¿Quiénes son los subespacios de dimensión $2$? Debemos tomar dos vectores linealmente independientes $u$ y $v$ y considerar todas las combinaciones lineales $au+bv$ de ellos. Es más o menos fácil convencerse de que obtendremos al plano que pasa por $u$, $v$ y el $(0,0,0)$. Es decir, los subespacios de dimensión $2$ de $\mathbb{R}^3$ son planos por el origen.

Esto motiva la siguiente definición.

Definición 1. Sea $V$ un espacio vectorial de dimensión finita $n$. Un hiperplano de $V$ es un subespacio de dimensión $n-1$.

Ejemplo. El subespacio $U=\mathbb{R}_5[x]$ de $V=\mathbb{R}_6[x]$ es un hiperplano. Esto es ya que $U$ es de dimesión $6$ y $V$ es de dimensión $7$. Sin embargo, aunque $U$ también es un subespacio de $W=\mathbb{R}_7[x]$, no se cumple que $U$ sea hiperplano de $W$ pues $W$ es de dimensión $8$ y $6\neq 8-1$.

Las matrices simétricas de $M_2(\mathbb{R})$ forman un subespacio $S$ de dimensión $3$ de $M_2(\mathbb{R})$, pues son de la forma $\begin{pmatrix} a & b \\ b & c \end{pmatrix}$. De esta forma, $S$ es un hiperplano de $M_2(\mathbb{R})$. Sin embargo, el conjunto de matrices simétricas de $M_n(\mathbb{R})$ no es un hiperplano ni para $n=1$, ni para $n\geq 3$.

$\triangle$

Los hiperplanos nos pueden ayudar a obtener subespacios. De hecho, veremos que en el caso de dimensión finita nos ayudan a obtener a todos los subespacios. Para continuar construyendo la intuición, notemos que en $\mathbb{R}^3$ los hiperplanos son simplemente los planos por el origen y que:

  • Podemos obtener a cualquier plano por el origen como intersección de planos por el origen: simplemente lo tomamos a él mismo.
  • Podemos obtener a cualquier línea por el origen como la intersección de dos planos distintos por el origen que la contengan. Por ejemplo, el eje $z$ es la intersección de los planos $xz$ y $yz$. En otras palabras: todo subespacio de dimensión $1$ de $\mathbb{R}^3$ se puede obtener como la intersección de dos hiperplanos de $\mathbb{R}^3$.
  • A $\{0\}$ lo podemos expresar como la intersección de los planos $xy$, $yz$ y $xz$, osea, al único espacio de dimensión cero lo podemos expresar como intersección de $3$ hiperplanos.

Ya obtenida la intuición, lo que veremos a continuación es que el resultado anterior en realidad es un fenómeno que sucede en cualquier espacio vectorial de dimensión finita. Así, nos enfocaremos en entender las definiciones del siguiente teorema, y demostrarlo.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$.

  • Todo subespacio $W$ de $V$ de dimensión $m$ es la intersección de $n-m$ hiperplanos de $V$ linealmente independientes.
  • Toda intersección de $n-m$ hiperplanos de $V$ linealmente independientes es un subespacio vectorial de dimensión $m$.

Los hiperplanos son subespacio y la definición de independencia lineal que tenemos es para vectores. Pero el teorema anterior habla de «hiperplanos linealmente independientes». ¿A qué se refiere esto? Como veremos más adelante, a cada hiperplano se le puede asignar de manera natural un elemento del espacio dual de $V$.

Recordatorio de espacio ortogonal

En la entrada anterior mostramos el siguiente resultado:

Teorema (teorema de dualidad). Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y $W$ un subespacio de $V$ (o de $V^\ast)$. Entonces $$\dim W + \dim W^\bot = \dim V.$$

Además, obtuvimos como corolario lo siguiente:

Corolario. Si $V$ es un espacio vectorial de dimensión finita sobre un campo $F$ y $W$ un subespacio de $V$ (o de $V^\ast$), entonces $(W^\bot)^\bot=W$.

Usaremos estos resultados para dar una definición alternativa de hiperplanos, para entender a los subespacios de dimensión $n-1$ y para mostrar el teorema principal de esta entrada.

Subespacios de dimensión $n-1$ y definición alternativa de hiperplanos

Tomemos un espacio vectorial $V$ de dimensión finita $n$. Un caso especial, pero muy importante, del teorema de dualidad es cuando $W$ es un subespacio de $V^\ast$ de dimensión $1$, es decir, cuando $W$ está generado por una forma lineal $l\neq 0$. En este caso, $W^\bot$ es un subespacio de $V$ y por el teorema de dualidad, es de dimensión $n-1$.

De manera inversa, si $W$ es un subespacio de $V$ de dimensión $n-1$, por el teorema de dualidad tenemos que $W^\bot$ es de dimensión $1$, así que hay una forma lineal $l\neq 0$ que lo genera. Por el corolario, $W=(W^\bot)^\bot$, que en otras palabras quiere decir que $W=\{v\in V: l(v)=0\}.$ En resumen:

Proposición. Un subespacio $W$ de un espacio de dimensión finita $d$ tiene dimensión $d-1$ si y sólo si es el kernel de una forma lineal $l\neq 0$ de $V$.

Ejemplo 1. Considera la forma lineal $\text{ev}_0$ en el espacio vectorial $V=\mathbb{C}_n[x]$ de polinomios con coeficientes complejos y grado a lo más $n$. Los polinomios $p$ tales que $\text{ev}_0(p)=0$ son exactamente aquellos cuyo término libre es $0$. Este es un subespacio vectorial de $V$ de dimensión $n=\dim V – 1$, pues una base para él son los polinomios $x, x^2, \ldots, x^n$.

$\triangle$

Problema. Considera el espacio vectorial $V=M_{2,3}(\mathbb{R})$. Considera $W$ el subconjunto de matrices cuya suma de entradas en la primer columna es igual a la suma de entradas de la segunda columna. Muestra que $W$ es un subespacio de dimensión $5$ y escríbelo como el kernel de una forma lineal.

Solución. Mostrar que $W$ es un subespacio de $V$ es sencillo y se queda como tarea moral. Se tiene que $W$ no puede ser igual a todo $V$ pues, por ejemplo, la matriz $\begin{pmatrix} 1 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}$ no está en $W$, así que $\dim W\leq 5$.

Las matrices $\begin{pmatrix} 1 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix}$, $\begin{pmatrix} 1 & 1 & 1\\ 0 & 0 & 0 \end{pmatrix}$, $\begin{pmatrix} 1 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}$, $\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \end{pmatrix}$, $\begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0 \end{pmatrix}$ son linealmente independientes y están en $W$, así que $\dim W\geq 5$, y junto con el párrafo anterior concluimos que $\dim W = 5$.

Finalmente, tomemos la forma lineal $$l\begin{pmatrix} a & b & c\\ d& e& f\end{pmatrix}=a+d-b-e.$$ Tenemos que una matriz está en el kernel de $l$ si y sólo si $a+d-b-e=0$, si y sólo si $a+d=b+e$, es decir, si y sólo si las entradas de la primer columna tienen la misma suma que las de la segunda. Así, $W=\ker l$.

$\square$

La proposición anterior nos permite dar una definición alternativa de hiperplano y hablar de hiperplanos linealmente independientes.

Definición 2. Sea $V$ un espacio vectorial. Un hiperplano es el kernel de una forma lineal $l\neq 0$ en $V^\ast$. Una familia de hiperplanos es linealmente independiente si sus formas lineales correspondientes son linealmente independientes en $V^\ast$.

Observa además que la definición anterior también sirve para espacios vectoriales de dimensión infinita, pues nunca hace referencia a la dimensión que debe tener un hiperplano.

Ejemplo 2. El conjunto de funciones continuas $f$ en el intervalo $[0,1]$ tales que $$\int_0^1 f(x) \, dx = 0$$ son un subespacio $W$ de $\mathcal{C}[0,1]$. Este subespacio es un hiperplano pues es el kernel de la forma lineal $I$ tal que $$I(f)=\int_0^1 f(x)\, dx.$$

$\square$

No mencionaremos más de espacios de dimensión infinita en esta entrada.

Escribiendo subespacios como intersección de hiperplanos

Ya podemos entender el teorema principal de esta entrada y demostrarlo. Lo enunciamos nuevamente por conveniencia.

Teorema 2. Sea $V$ un espacio vectorial de dimensión finita $n$.

  • Todo subespacio $W$ de $V$ de dimensión $m$ es la intersección de $n-m$ hiperplanos de $V$ linealmente independientes.
  • Toda intersección de $n-m$ hiperplanos de $V$ linealmente independientes es un subespacio vectorial de dimensión $m$.

Demostración. Tomemos un espacio vectorial $V$ de dimensión finita $n$ y un subespacio $W$ de dimensión $m$. Por el teorema de dualidad, la dimensión de $\dim W^\bot$ es $n-m$. Tomemos una base $B=\{l_1,l_2,\ldots,l_{n-m}\}$ de $W^\bot$. Por el corolario al teorema de dualidad, podemos expresar a $W$ como $$W=(W^\bot)^\bot=\{v\in V: l_1(v)=\ldots=l_{n-m}(v)=0\}.$$

Si definimos $L_i=\{v\in V: l_i(v)=0\}$, por la proposición de la sección anterior tenemos que cada $L_i$ es un hiperplano de $V$. Además, $$W=L_1\cap \ldots\cap L_{n-m}.$$ Como los $l_i$ son linealmente independientes, con esto logramos expresar a $W$ como intersección de $n-m$ hiperplanos linealmente independientes.

Probemos ahora la segunda parte de la proposición. Tomemos el conjunto $S=\{l_1,\ldots,l_{n-m}\}$ de formas linealmente independientes que definen a los hiperplanos. Un vector $v$ está en la intersección de todos estos hiperplanos si y sólo si $l_1(v)=\ldots=l_{n-m}(v)=0$, si y sólo si está en $S^\bot=\text{span}(S)^\bot$. Es decir, la intersección de los hiperplanos es precisamente el subespacio $\text{span}(S)^\bot$. Como $S$ es linealmente independiente, tenemos que $ \text{span}(S)$ es de dimensión $n-m$, de modo que por el teorema de dualidad, $\dim \text{span}(S)^\bot = n-(n-m)=m$. Esto muestra lo que queremos.

$\square$

Algunos problemas prácticos

Si tenemos un espacio $V$ de dimensión finita $n$, un subespacio $W$ de dimensión finita $m$ y queremos encontrar de manera práctica la expresión de $W$ como intersección de hiperplanos de $V$, podemos hacer el siguiente procedimiento:

  • Determinamos una base $l_1,\ldots,l_{n-m}$ para $W^\bot$ (la cual consiste de formas lineales de $V^\ast$). Esto lo podemos hacer con los pasos que mencionamos en la entrada anterior.
  • Definimos $L_i=\{v\in V: l_i(v)=0\}$.
  • Tendremos que $W$ es la intersección de los $L_i$.

Una última observación es que cada $L_i$ está definido por una ecuación lineal. Esto nos permite poner a cualquier subespacio como el conjunto solución a un sistema lineal. Esto lo cual podemos ver de forma práctica de la siguiente manera:

  • Tomamos una base $e_1,\ldots,e_n$ de $V$.
  • Tomemos un vector $v=a_1e_1+\ldots+a_ne_n$ que queremos determinar si está en $W$. Para ello, debe estar en cada $L_i$.
  • Cada $L_i$ está definido mediante la ecuación $l_i(v)=0$ de modo que si $v$ está en $L_i$ sus coordenadas $a_1,\ldots,a_n$ en la base $e_1,\ldots,e_n$ deben satisfacer la ecuación lineal $$l_i(e_1)a_1+\ldots+l_i(e_n)a_n=0.$$
  • De esta forma, los vectores $v$ en $W$ son aquellos cuyas coordenadas en la base $e_1,\ldots, e_n$ satisfacen el sistema de ecuaciones obtenido de las ecuaciones lineales para cada $i$ del punto anterior.

Veremos algunos ejemplos de estos procedimientos en la siguiente entrada.

La receta anterior nos permite concluir la siguiente variante del teorema de esta entrada, escrito en términos de ecuaciones lineales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B$ una base de $V$.

  • Un subespacio $W$ de dimensión $m$ se puede definir mediante un sistema de ecuaciones lineales independientes que deben satisfacer las coordenadas de los vectores de $W$ escritos en la base $B$.
  • Aquellos vectores cuyas coordenadas en la base $B$ satisfacen un sistema de ecuaciones lineales independientes homogéneo, forman un subespacio de $V$ de dimensión $n-m$.

La moraleja de esta entrada es que podemos pensar que los sistemas de ecuaciones, las intersecciones de hiperplanos y los subespacios de un espacio vectorial de dimensión finita son «prácticamente lo mismo».

Más adelante…

A lo largo de esta entrada enunciamos las definiciones necesarias para llegar al teorema que mencionamos al inicio: para un espacio vectorial de dimension finita $n$, todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión $n-1$.

En la siguiente entrada utilizaremos este resultado para resolver algunos ejercicios y veremos en acción este importante teorema.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Considera el plano $P$ en $\mathbb{R}^3$ que pasa por el origen y por los vectores $(1,1,1)$, $(0,2,0)$. Encuentra reales $a,b,c$ tales que $$P=\{(x,y,z): ax+by+cz = 0 \}.$$
  • En todos los ejemplos en los que se menciona que algo es subespacio, verifica que en efecto lo sea. En los que se menciona que un conjunto es base, también verifica esto.
  • Encuentra una base para el espacio de polinomios $p$ en $M_n(\mathbb{C})$ tales que $\text{ev}(1)(p)=0$.
  • Sea $W$ el subconjunto de matrices de $V:=M_n(\mathbb{R})$ tal que la sumas de las entradas de todas las filas son iguales. Muestra que $W$ es un subespacio de $V$. Determina la dimensión de $W$ y exprésalo como intersección de hiperplanos linealmente independientes.
  • ¿Qué sucede cuando intersectas hiperplanos que no corresponden a formas linealmente independientes? Más concretamente, supongamos que tienes formas lineales $l_1,\ldots,l_m$ de $F^n$. Toma $B=\{e_1,\ldots,e_n\}$ la base canónica de $F^n$. Considera la matriz $A=[l_i(e_j)]$. ¿Qué puedes decir de la dimensión de la intersección de los hiperplanos correspondientes a los $l_i$ en términos del rango de la matriz $A$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad y espacio ortogonal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales y del espacio dual. Vimos que las formas coordenadas correspondientes a una base forman bases del espacio dual. También hicimos ejemplos prácticos de cómo encontrar bases duales y cómo hacer cambios de base en el espacio dual. Usaremos la teoría que hemos desarrollado hasta el momento para estudiar los conceptos de ortogonalidad y espacio ortogonal.

Antes de comenzar, es importante dejar un consejo. Quizás a estas alturas asocias a la ortogonalidad con la perpendicularidad. Esta intuición puede ayudar un poco más adelante, pero por el momento es recomendable que dejes esa intuición de lado. El problema es que la «perpendicularidad» habla de parejas de segmentos, parejas de lineas, o parejas de vectores. Sin embargo, las nociones de ortogonalidad que estudiaremos ahora hablan de cuándo una forma lineal $l$ y un vector $v$ son ortogonales, por lo cual es mejor pensarlo por el momento en la ortogonalidad como un concepto nuevo.

Definiciones de ortogonalidad y espacio ortogonal

En esta sección, $V$ es un espacio vectorial sobre un campo $F$.

Definición. Tomemos una forma lineal $l$ de $V$ y $v$ un vector en $V$. Decimos que $l$ y $v$ son ortogonales si $$\langle l,v \rangle = 0.$$

De manera equivalente, $l$ y $v$ son ortogonales si $l(v)=0$, o si $v$ está en el kernel de $l$.

Ejemplo 1. Consideremos la forma lineal $l$ de los polinomios en $\mathbb{R}_2[x]$ que a un polinomio lo manda a su evaluación en $2$, es decir, tal que $l(p)=p(2)$. Consideremos al polinomio $p(x)=x^2-3x+2$. Tenemos que \begin{align*}l(p)&=p(2)\\&=2^2-3\cdot 2 +2\\&=4-6+2\\&=0,\end{align*} de modo que $\langle l, p\rangle =0,$ así que $l$ y $p$ son ortogonales. Por otro lado, si $q(x)=x+1$, tenemos que $\langle l,q\rangle = l(q)=3$, de modo que $l$ y $q$ no son ortogonales.

$\triangle$

Ejemplo 2. Consideremos la forma lineal $l(x,y,z)=2x+3y-z$ de $\mathbb{R}^3$. Un vector que es ortogonal con $l$ es el vector $v=(0,0,0)$. Un vector un poco más interesante es el vector $(1,1,5)$ pues $l(1,1,5)=2+3-5=0$.

El vector $(1,1,5)$ también es ortogonal a la forma lineal $m(x,y,z)=x+y-\frac{2z}{5}$, como puedes verificar.

$\triangle$

A partir de la noción anterior, nos podemos hacer dos preguntas. Dado un conjunto de vectores, ¿quiénes son todas las formas lineales ortogonales a todos ellos? Dado un conjunto de formas lineales, ¿quiénes son todos los vectores ortogonales a todas ellas? Esta noción queda capturada en la siguiente definición.

Definición. Para $S$ un subconjunto de $V$, definimos al ortogonal de $S$ como el conjunto de formas lineales de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot:= \{l\in V^\ast: \langle l,v \rangle = 0\, \forall v \in S\}.$$

Tenemos una definición dual para subconjuntos de $V^\ast$.

Definición. Para $S$ un subconjunto de $V^\ast$, el ortogonal de $S$ es el conjunto de vectores de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot=\{v\in V: \langle l, v \rangle = 0 \, \forall l\in S\}.$$

Observa que estamos definiendo al ortogonal para subconjuntos de $V$ (y de $V^\ast$), es decir, que $S$ no tiene por qué ser un subespacio vectorial de $V$. Por otro lado, sea o no $S$ un subespacio, siempre tenemos que $S^\bot$ es un subespacio. Por ejemplo, si $S$ es un subconjunto de $V$ y $l_1$, $l_2$ son formas lineales que se anulan en todos los elementos de $S$, entonces para cualquier escalar $c$ también tenemos que $l_1+cl_2$ se anula en todos los elementos de $S$.

Ejercicio. Tomemos $S$ al subconjunto de matrices diagonales con entradas enteras en $M_2(\mathbb{R})$. ¿Quién es $S^\bot$? Ojo: Aquí $S$ no es un subespacio.

Solución. Sabemos que para cualquier forma lineal $l$ de $M_2(\mathbb{R})$ existen reales $p$, $q$, $r$, $s$ tales que $$l\begin{pmatrix}a&b\\c&d\end{pmatrix}=pa+qb+rc+sd.$$

Si $l$ está en $S^\bot$, se tiene que anular en particular en las matrices $A=\begin{pmatrix} 1 & 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 0 & 1\end{pmatrix}$, pues ambas están en $S$. En otras palabras, $$0 = l(A) = p$$ y $$0 = l(B) = s.$$ Así, la forma lineal tiene que verse como sigue:

$$l\begin{pmatrix}a&b\\c&d\end{pmatrix}= qb+rc.$$

Y en efecto, todas las formas lineales de esta forma se anulan en cualquier matriz diagonal con entradas enteras, pues en esas matrices $b=c=0$.

$\triangle$

Encontrar el espacio ortogonal de manera práctica

Ya mencionamos que $S$ no necesariamente tiene que ser un subespacio para definir $S^\bot$. Sin embargo, usando la linealidad podemos mostrar que, para cualquiera de las dos definiciones, basta estudiar qué sucede con subespacios vectoriales. La demostración de la siguiente proposición es sencilla, y se deja como tarea moral.

Proposición 1. Para $S$ un subconjunto de $V$ (o de $V^\ast$), tenemos que $$S^\bot = \text{span}(S)^\bot.$$

Esta proposición es particularmente importante pues en espacios vectoriales de dimensión finita nos permite reducir el problema de encontrar ortogonales para subconjuntos de vectores (o de formas lineales), a simplemente resolver un sistema de ecuaciones. El procedimiento que hacemos es el siguiente (lo enunciamos para vectores, para formas lineales es análogo):

  • Tomamos una base $B=\{b_1,\ldots,b_n\}$ de $V$.
  • Tomamos un subconjunto $S$ de vectores de $V$.
  • Usamos la Proposición 1 para argumentar que $S^\bot=\text{span}(S) ^\bot$.
  • Consideramos una base $C=\{c_1,\ldots,c_m\}$ de $\text{span}(S)$ y notamos que una forma lineal $l$ se anula en todo $\text{span}(S)$ si y sólo si se anula en cada elemento de $C$.
  • Escribimos a cada $c_i$ como combinación lineal de elementos de $B$, digamos $$c_i=a_{i1}b_1+\ldots+a_{in}b_n.$$
  • Cada condición $l(c_i)=0$ se transforma en la ecuación lineal $$a_{i1}l(b_1)+\ldots+a_{in}l(b_n)=l(c_i)=0$$ en las variables $l(b_1), l(b_2),\ldots, l(b_n)$ igualada a $0$, de forma que las $m$ condiciones dan un sistema de ecuaciones homogéneo.
  • Podemos resolver este sistema con reducción gaussiana para encontrar todas las soluciones, aunque basta con encontrar a las soluciones fundamentales, pues justo forman la base de $\text{span}(S)^\bot=S^\bot$.

Veamos este método en acción.

Ejemplo de encontrar el espacio ortogonal de manera práctica

Ejercicio. Considera el subconjunto $S$ de $\mathbb{R}^3$ cuyos elementos son $(2,3,-5)$, $(-1,0,1)$, $(3,3,-6)$, $(-3,-2,5)$. Determina $S^\bot$.

Solución. Para encontrar $S^\bot$, basta encontrar $\text{span}(S)^\bot$.

Lo primero que notamos es que todos los vectores de $S$ satisfacen que la suma de sus entradas es $0$, así que todos los vectores en $\text{span}(S)$ también, de modo que $\text{span}(S)$ no es todo $\mathbb{R}^3$, así que es de dimensión a lo más $2$. Notamos también que $(-1,0,1)$ y $(2,3,-5)$ son linealmente independientes, así que $\text{span}(S)$ es de dimensión al menos $2$, de modo que es de dimensión exactamente $2$ y por lo tanto $(-1,0,1)$ y $(2,3,-5)$ es una base.

Para cualquier forma lineal $l$ en $\mathbb{R}^3$ existen reales $a$, $b$, $c$ tales que $l(x,y,z)=ax+by+cz$. Para encontrar aquellas formas lineales que se anulan en $\text{span}(S)$, basta encontrar aquellas que se anulan en la base, es decir, en $(-1,0,1)$ y $(2,3,-5)$. De esta forma, necesitamos resolver el sistema de ecuaciones homogéneo \begin{align*}-a+c&=0\\2a+3b-5c&=0.\end{align*}

Para resolver este sistema, aplicamos reducción gaussiana:

\begin{align*}
&\begin{pmatrix} -1 & 0 & 1\\ 2 & 3 & -5\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 3 & -3\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 1 & -1\end{pmatrix}
\end{align*}

La variable libre es $c$ y las pivote son $a$ y $b$. Obtenemos $a=c$ y $b=c$, de donde las soluciones se ven de la forma $(c,c,c)$. Concluimos entonces que $S^\bot$ son las formas lineales tales que $$l(x,y,z)=c(x+y+z)$$ para algún real $c$.

$\triangle$

En el ejemplo anterior, la dimensiones de $\text{span}(S)$ y de $\text{span}(S)^\bot$ suman $3$, que es la dimensión de $\mathbb{R}^3$. Esto no es una casualidad, como veremos en la siguiente sección.

El teorema de dualidad

Las dimensiones de un subespacio de un espacio vectorial de dimensión finita, y de su espacio ortogonal, están relacionadas con la dimensión del espacio. Este es uno de los teoremas más importantes de dualidad.

Teorema. Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y $W$ un subespacio de $V$ (o de $V^\ast)$. Entonces $$\dim W + \dim W^\bot = \dim V.$$

Demostración. Hagamos primero el caso en el que $W$ es un subespacio de $V$. Supongamos que $\dim V = n$ y que $\dim W = m$. Como $W$ es subespacio, tenemos que $m\leq n$. Tenemos que mostrar que $\dim W^\bot = n-m$, así que basta exhibir una base de $\dim W^\bot$ con $n-m$ formas lineales.

Para ello, tomemos $e_1,e_2,\ldots, e_m$ una base de $W$ y tomemos elementos $e_{m+1},\ldots,e_{n}$ que la completan a una base de $V$. Afirmamos que la base de $W^\bot$ que estamos buscando consiste de las formas coordenadas $e_{m+1}^\ast,\ldots,e_{n}^\ast$ correspondientes a $e_{m+1},\ldots,e_n$.

Por un lado, estas formas coordenadas son linealmente independientes, pues son un subconjunto de la base $e_1^\ast,\ldots, e_n^\ast$ de $V^\ast$. Por otro lado, si tenemos a una forma lineal $l$ de $V$, habíamos mostrado que la podemos expresar de la forma $$l=\sum_{i=1}^n \langle l, e_i \rangle e_i^\ast,$$ de modo que si $l$ se anula en todo $W$, en particular se anula en los vectores $e_1,\ldots,e_m$, por lo que $$l=\sum_{i=m+1}^n \langle l, e_i\rangle e_i^\ast,$$ lo cual exhibe a $l$ como combinación lineal de los elementos $e_{m+1}^\ast,\ldots,e_n^\ast$. De esta forma, este subconjunto de formas lineales es linealmente independiente y genera a $W^\bot$, que era justo lo que necesitábamos probar.

Ahora hagamos el caso en el que $W$ es un subespacio de $V^\ast$. Podríamos hacer un argumento análogo al anterior, pero daremos una prueba alternativa que usa la bidualidad canónica $\iota: V\to {V^\ast} ^\ast$. La igualdad $\langle l,v \rangle = 0$ es equivalente a $\langle \iota(v),l \rangle =0$. De esta forma, $v$ está en $W^\bot$ si y sólo si $\iota(v)\in {V^\ast} ^\ast$ se anula en todo $W$. Como $\iota$ es isomorfismo y el espacio de los $g\in {V^\ast} ^\ast$ que se anulan en $W$ tiene dimensión $$\dim V^\ast-\dim W = \dim V – \dim W$$ (por la primer parte del teorema), concluimos entonces que $$\dim W^\bot = \dim V – \dim W,$$ lo cual prueba la otra parte del teorema.

$\square$

Problema. Sea $W$ el subespacio de matrices simétricas de $M_3(\mathbb{R})$ ¿Cuál es la dimensión de $W^\bot$?

Solución. Se puede mostrar que $E_{11}$, $E_{22}$, $E_{33}$, $E_{12}+E_{21}$, $E_{23}+E_{32}$, $E_{13}+E_{31}$ forman una base para $W$. De esta forma, $W$ tiene dimensión $6$. Por el Teorema 1, tenemos que $\dim W^\bot = \dim M_3(\mathbb{R})-6=9-6=3$.

$\triangle$

Aplicar dos veces ortogonalidad en subespacios

Una consecuencia importante del teorema anterior es que aplicarle la operación «espacio ortogonal» a un subespacio de un espacio de dimensión finita nos regresa al inicio. Más formalmente:

Corolario. Si $V$ es un espacio vectorial de dimensión finita sobre un campo $F$ y $W$ un subespacio de $V$ (o de $V^\ast$), entonces $(W^\bot)^\bot=W$.

Demostración. Haremos la prueba para cuando $W$ es subespacio de $V$. La otra es análoga y se deja como tarea moral. Lo primero que vamos a mostrar es que $W\subset (W^\bot)^\bot$. Tomemos $w$ en $W$. Tenemos que mostrar que $l(w)=0$ para cualquier $l$ en $W^\bot$. Por definición, un $l$ en $W^\bot$ se anula en todo elemento de $W$, así que se anula particularmente en $w$, como queremos.

Como $W$ y $(W^\bot)^\bot$ son espacios vectoriales, tenemos que $W$ es subespacio de $(W^\bot)^\bot$. Por el teorema de dualidad, tenemos que $$\dim W^\bot = \dim V – \dim W.$$ Usando esto y de nuevo el teorema de dualidad, tenemos que $$\dim (W^\bot)^\bot = \dim V – \dim W^\bot = \dim W.$$

De esta forma, $W$ es un subespacio de $\dim (W^\bot)^\bot$ de su misma dimensión, y por lo tanto $W= (W^\bot)^\bot$.

$\square$

Hay que tener particular cuidado en usar el corolario anterior. Solamente se puede garantizar su validez cuando $W$ es un subespacio de $V$, y cuando $V$ es de dimensión finita. En efecto, si $S$ es simplemente un subconjunto de $V$ y no es un subespacio, entonces la igualdad $S=(S^\bot)^\bot$ es imposible, pues al lado derecho tenemos un subespacio de $V$ y al izquierdo no.

Más adelante…

En esta entrada hablamos de ortogonalidad y de espacios ortogonales como si fueran un concepto nuevo, dejando de lado, al menos por el momento, nuestras ideas previas de asociar ortogonalidad con perpendicularidad. También vimos cómo encontrar un espacio ortogonal de manera práctica y hablamos de un teorema muy importante: el teorema de la dualidad.

Lo que sigue es hablar de cómo la noción de ortogonalidad nos permite estudiar sistemas de ecuaciones e hiperplanos. En la siguiente entrada estudiaremos estos conceptos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra la proposición enunciada en la entrada.
  • Sea $S$ el subespacio de matrices diagonales en $M_n(\mathbb{R})$. ¿Cuál es la dimensión de $S^\bot$?
  • Considera $\mathbb{R}_3[x]$, el espacio vectorial de polinomios con coeficientes reales y grado a lo más $3$. Considera las formas lineales $\text{ev}_2$ y $\text{ev}_3$ que evalúan a un polinomio en $2$ y en $3$ respectivamente. ¿Quién es el espacio ortogonal de $\{\text{ev}_2,\text{ev}_3\}$?
  • Prueba la segunda parte del teorema de dualidad con un argumento análogo al que usamos para probar la primer parte.
  • Prueba el corolario para cuando $W$ es subespacio de $V^\ast$.
  • Verifica que las matrices propuestas en el último ejercicio en efecto forman una base para el subespacio de matrices simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»