Archivo de la etiqueta: producto interior

Álgebra lineal II: Dualidad y ortogonalidad

Introducción

En entradas anteriores mencionamos y utilizamos propiedades del espacio dual y del producto interno, en esta entrada nos enfocaremos más en la relación de las formas bilineales, (específicamente el producto interno) con este concepto.

También veremos el concepto de ortogonalidad con respecto a una forma bilineal, lo que dará paso a un teorema muy importante (El teorema de representación de Riesz) e incluso nos permitirá definir conceptos como distancia entre un conjunto y un elemento.

Dualidad

De aquí en adelante, asumiremos que $V$ es un $\mathbb{R}$-espacio vectorial, no necesariamente de dimensión finita. Definamos una función que utilizaremos mucho como sigue

Sea $b$ una forma bilineal en $V$.
\begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(y)=b(\cdot, y ) \end{align*}
Donde $b( \cdot , y)$ es la función que envía $x$ a $b(x,y)$, además sabemos que es lineal ya que
$b$ es bilineal, lo que significaba que es lineal en la primera entrada, por lo que pertenece a $V^*$ (el espacio dual de V, puedes leer un poco más de este y de las bases duales aquí).

Proposición

Sea $\mathcal{B}$ base de $V$ de dimensión finita, $\beta’$ su base dual y $b$ forma bilineal en $V$. Prueba que la matriz de $\varphi_b$ respecto a $\beta$ y $\beta’$ es la matriz de $b$ respecto a $\beta$.

Demostración

Sea $\beta=\{ u_1, \cdots , u_n \}$ y $\beta’=\{ u’_1, \cdots , u’_n \}$ y sea $B$ la matriz asociada a $\varphi_b$ respecto a $\beta$ y $\beta’$, primero calcularemos su $j$-esima columna.
\begin{align*} \varphi_b(u_j)=b(\cdot,u_j) \end{align*}
Como no es natural la forma de escribir $\varphi_b(u_j)$ en términos de $\beta’$, calculemos $\varphi_b(u_j)(x)$ para algún $x \in V$
\begin{align*} \varphi_b(u_j)(x)=b(x,u_j) \end{align*}
Si $x=\sum_{i=1}^nu_ix_i$, entonces
\begin{align*} \varphi_b(u_j)(x)=b(\sum_{i=1}^nu_ix_i,u_j)= \sum_{i=1}^nx_ib(u_i,u_j)\end{align*}
Por otro lado, sabemos que para cualquier $x \in V$ $u^*_i(x)=x_i$, sustituyendo esto en la igualdad anterior
\begin{align*} \varphi_b(u_j)(x)= \sum_{i=1}^nu^*_i(x)b(u_i,u_j)\end{align*}
Para cualquier $x \in V$, por lo que
\begin{align*} \varphi_b(u_j)= \sum_{i=1}^nu^*_ib(u_i,u_j)\end{align*}
así, la $j-esima$ columna es de la forma
\begin{pmatrix} b(u_1,u_j) \\
\vdots \\
b(u_n,u_j) \end{pmatrix}
Así, podemos escribir $B$ como
B=\begin{pmatrix} b(u_1,u_1) & \cdots & b(u_1,u_n) \\
\vdots & \ddots & \vdots \\
b(u_n,u_1) & \cdots & b(u_n,u_n) \end{pmatrix}
Que sabemos es la matriz de $b$ respecto a $\beta$.

$\square$

Proposición (Teorema de representación de Riesz)

Sea $V$ un espacio euclidiano (espacio vectorial sobre $\mathbb{R}$ de dimensión finita) con producto interno $<,>$. La función $\varphi_{<,>}: V \rightarrow V^*$ es un isomorfismo.

Demostración

Empecemos con la inyectividad, sea $y \in V$ tal que $\varphi_{<,>}(y)=\overline{0}$ donde $\overline{0}$ es la función constante 0, dado esto, tenemos que para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(y)(x)=<x,y>=0 \end{align*}
Esto aplica en particular para sí mismo, por lo que
\begin{align*} \varphi_{<,>}(y)(y)=<y,y>=0 \end{align*}
Como $<,>$ es un producto interior, esto implica que $y=0$
Por lo que $ker(\varphi_{<,>})=\{0\}$, por lo que $\varphi_{<,>}$ es inyectiva.

Aparte, veamos que es lineal, calculemos $\varphi_{<,>}(\lambda a+b)$ con $\lambda \in \mathbb{R}$ y $a,b \in V$.
\begin{align*} \varphi_{<,>}(\lambda a + b)=<\cdot , \lambda a+ b> \end{align*}
calculando esto para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(\lambda a + b)(x)=<x , \lambda a + b> \end{align*}
y sabemos que $<,>$ es lineal en la segunda entrada por lo que
\begin{align*} <x , \lambda a + b>=\lambda<x , a> + < x , b >=\lambda\varphi_{<,>}(a)(x)+\varphi_{<,>}(b)(x) \end{align*}
Por lo que
\begin{align*} \varphi_{<,>}(\lambda a + b)=\lambda\varphi_{<,>}(a)+\varphi_{<,>}(b) \end{align*}
Lo por lo tanto $\varphi_{<,>}$ es lineal, finalmente, que $\varphi_{<,>}$ sea inyectiva, lineal y que $dim(V)=dim(V^*)$ implica que $\varphi_{<,>}$ es un isomorfismo.

$\square$

Ortogonalidad

Definición

Sea $V$ y $b$ una forma bilineal en $V$.

  • Dos vectores $x,y \in V$ serán ortogonales (respecto a $b$) si $b(x,y)=0$.
  • Sea $S \subseteq V$ el conjunto ortogonal de $S$ ($S^{\bot}$) es
    \begin{align*} S^{\bot}=\{v \in V : \forall s \in S, b(s,v)=0 \}.\end{align*}
  • $S,T \subseteq V$ serán ortogonales si S \subseteq $T^{\bot}$.

Observación (Teorema de Pitágoras)

Supongamos que $<,>$ es un producto interno en $V$ con $||\cdot||$ su norma asociada (es decir $||x||=\sqrt{<x,x>}$), entonces $x,y \in V$ son ortogonales si y solo si
\begin{align*} ||x+y||^2=||x||^2+||y||^2 \end{align*}
Demostración

Se sigue directamente de la identidad
\begin{align*} ||x+y||^2=||x||^2+2<x,y>||y||^2 \end{align*}

$\square$

Proposición

Sea $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
\begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*}
Y $(W^{\bot})^{\bot}=W$

Probaremos de hecho algo aún más fuerte.

Proposición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita. Entonces
\begin{align*} W \oplus W^{\bot} = V\end{align*}
Más aún $(W^{\bot})^{\bot}=W$

Demostración

Sea $<,>$ el producto interno de $V$, si tenemos que $x \in W \cap W^{\bot}$ tenemos que $x$ es ortogonal a $x$ por lo que
\begin{align*} <x,x>=0\end{align*}
lo que implica que $x=0$, por lo tanto $W \cap W^{\bot}= \{0\}$.

Por otro lado, sea $x \in V$ un vector cualquiera, podemos definir $f:W \rightarrow \mathbb{R}$ tal que $f(y):<x,y>$ que sabemos es una función lineal por lo que $f \in V^*$ como $W$ es de dimensión finita y tiene un producto interno (heredado de V) este cumple las hipótesis del teorema de representación de Riesz, así, sabemos que existe una única $z \in W$ tal que $f(y)=<z,y>$ para cualquier $y \in W$ de esta manera
\begin{align*} 0=f(y)-f(y)=<x,y>-<z,y>=<x-z,y>\end{align*}
Para cualquier $y \in W$ por lo que $x-z =w \in W^{\bot}$ entonces
\begin{align*} x=w+z\end{align*}
con $w \in W^{\bot}$ y $z \in W$, por lo tanto
\begin{align*} W + W^{\bot} = V\end{align*}
Y esto con el párrafo anterior implican que
\begin{align*} W \oplus W^{\bot} = V.\end{align*}

$\square$

Así la proposición más débil, se sigue directamente de esta, con la parte acerca de la dimensión implicada debido a que $W$ y $W^{\bot}$ están en posición de suma directa.

Definición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita, la proyección ortogonal hacia $W$ es
\begin{align*} p_W:V \rightarrow W \end{align*}
Con $p_W(x)$ el único vector en $W$ tal que $x-p_W(x) \in W^{\bot}$.

Definición

Sea $V$ euclidiano, una función lineal $p: V \rightarrow V$ será una proyección ortogonal si existe $W$ subespacio de $V$ tal que $p$ es la proyección ortogonal hacia $W$.

Proposición

Sea $V$ con producto interno $<.>$ y $|| \cdot ||$ su norma asociada. Sea $W \subseteq V$ un subespacio de dimensión finita y sea $v \in V$. Entonces
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Más aún, $p_w(v)$ es el único elemento con esta propiedad.

Demostración

Sea $x \in W$ un elemento cualquiera de $W$, primero notemos que $x – p_W(v) \in W$ y $v-p_W(v) \in W^{\bot}$, por lo que estos dos son ortogonales, así calculemos
\begin{align*} ||x-v||^2=||(x-p_W(v))+(p_W(v)-v)||^2= ||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \end{align*}
esta igualdad se cumple por el teorema de Pitágoras que fue una observación aquí arriba. Continuando con esta cadena
\begin{align*} ||x-v||^2=||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo tanto $\forall x \in W$ tenemos que $||x-v|| \geq ||(p_W(v)-v)||$ más aún por definición sabemos que $p_W(v) \in W$ por lo que
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Para probar la unicidad, supongamos que existe $x’ \in W$ tal que
\begin{align*}||v-x’||= min_{x \in W} ||x-v|| \end{align*}
Utilizando el procedimiento anterior tenemos que
\begin{align*} ||(p_W(v)-v)||^2=||x’-v||^2=||(x’-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo que se debe cumplir la desigualdad y notemos que esto pasa si y solo si
\begin{align*} 0=||(x’-p_W(v))||^2 \end{align*}
Que sucede si y solo si
\begin{align*} x’=p_W(v) \end{align*}
Por lo que $p_W(v)$ es único.

$\square$

utilizando este resultado, podemos dar una definición de distancia que coincida con las definiciones que tal vez has visto en otras materias

Definición

Con la notación del teorema anterior, la distancia de $v$ a $W$ es
\begin{align*}d(v,W)=||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}

Más adelante

En esta entrada mencionamos bases, bases duales y conjuntos ortogonales, una de las costumbres en el estudio de las matemáticas es intentar combinar resultados y definiciones con el fin de obtener resultados nuevos, por lo que no te debe de sorprender que hagamos eso mismo en las siguientes entradas.

Empezaremos en la siguiente entrada un pequeño repaso de vases ortogonales y ortonormales, así como el teorema de Gram-Schmidt. Y como es costumbre, terminaremos esta unidad revisando resultados análogos a los de estas dos entradas, pero esta vez para espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a \begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(x)=b(x, \cdot )? \end{align*} ¿Cambia algo en los resultados vistos?
  2. Demuestra sin utilizar la versión más fuerte de este resultado que dado $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
    \begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*} Y $(W^{\bot})^{\bot}=W$. ¿Es necesaria la hipótesis de que $W$ sea de dimensión finita?
  3. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$ encuentra a $W^{\bot}$ y define la proyección ortogonal hacia $W$, $p_W$.
  4. Encuentra el vector en $Span((1,2,1), (-1,3,-4))$ que es el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  5. Sea $V$ un espacio euclidiano y $T : V \rightarrow V $ una transformación lineal tal que $T^2=T$ prueba que T es una proyección ortogonal si y solo si $\forall x,y \in V$ $<T(x),y>=<x,T(y)>$.

Entradas relacionadas

Álgebra lineal II: Repaso de producto interior

Introducción

Como mencionamos en la entrada anterior, una de las aplicaciones más útiles de las formas cuadráticas es que a base de ellas se puede definir un concepto sumamente importante, el producto interior (también llamado producto interno o producto punto en algunos casos específicos).

Utilizando esto podemos introducir otro par de conceptos igualmente importantes (si no es que más), siendo estos norma y distancia, estos sin embargo salen del interés de esta materia por lo que sólo los mencionaremos sin abundar en ellos.

Producto interior

Antes de empezar con esta definición, debemos agregar un par de condiciones extra a las formas cuadráticas.

Definición

Sea $V$ un espacio vectorial en $\mathbb{R}$, $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica y $q: V \rightarrow \mathbb{R}$

Diremos que $b$ es positiva si
\begin{align*} \forall x \in V \text{ se tiene que } b(x,x) \geq 0. \end{align*}
Diremos que $b$ es definida positiva si
\begin{align*} \forall x \in V-\{ 0 \} \text{ se tiene que } b(x,x) > 0 \end{align*}
Dándose la igualdad únicamente si $v=0$.

De una manera semejante

Diremos que $q$ es positiva si su forma polar es positiva.

Diremos que $q$ es definida positiva si su forma polar es definida positiva.

Notemos que para saber si una forma cuadrática NO es positiva (ni definida positiva) no siempre es necesario conocer su polar, basta encontrar un vector tal que al calcular $q(x)$ este sea negativo, ya que esto garantiza que al calcular $b(x,x)$ será igualmente negativa.

En los siguientes ejemplos sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$.

Ejemplo

$q (x_1, x_2, x_3) = x_1x_2+x_2x_3+x_3x_1$.

Notemos que esta no es positiva, ya que tomando al vector $(-1,1,0) $ tenemos que
\begin{align*} q(-1,1,0)= -1 \end{align*}
Ejemplo

$q (x_1, x_2, x_3) = x_1^2+2(x_2-x_3) ^2+3(x_3-x_1) ^2$.

Calculemos la polar de esto, para ello recordemos la identidad de polarización que vimos aquí
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Calculemos por separado $q(x+y)$ y $-q(x)-q(y)$
\begin{align*} q(x+y)=(x_1+y_1)^2+2(x_2+y_2-x_3-y_3)^2+3(x_3+y_3-x_1-y_1)^2 \\
-q(x)-q(y)=-x_1^2-2(x_2-x_3)^2-3(x_3-x_1)^2-y_1^2-2(y_2-y_3)^2-3(y_3-y_1)^2 \end{align*}
y notamos que por la desigualdad del triángulo tenemos que, para cualesquiera $x,y \in \mathbb{R}$
\begin{align*}(x_1+y_1)^2 \geq x_1^2 +y_1^2 \end{align*}
y también
\begin{align*}2(x_2+y_2-x_3-y_3) ^2 \geq 2(x_2-x_3)^2+2(y_2-y_3)^2 \\
3(x_3+y_3-x_1-y_1)^2 \geq 3(x_3-x_1)^2+3(y_3-y_1)^2 \end{align*}
Al juntar estas 3 desigualdades obtenemos
\begin{align*}q(x+y) \geq q(x) + q(y) \end{align*}
Por lo que
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \geq 0 \end{align*}
Para cualesquiera $x,y \in \mathbb{C}$, entonces $b$ es positiva, por lo que $q$ es positiva, finalmente, revisemos si es definida positiva, para esto, veamos si hay un vector no cero tal que $q (x_1, x_2, x_3) =0$.

Sea $x \in \mathbb{C}$ tal que $q(x)=0$ esto nos arrojaría el siguiente sistema
\begin{align} x_1=0 \nonumber \\
x_2-x_3=0 \nonumber \\
x_3-x_1=0 \nonumber \end{align}
De donde se concluye que $x_1=x_2=x_3=0$ y finalmente $x=0$ por lo que el único vector que anula esta forma cuadrática es el $0$, por lo tanto $q$ es definida positiva.

Teniendo una buena idea de las formas cuadráticas, prosigamos con la definición titular de esta entrada.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$, llamaremos a $b: V \times V \rightarrow \mathbb{R}$ un producto interno si $b$ es una forma bilineal, simétrica y definida positiva.

Diremos que $V$ es un espacio euclidiano si es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita y con un producto interno.

Como una curiosidad, abundemos un poco sobre este nombre, el término espacio euclidiano originalmente se refería al espacio tridimensional con la geometría euclidiana, usado para modelar el espacio alrededor de nosotros. Tras la introducción de geometrías no euclidianas, se redefinió axiomáticamente, otra forma de definirlo es como lo hemos hecho aquí que se ha mostrado ser equivalente a su antigua definición axiomática. Fuente.

Generalmente, cuando se habla de productos internos la notación usual es $<x,y>$ en vez de $b(x,y)$.

Finalmente, definamos un concepto sumamente importante, la norma.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con $b$ un producto interno en $V$, la norma de $x \in V$ es
\begin{align*} ||x||=\sqrt{b(x,x)}=\sqrt{q(x)} \end{align*}
Con $q$ la forma cuadrática con polar $b$.

Ejemplos

  • $\mathbb{R}^n$ con el producto interno canónico
    \begin{align} <x,y>= \sum_{i=1}^nx_iy_i. \nonumber \end{align}
  • Sea $V=\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en [a,b].
    \begin{align} <f,g>= \int_a^bf(x)g(x)dx. \nonumber \end{align}

Algo que vale la pena notar es que esta definición difiere un poco de la definición usual de norma, como es de esperarse, al final ambas describen el mismo objeto, pero eso lo abordaremos un poco más adelante.

Desigualdades de Cauchy-Schwarz y Minkowski

Ya con esto, procedamos a las desigualdades prometidas.

Proposición (Desigualdad de Cauchy-Schwarz)

Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es definida positiva y $b(x,y)^2=q(x)q(y)$ para algún par $x,y \in V$ entonces $x,y$ son linealmente dependientes.

Demostración

Definamos una nueva función como sigue
\begin{align*} F: \mathbb{R} \rightarrow \mathbb{R} \text{ dada por } F(t)=q(x+ty) \end{align*}
Aplicando que $b$ es bilinear y simétrica
\begin{align*} F(t)=b(x+ty, x+ty)=b(x,x)+2tb(x,y)+t^2b(y,y) \end{align*}
De aquí notemos que $F(t)$ es un polinomio de segundo grado en la variable $t$, además como $b$ es positiva tenemos que
\begin{align*} F(t) \geq 0 \end{align*}
Por lo que, calculando el discriminante de $F(t)$
\begin{align*} 4b(x,y)^2 -4b(x,x)b(y,y)=4b(x,y)^2 -4q(x)q(y) \leq 0 \end{align*}
Que finalmente, pasando $4q(x)q(y)$ y dividiendo entre $4$ obtenemos la desigualdad deseada
\begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
Para el inciso b), si $x=0$ o $y=0$ sabemos que $x,y$ son linealmente dependientes, por lo que supongamos que $x,y \neq 0 $, por lo que $q(y)>0$ ya que $q$ es definida positiva, lo que nos asegura que $F(t)$ es una ecuación de segundo grado en $t$, así volviendo a calcular su discriminante tenemos
\begin{align*} 4b(x,y)^2 -4q(x)q(y) = 0 \end{align*}
Ya que $b(x,y)^2=q(x)q(y)$, que a su vez nos indica que $F(t)$ tiene una única solución real, sea esta $t_1$ entonces
\begin{align*} F(t_1)=q(x+t_1y)=0 \end{align*}
Finalmente, como $q$ es definida positiva se debe tener que
\begin{align*} x+t_1y = 0 \end{align*}
Que nos da una combinación lineal de $0$ con coeficientes no todos cero, por lo tanto $x,y$ son linealmente dependientes.

$\square$

Si ya has visto previamente esta desigualdad, probablemente la forma de plantearla y demostrarla no resulte muy familiar, veamos un corolario y un par de ejemplos que tal vez te ayuden a reconocer mejor esta desigualdad y sus usos.

Corolario

Sea $V=$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$, entonces para cualesquiera $x,y \in V$
\begin{align*}|<x,y>| \leq ||x|| \cdot ||y||. \end{align*}

Ejemplos

Recordando el ejemplo usado arriba, tenemos que $\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en $[a,b]$ tiene un producto interno y por lo tanto una norma, así, aplicando el corolario tenemos que
\begin{align*} (\int_a^bf(x)g(x))^2 \leq (\int_a^bf(x)^2dx) \cdot (\int_a^bg(x)^2dx).\end{align*}
Que es como probablemente estudiarás esta desigualdad en cursos posteriores.

Otro ejemplo, sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$ por el corolario tenemos que
\begin{align*} -1 \leq \frac{<u,v>}{||u||\cdot||v||} \leq 1 \end{align*}
Para cualesquiera $u,v \in \mathbb{V} – \{0\}$, por lo que existe un único ángulo $\theta \in [0, \pi]$ tal que
\begin{align*} cos \theta =\frac{<u,v>}{||u||\cdot||v||}\end{align*}
De donde se definía a $\theta$ como el ángulo entre los vectores $u,v$.
Con esto, procedamos a la siguiente desigualdad.

Proposición (Desigualdad de Minkowski)
Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $q$ una forma cuadrática positiva en $V$, entonces, para cualesquiera $x,y \in V$
\begin{align} \sqrt{q(x)} + \sqrt{q(y)} \geq \sqrt{q(x+y)}. \nonumber \end{align}
Demostración

Sea $b$ la polar de $q$, por la desigualdad de Cauchy-Schwarz tenemos que
\begin{align*} b(x,y)^2 \leq q(x)q(y) \end{align*}
Que sacando raíz de ambos lados y ya que $b$ es positiva, nos arroja
\begin{align*} b(x,y) \leq \sqrt{q(x)q(y)} \end{align*}
Además, recordando la identidad de polarización, sabemos que
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \end{align*}
Utilizando la desigualdad anterior, se tiene
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \leq q(x)+q(y)+2\sqrt{q(x)q(y)} \end{align*}
Factorizando el lado derecho obtenemos
\begin{align*} q(x+y) \leq (\sqrt{q(x)}+\sqrt{q(y)})^2 \end{align*}
que finalmente, despejando el lado derecho arroja
\begin{align*} \sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}.\end{align*}

$\square$

Finalicemos hablando rápidamente de la otra definición de norma que seguramente ya has visto o verás proximamente.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ llamaremos norma a $|| \cdot ||: V \rightarrow \mathbb{R}$ una función que cumple las siguientes propiedades:

  • $||v|| \geq 0$ para todo $v \in V$, la igualdad se da si y solo si $v=0$.
  • $||av||=|a|\cdot||v||$ para todo $v \in V$ y para todo $a \in \mathbb{R}$.
  • $||v+w||\leq ||v||+||w||$ para todo $v,w \in V$.

Notemos que en nuestra definición de norma cumple estas tres propiedades, recordemos que $||v||=\sqrt{b(x,x)} $, así la primera se cumple debido a que $b$ se pidió definida positiva, la segunda debido a que $b$ es bilineal y la desigualdad de Minkowski nos garantiza la tercera propiedad.
Más aún, estas dos definiciones son equivalentes, esto de nuevo sale del interés de nuestro curso, pero no estaría de más que lo intentaras demostrar por tu cuenta.

Más adelante

Con esto concluimos nuestro pequeño repaso de producto interno y una de las grandes aplicaciones de las formas bilineales. Como probablemente sabes, los conceptos de producto interno y norma dan pie a un sin fin de teoría muy interesante y útil y poder llegar a ellos desde un enfoque puramente algebraico nos muestra el poder que tiene este campo de estudio.

Procederemos volviendo a la raíz del álgebra lineal y empezaremos a estudiar la relación entre formas bilineales y matrices, brindándonos tal vez un mejor entendimiento de ambas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es definida positiva?
  2. Sea $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n \in \mathbb{N}$ prueba que
    \begin{align*} <P.Q>=\sum_{i=0}^nP(i)Q(i) \end{align*}
    Es un producto interno en $V$.
  3. Demuestra el corolario de la desigualdad de Cauchy-Schwarz.
  4. Sea $V$ un $\mathbb{C}$-espacio vectorial, y $\Phi$ una forma cuadrática hermitiana en $V$, asumamos que $\Phi$ es definida positiva ($\Phi(v) >0$ para todo $v$ no cero) con $\varphi$ su polar.
    Prueba la desigualdad de Cauchy-Schwarz, es decir, para todo $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y) \end{align*}
    Y la igualdad sucede si y sólo si $x,y$ son linealmente dependientes.
  5. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}

Entradas relacionadas

Álgebra lineal II: Formas hermitianas cuadráticas

Introducción

Continuando con la entrada anterior, revisaremos las formas hermitianas cuadráticas siendo estas el equivalente a las formas cuadráticas, para números complejos, así como algunas de sus propiedades.

Análogamente a lo que vimos con formas cuadráticas y bilineales, definiremos también una forma polar y terminaremos enunciando un análogo al teorema de Gauss.

Formas hermitianas cuadráticas

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal en $V$ hermitiana.

Llamaremos forma hermitiana cuadrática a la función $\Phi: V \rightarrow \mathbb{C}$ tal que para cualquier $x \in V$
\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}
Llamaremos a la función $\varphi $ la forma polar de $\Phi$.

Ejemplo

Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1 \cdots x_n)= |x_1|^2 + \cdots + |x_n|^2 \end{align*}
Para cualquier $(x_1, \cdots x_n) \in V$.

Solución

En este caso, recordando un poco la definición de norma en el campo de los complejos nos puede dar una buena idea, recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$.
Así propongamos $\varphi$ como sigue
\begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
Para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.

Ejemplo

Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt \end{align*}
Para cualquier $f \in V$.

Solución

Para este caso la solución es bastante análoga
Porpongamos $\varphi$ como sigue
\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
Para cualquier par $f_1,f_2 \in V$.

Cabe aclarar que para terminar de demostrar que estos ejemplos son formas hermitianas cuadráticas, habría que demostrar que $\varphi$ definida en cada uno es sesquilineal hermitiana.

Así, para demostrar que una función es una forma hermitiana cuadrática necesitamos encontrar su forma polar, veremos una forma para hacerlo en la siguiente proposición.

Proposición (Identidad de polarización)

Sea $\Phi: V \rightarrow \mathbb{C}$ una forma hermitiana cuadrática, existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, esta se puede encontrar de la siguiente manera:
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4}.\end{align*}.

Demostración

Por definición, como $\Phi$ es una forma hermitiana cuadrática, existe $s$ una forma sesquilineal hermitiana tal que $s(x,x)=\Phi(x)$ así, definamos una función
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4} \end{align*}
Además, como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{ s(y+x,y+x) – s(y-x,y-x) + i [ s(y+xi,y+xi) – s(y-ix,y-xi)]}{4} \end{align*}
Desarrollando los primeros dos sumandos tenemos que
\begin{align*} s(y+x,y+x) – s(y-x,y-x) =2s(y,x) + 2s(x,y)\end{align*}
Por otro lado, desarrollemos los últimos dos sumandos
\begin{align*} i [ s(y+xi,y+xi) – s(y-ix,y-xi)]= 2s(x,y) – 2s(y,x) \end{align*}
Sustituyendo esto en la función original tenemos que
\begin{align*} \varphi(x,y)=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}=s(x,y). \end{align*}

De esta igualdad podemos concluir varias cosas.

Primero, $\varphi = s$ por lo que $\varphi$ es efectivamente la forma polar de $\Phi$.

La forma polar en única ya que si existiera otra función $s’$ tal que $s'(x,x)=\Phi(x)$ para toda $x \in V$ sustituyendo en la identidad de polarización y repitiendo los pasos llegariamos a que $s’=\varphi$.

$\square$

Propiedades de formas hermitianas cuadráticas

Veamos algunas otras propiedades que nos pueden resultar útiles en entradas siguientes.

En las siguientes tres proposiciones, sea $V$ es un espacio vectorial sobre $\mathbb{C}$, $\Phi$ una forma hermitiana cuadrática con $\varphi$ su polar y $x,y \in V$ elementos cualesquiera.

Proposición

$\Phi(x) \in \mathbb{R}$.

Demostración

Sabemos que $\Phi(x)=\varphi(x,x)$ y como $\varphi$ es hermitiana por definición, tenemos que \begin{align*} \varphi(x,x)=\overline{\varphi(x,x)} \end{align*}
Y sabemos que esto pasa si y solo si $\Phi(x)=\varphi(x,x) \in \mathbb{R}$.

$\square$

Proposición

Sea $a \in \mathbb{C}$, entonces $\Phi(ax)=|a|^2\Phi(x)$.

Demostración

Utilizando de nuevo que $\Phi(x)=\varphi(x,x)$
\begin{align*} \varphi(ax,ax)=\overline{a}a\varphi(x,x)=|a|^2 \Phi(x). \end{align*}

$\square$

Proposición

$\Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y)$.

Demostración

Como en las anteriores usemos que $\Phi(x+y)=\varphi(x+y,x+y)$
\begin{align*} \varphi(x+y,x+y)=\varphi(x,x)+\varphi(x,y)+ \varphi(y,x)+ \varphi(y,y) \end{align*}
como $\varphi$ es hermitiana, tenemos que $\varphi(y,x)=\overline{\varphi(x,y)}$ por lo que
\begin{align*} \varphi(x+y,x+y)=\Phi(x)+\varphi(x,y)+ \overline{\varphi(x,y)}+ \Phi(y) \end{align*}
Y recordemos que
\begin{align*} \varphi(x,y)+ \overline{\varphi(x,y)} = 2 Re(\varphi (x,y)) \end{align*}
Por lo tanto
\begin{align*} \Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y). \end{align*}

$\square$

Para concluir, también enunciaremos el análogo de el teorema de Gauss para formas cuadráticas.

Teorema de Gauss

Sea $\Phi$ una función hermitiana cuadrática en $\mathbb{C}^n$, existen $\alpha_1, \cdots , \alpha_r \in \{ -1, 1 \}$ y funciones linealmente independientes $l_1, \cdots l_r$ en $\mathbb{C}^n$ tal que, $\forall x \in \mathbb{C}^n$
\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Más adelante

Con esto concluimos nuestro pequeño repaso de formas bilineales y sesquilineales, basándonos en esto, veremos una aplicación de estas que te puede resultar bastante más familiar, los productos internos.

Al repasar productos internos concluiremos revisando dos desigualdades sumamente importantes para cualquier teoría en donde se utilicen espacios con producto interno (no abundaremos en este curso sobre este concepto, pero seguro conoces un par de espacios vectoriales que tienen definido un producto interno) siendo estas las desigualdades de Cauchy-Schwarz y de Minkowski, cuyas aplicaciones se extienden desde la geometría, el análisis e incluso la mecánica cuántica.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi$
    \begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\varphi$ definida como sigue $\varphi$ como sigue
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
    Para cualquier par $f_1, f_2 \in V$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma hermitiana cuadrática, prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)) \end{align*}.
  4. ¿Como definirías el concepto de producto interno en $\mathbb{R}$ utilizando formas cuadráticas o hermitianas cuadráticas?
  5. Demuestra el Teorema de Gauss para formas hermitianas cuadráticas.

Entradas relacionadas

Geometría Analítica I: Producto interior y el ortogonal canónico

Introducción

Continuando la conexión con la geometría Euclidiana con la que empezamos, hay un concepto en la geometría analítica que se conecta con la noción de ángulo, la de distancia y la de norma en la primera geometría mencionada, el producto interior. Dentro del contenido de esta entrada esta su definición en una dimensión de $2$ o mayor, ejemplos y sus propiedades. También, se discute el concepto del vector ortogonal canónico, que en conjunción con el producto interior, sirve como herramienta para detectar ciertas características de rectas y vectores.

Producto interior

Abramos esta entrada con la definición de este nuevo concepto.

Definición. Si tenemos dos vectores $u=(u_1,u_2)$ y $v=(v_1,v_2)$ en $\mathbb{R}^2$, el producto interior (o producto punto) en $\mathbb{R}^2$ de $u$ con $v$, está dado por

$u\cdot v := (u_1,u_2) \cdot (v_1,v_2) = u_1v_1 +u_2 v_2$

Esta definición se puede expresar en dimensiones mayores.

Definición. Si tenemos dos vectores $u=(u_1,u_2, \dots, u_n)$ y $v=(v_1,v_2, \dots, v_n)$ en $\mathbb{R}^n$, el producto interior (o producto punto) en $\mathbb{R}^n$ de $u_1$ con $u_2$, está definido como

\begin{align*}
u\cdot v : &= (u_1,u_2, \dots, u_n) \cdot (v_1,v_2, \dots, v_n) \\
&= u_1v_1 +u_2 v_2+u_3 v_3 + \dots + u_n v_n \\
&= \sum _{j=1} ^{n} u_j v_j
\end{align*}

Es importante notar que el resultado del producto interior (que es una operación vectorial), es un escalar.

Ejemplos:

1. Sean los vectores $(5,3)$ y $(2,-4)$ en $\mathbb{R}^2$, el producto interior de estos es

\begin{align*}
(5,3) \cdot (2,-4)&=5(2)+3(-4)\\
&=10-12\\
&=-2
\end{align*}

2. Sean los vectores $(-3,1,-1)$ y $(-6,2,-3)$ en $\mathbb{R}^3$, el producto interior de estos es

\begin{align*}
(-3,1,-1) \cdot (-6,2,-3)&=-3(-6)+1(2)+(-1)(-3)\\
&=18+2+3\\
&=23
\end{align*}

3. Sean los vectores $(1,0,-5,2,0,1)$ y $(0,-6,0,0,2,0)$ en $\mathbb{R}^6$, el resultado de su producto interior es cero, verifica.

Ahora que hemos definido una nueva operación, nos gustaría demostrar algunas propiedades asociadas a esta.

Teorema. Para todos los vectores $u,v,w \in \mathbb{R}^n$ y para todo número $t \in \mathbb{R}$ se cumple que

  1. $u \cdot v = v \cdot u$
  2. $u \cdot (tv)=t(u\cdot v)$
  3. $u \cdot (v + w)= u \cdot v + u \cdot w$
  4. $u \cdot u \geq 0$
  5. $u \cdot u =0 \Leftrightarrow u=(0,0)$

La primera propiedad nos dice que el producto interior es conmutativo; la siguiente que la operación saca escalares; la tercera expresa que esta abre sumas; la cuarta que al hacer el producto interior de un vector consigo mismo, el resultado es siempre mayor o igual a cero la última que la igualdad a cero sólo sucede cuando el vector $u$ es el vector cero.

Demostración

Haremos la demostración para vectores en $\mathbb{R}^2$, (el caso para dimensión $n$ es análogo) y usaremos los axiomas de los números reales.

Para empezar definamos los vectores $u=(u_1,u_2)$, $v=(v_1,v_2)$ y $w=(w_1,w_2)$ en $\mathbb{R}^2$

1. P. D. $u \cdot v = v \cdot u$. Comencemos con la definición y desarrollemos a partir de ella

\begin{align*}
u \cdot v &=(u_1,u_2) \cdot (v_1,v_2)\\
&=u_1v_1+u_2v_2 \\
&=v_1u_1+v_2u_2 \\
&=(v_1,v_2) \cdot (u_1,u_2)\\
&=v \cdot u
\end{align*}

$\therefore$ $u\cdot v= v \cdot u$

2. P.D. $u \cdot (tv)=t(u\cdot v)$

\begin{align*}
u \cdot (tv)&=(u_1,u_2) \cdot t(v_1,v_2) \\
&= (u_1,u_2) \cdot (tv_1,tv_2) \\
&= u_1(tv_1)+u_2(tv_2)\\
&= t(u_1v_1+u_2v_2) \\
&=t(u_1,u_2) \cdot (v_1,v_2)\\
&= t (u \cdot v)
\end{align*}

$\therefore u \cdot (tv)=t(u\cdot v)$

3. P.D. $u \cdot (v + w)= u \cdot v + u \cdot w$

\begin{align*}
u \cdot (v + w)&=(u_1,u_2) \cdot ((v_1,v_2) + (w_1,w_2)) \\
&= (u_1,u_2) \cdot (v_1+w_1,v_2+w_2) \\
&=u_1(v_1+w_1)+u_2(v_2+w_2) \\
&=u_1v_1+u_1w_1+u_2v_2+u_2w_2 \\
&=u_1v_1+u_2v_2+u_1w_1+u_2w_2 \\
&=(u_1v_1+u_2v_2)+(u_1w_1+u_2w_2) \\
&=((u_1,u_2)\cdot(v_1,v_2)) + ((u_1,u_2) \cdot (w_1,w_2)) \\
&= u \cdot v + u \cdot w
\end{align*}

$\therefore$ $u \cdot (v + w)= u \cdot v + u \cdot w$

4 y 5. P.D. $u \cdot u \geq 0$ y $u \cdot u =0 \Leftrightarrow u=(0,0)$

\begin{align*}
u \cdot u&=(u_1,u_2) \cdot (u_1,u_2) \\
&= u_1u_1+u_2u_2\\
&= u_1^2 + u_2^2 \geq 0
\end{align*}

La última relación se da ya que es una suma de números al cuadrado y cada término por sí sólo es mayor o igual a cero.

Resulta que si $u_1 \neq 0$ ó $u_2 \neq 0$, entonces $u_1^2 + u_2^2 > 0$, por lo que el único caso en el que se da la igualdad a cero es cuando $u=(0,0)$.

$\therefore$ $u \cdot u \geq 0$ y $u \cdot u =0 \Leftrightarrow u=(0,0)$

$\square$

Lo usado en esta demostración se restringe a los axiomas de los reales y la definición del producto interior, por lo que aunque no haya mucha descripción, espero que te sea clara.

El ortogonal canónico

Definición. Sea $v=(x,y)$ un vector en $\mathbb{R}^2$, el vector ortogonal canónico a v es el vector

$v^{\perp}=(-y,x)$

Si te das cuenta, esta definición hace referencia a lo que sucede al aplicar el ortogonal a un vector. Además, esta definición define al ortogonal canónico, pero no significa que sea el único vector perpendicular (ortogonal) a $v$.

Antes de definir o probar más cosas relacionadas al ortogonal, hagamos algunas observaciones.

Observación: Si aplicamos 4 veces el ortogonal a un vector $v$, regresamos al mismo vector:


$v^{\perp}=(x,y)^{\perp}=(-y,x)$

$(-y,x)^{\perp}=(-x,-y)$

$(-x,-y)^{\perp}=(y,-x)$

$(y,-x)^{\perp}=(x,y)$

Observación: Para cualquier $v=(x,y) \in \mathbb{R}^2$, tenemos que

$v \cdot v^{\perp} =(a,b) \cdot (-b,a)=a(-b)+b(a)=-ab+ab=0$

Para continuar, usemos el producto interior para definir y probar ciertas cosas con relación al compadre ortogonal.

Definición. Diremos que dos vectores $u,v \in \mathbb{R}^2$ son perpendiculares (ortogonales) si $u \cdot v=0$.

Proposición. Sea $u \in \mathbb{R}^2$ \ ${ 0\}$. Entonces

$\{x \in \mathbb{R}^2 : x \cdot u =0\}=L_{u_{\perp}}:=\{ru^{\perp}: r \in \mathbb{R}\}$

Demostración

Como queremos comprobar una igualdad de conjuntos, hay que probar la doble contención. Comencemos con la contención $\supseteq$.

$\supseteq$ En esta contención, queremos demostrar que cualquier vector de la forma $ru^{\perp}$ es tal que

$(ru^{\perp}) \cdot u=0$

Tomemos un vector de la forma $ru^{\perp}$ con $r \in \mathbb{R}$ y notemos que gracias a la segunda propiedad del producto interior se cumple que

$(ru^{\perp}) \cdot u = r(u^{\perp} \cdot u)= r(0)=0 $

Esto es suficiente para la demostración de la primera contención, pues hemos probado que el producto interior de cualquier vector de la forma $ru^{\perp}$ con $u$ es cero.

$\subseteq$ Para esta contención, queremos demostrar que los vectores $x$ que cumplen $x \cdot u =0$, son de la forma $x=r u^{\perp}$. Para esto, tomemos un vector $x=(r,s)$ que cumpla la primera condición y expresemos al vector $u$ con sus coordenadas $u=(u_1,u_2)$. Al realizar el producto interior obtenemos

$x \cdot u=(r,s) \cdot (u_1,u_2)=ru_1+su_2=0 $

$\Rightarrow ru_1= -su_2 \cdots (a) $

Dado que $u \neq (0,0)$, al menos una de sus entradas es distinta de cero. Supongamos que $u_1 \neq 0$, entonces podemos despejar $r$

$r=\frac{-su_2}{u_1}$

Podemos sustituir este valor en $x$ y desarrollar para obtener

\begin{align*}
x=(r,s)&=\left( \frac{-su_2}{u_1},s \right)=s\left( \frac{-u_2}{u_1}, 1 \right) \\
&=s \left( \frac{-u_2}{u_1}, \frac{u_1}{u_1} \right) \\
&=\frac{s}{u_1} \left( -u_2, u_1 \right)
\end{align*}

Y ya está el primer caso, pues sabemos que $u^{\perp}=( -u_2, u_1)$.

Así, $x \in \mathbb{R}^2$ tal que $x \cdot u=0$,es de la forma $ru^{\perp}$, con r un escalar.

En el caso en el que $u_2 \neq 0$, tenemos algo análogo. A partir de $(a)$ podemos despejar $s$

$ ru_1= -su_2$

$s=\frac{-ru_1}{u_2}$

Al sustituir en $x$ y desarrollar obtendremos que

$x=\frac{r}{-u_2}(-u_2,u_1)$

$\square$

Aplicaciones del producto punto

Para cerrar esta entrada, usemos el producto interior para describir algunas características de las rectas y vectores.

Definición. Diremos que dos líneas $l_1$ y $l_2$ son perpendiculares si al escribirlas en forma paramétrica

$l_1=\{ p_1+rq_1 : r \in \mathbb{R} \}$

$l_2=\{ p_2+rq_2 : r \in \mathbb{R} \}$

se tiene que $q_1 \cdot q_2 =0$, esto es si sus vectores dirección son ortogonales.

Proposición. Dos vectores $u$ y $v$ son paralelos si y sólo si $u$ y $v^{\perp}$ son ortogonales, es decir si $u \cdot v^{\perp}=0$.

Demostración

Ida ($\Rightarrow$). Si $u$ y $v$ son paralelos, por definición $u=cv$ con $c \in \mathbb{R}$. Como queremos que $u$ y $v^{\perp}$ sean ortogonales, realicemos su producto interior y utilicemos las propiedades de este para desarrollar

\begin{align*}
u \cdot v^{\perp}&=(cv) \cdot v^{\perp} \\
&=c(v \cdot v^{\perp}) \\
&=c(0)=0
\end{align*}

Por lo que $u$ y $v^{\perp}$ son ortogonales.

Regreso ($\Leftarrow$). Si ahora suponemos que $u$ y $v^{\perp}$ son ortogonales, pasa que

$u \cdot v^{\perp}=0$

Pero por lo visto en la proposición de la sección anterior, esto sólo pasa cuando $u=c(v^{\perp})^{\perp}$ para algún $c \in \mathbb{R}$. Si $v=(v_1,v_2)$ esto se desarrolla como

\begin{align*}
u&=c(v^{\perp})^{\perp}=c(-v_2,v_1)^{\perp}\\
&=c(-v_1,-v_2)\\
&= -cv
\end{align*}

$\therefore$ por definición de paralelismo, $u$ y $v$ son paralelos.

$\square$

Otra cosa útil del producto punto, es que cualquier recta se puede escribir en términos de este. Precisemos esto en la siguiente proposición.

Proposición. Sea la recta $l$ en su forma paramétrica

$l=\{p+rq : r \in \mathbb{R}\}$

La recta $l$ se puede escribir usando el produto punto de la siguiente manera

$l=\{x \in \mathbb{R} ^2 : q^{\perp} \cdot x=q^{\perp} \cdot p \}$

Antes de adentrarnos en la demostración, hablemos un poco de qué significa esta proposición con ayuda del siguiente interactivo aclarando que $qT$ es el vector $q{^\perp}$.

Al definir $qT$ como el vector perpendicular a la recta, tenemos que $q$ es el vector director de esta; $p$ es el punto por el que pasa la recta y $x$ representa a los puntos en ella. Como $p$ y $qt$ son fijos, entonces $qT \cdot p$ es un número constante. Si tú mueves $x$ a lo largo de la recta, veras que el producto punto $qT \cdot x$ al cual denominamos como $a$ en GeoGebra, no varia.

Es así como expresamos la recta por medio del producto punto; el conjunto de todas los $x \in \mathbb{R}^2$ tal que el producto punto con $q^{\perp}$ ($qT$ en el interactivo) es igual a $q^{\perp} \cdot p$.

Con esto claro, procedamos a la demostración.

Demostración

Como queremos demostrar que $l$ en su forma paramétrica es el mismo conjunto que el descrito por el producto punto, tenemos que explorar las dos contenciones de los conjuntos.

$\supseteq$ Tomemos $x \in \mathbb{R}^2$ tal que $q^{\perp}\cdot x =q^{\perp}\cdot p$. De esta igualdad se tiene que

\begin{align*}
0 &= q^{\perp}\cdot x – q^{\perp}\cdot p\\
&=q^{\perp}\cdot (x-p)\\
& \Rightarrow q^{\perp}\cdot (x-p) =0
\end{align*}

Dada la última igualdad, sabemos (por la primera proposición de esta entrada) que $x-p$ debe ser un múltiplo de $(q^{\perp})^{\perp}=-q$ y por lo tanto un múltiplo de $q$; por lo que para algún $s \in \mathbb{R}$ se tiene que

\begin{align*}
x-p&=sq\\
\Rightarrow x&=p+sq
\end{align*}

$\subseteq$ Ahora partamos de un punto $x=p+rq \in$ $l$ y desarrollemos su producto punto con $q^{\perp}$ para finalizar esta demostración

\begin{align*}
q^{\perp} \cdot x &= q^{\perp} \cdot (p+rq)\\
&=(q^{\perp} \cdot p) + (q^{\perp} \cdot (rq)) \\
&= q^{\perp} \cdot p
\end{align*}

Donde la última igualdad se da gracias a que $q^{\perp} \cdot (rq)=r(q^{\perp} \cdot q)=0$.

$\therefore$ Partiendo la expresión parametrica de la recta está contenida en la expresión con producto punto y viceversa y por lo tanto son el mismo conjunto (la misma recta).

$\square$

Tarea moral

  • Completa los pocos pasos que omitimos en cada demostración o ejemplo.
  • Demuestra el teorema de las propiedades del producto interior para $n=3$.
  • Calcula el producto interior de los siguientes vectores:
    • $(4,-1)$ y $(7,2)$
    • $(-2,3,0)$ y $(4,-6,0)$
    • $(-2,3,0)$ y $(-2)(-2,3,0)$
    • $(5,0,-3,0,0)$ y $(0,4,0,-2,1)$
  • Usando la definición del producto interior, demuestra que dado $ u \in \mathbb{R}^2$ se tiene que

$u \cdot x =0$, $\forall x\in \mathbb{R}^2$

si y sólo si $u=(0,0)$.

  • Demuestra que para todos los vectores $ u \text{, }v \in \mathbb{R}^2$ y $\forall t \in \mathbb{R}$, se cumple que
    1. $(u+v)^{\perp}=u^{\perp}+v^{\perp}$
    2. $(tu^{\perp})=t(u^{\perp})$
    3. $u^{\perp} \cdot v^{\perp}=u \cdot v$
    4. $u^{\perp} \cdot v = -(u \cdot v^{\perp})$

Más adelante…

El producto interior fungirá como herramienta para establecer las nociones de distancia y ángulo en las siguientes entradas y particularmente para definir la forma normal de la recta en la siguiente entrada.

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si $A$ es una matriz de $m\times n$, su transpuesta $^tA$ es la matriz de $n\times m$ que se obtiene de reflejar a las entradas de $A$ en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos $A=[a_{ij}]$, entonces $^tA=[a_{ji}]$. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y $^tA = A^{-1}$. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si $A$ es una matriz de $n\times n$ con entradas reales y simétrica, entonces:

  • Sus eigenvalores $\lambda_1,\ldots,\lambda_n$ (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal $P$ de $n\times n$ y con entradas reales tal que si tomamos a $D$ la matriz diagonal de $n\times n$ cuyas entradas en la diagonal principal son $\lambda_1,\ldots,\lambda_n$, entonces $$A=P^{-1}DP.$$

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si $A=P^{-1}DP$ como en el teorema anterior, entonces
\begin{align*}
A^2&=(P^{-1}DP)(P^{-1}DP)\\
&=P^{-1}DDP\\
&=P^{-1}D^2P,
\end{align*}

y de manera inductiva se puede probar que $A^k=P^{-1}D^kP$. Elevar la matriz $D$ a la $k$-ésima potencia es sencillo, pues como es una matriz diagonal, su $k$-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la $k$.

Problema. Sea $A$ una matriz de $n\times n$ simétrica y de entradas reales. Muestra que si $A^k = O_n$ para algún entero positivo $k$, entonces $A=O_n$.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de $A$. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como $A$ es simétrica y de entradas reales, entonces sus eigenvalores $\lambda_1,\ldots, \lambda_n$ son reales y es diagonalizable. Digamos que su diagonalización es $P^{-1} D P$. Tenemos que $$O_n = A^k = P^{-1} D^k P.$$ Multiplicando por la matriz $P$ a la izquierda, y la matriz $P^{-1}$ a la derecha, tenemos que $D^k=O_n$. Las entradas de $D^k$ son $\lambda_1^k,\ldots,\lambda_n^k$, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, $$\lambda_1=\ldots=\lambda_n=0.$$

Concluimos que $D=O_n$, y que por lo tanto $A=P^{-1} O_n P = O_n$.

$\square$

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz $$A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.$$ Calcula las primeras potencias de $A$ a mano. Conjetura y muestra cómo es $A^n$ en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el $n$-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz $A$ obtenemos:

\begin{align*}
A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\
A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\
A^3&=\begin{pmatrix} 1 & 2 \\ 2& 3 \end{pmatrix},\\
A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\
A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.
\end{align*}

Al parecer, en las entradas de $A$ van apareciendo los números de Fibonacci. Seamos más concretos. Definimos $F_0=0$, $F_1=1$ y para $n\geq 0$ definimos $$F_{n+2}=F_{n}+F_{n+1}.$$ La conjetura es que para todo entero $n\geq 1$, se tiene que $$A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.$$

Esto se puede probar por inducción. Arriba ya hicimos el caso $n=1$. Supongamos la conjetura cierta hasta un entero $n$ dado, y consideremos la matriz $A^{n+1}$. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

\begin{align*}
A^{n+1}&=AA^n\\
& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\
&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\
&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.
\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz $A$ es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de $A$. Su polinomio característico es $$\begin{vmatrix} \lambda & -1 \\ – 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.$$

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de $A$) son $$\frac{1\pm \sqrt{5}}{2}.$$ Por el momento, para simplificar la notación, llamemos $\alpha$ a la de signo más y $\beta$ a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible $P$ de $2\times 2$ tal que $$A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.$$

De esta forma, $$A^n = P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.$$

Aquí no es tan importante determinar concretamente $P$ ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de $\alpha^n$ y $\beta^n$ y de que los coeficientes de esta combinación lineal ya no dependen de $n$, sino sólo de las entradas de $P$. En particular, la entrada superior derecha de $A^n$ por un lado es $F_n$, y por otro lado es $r\alpha^n + s\beta ^n$.

¿Cómo obtenemos los valores de $\alpha$ y $\beta$? Basta substituir $n=1$ y $n=2$ para obtener un sistema de ecuaciones en $\alpha$ y $\beta$. Aquí abajo usamos que como $\alpha$ y $\beta$ son raíces de $x^2-x-1$, entonces $\alpha^2=\alpha+1$, $\beta^2=\beta+1$ y $\alpha+\beta = 1$.

$$\begin{cases}
1= F_1 = r \alpha + s \beta \\
1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.
\end{cases}$$

De aquí, obtenemos la solución
\begin{align*}
r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\
s&=-r = -\frac{1}{\sqrt{5}}.
\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es $$F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n – \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.$$

$\square$

Matrices positivas y positivas definidas

Por definición, una matriz simétrica $A$ de $n\times n$ con entradas reales es positiva si para cualquier vector (columna) $v$ en $\mathbb{R}^n$ se tiene que $$^t v A v \geq 0.$$ Aquí $^tv$ es la transposición de $v$, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector $v=0$, entonces decimos que $A$ es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz $A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix},$ pues para cualquier vector $v=(x,y)$ se tiene que $$^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.$$ Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como $(1,1)$. Como puedes verificar, un ejemplo de matriz positiva definida es $$B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.$$

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en $\mathbb{R}^n$. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Hay un resultado análogo para cuando se quiere determinar si una matriz $A$ es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos $3$ y $4$ se necesita además que $B$ y $C$ sean invertibles.

Problema. Sea $A$ una matriz de $n\times n$ con entradas reales, simétrica y positiva. Muestra que si $$\text{tr}(A) = n \sqrt[n]{\det(A)},$$ entonces $A$ conmuta con cualquier matriz de $n\times n$.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que $A$ se puede diagonalizar con matrices $A=P^{-1} D P$, donde $D$ es la matriz diagonal que tiene en su diagonal principal a los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$, y $P^{-1}$ es una matriz invertible. Como $A$ y $D$ son similares, se tiene que
\begin{align*}
\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\
\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.
\end{align*}

Como $A$ es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

$$\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.$$

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor $\lambda$, y entonces $D=\lambda I_n$. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de $n\times n$, tendríamos entonces que

\begin{align*}
A&=P^{-1}D P \\
&=P^{-1}(\lambda I_n) P\\
&=(\lambda I_n) (P^{-1}P)\\
&=\lambda I_n.
\end{align*}

Con esto probamos que $A$ es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de $n\times n$.

$\square$

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.