Archivo de la etiqueta: producto interior

Álgebra lineal II: Espacios hermitianos y bases ortogonales complejas

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra lineal II: Dualidad y ortogonalidad

Introducción

En entradas anteriores mencionamos y utilizamos propiedades del espacio dual y del producto interno, en esta entrada nos enfocaremos más en la relación de las formas bilineales, (específicamente el producto interno) con este concepto.

También veremos el concepto de ortogonalidad con respecto a una forma bilineal, lo que dará paso a un teorema muy importante (El teorema de representación de Riesz) e incluso nos permitirá definir conceptos como distancia entre un conjunto y un elemento.

Dualidad

De aquí en adelante, asumiremos que $V$ es un $\mathbb{R}$-espacio vectorial, no necesariamente de dimensión finita. Definamos una función que utilizaremos mucho como sigue

Sea $b$ una forma bilineal en $V$.
\begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(y)=b(\cdot, y ) \end{align*}
Donde $b( \cdot , y)$ es la función que envía $x$ a $b(x,y)$, además sabemos que es lineal ya que
$b$ es bilineal, lo que significaba que es lineal en la primera entrada, por lo que pertenece a $V^*$ (el espacio dual de V, puedes leer un poco más de este y de las bases duales aquí).

Proposición

Sea $\mathcal{B}$ base de $V$ de dimensión finita, $\beta’$ su base dual y $b$ forma bilineal en $V$. Prueba que la matriz de $\varphi_b$ respecto a $\beta$ y $\beta’$ es la matriz de $b$ respecto a $\beta$.

Demostración

Sea $\beta=\{ u_1, \cdots , u_n \}$ y $\beta’=\{ u’_1, \cdots , u’_n \}$ y sea $B$ la matriz asociada a $\varphi_b$ respecto a $\beta$ y $\beta’$, primero calcularemos su $j$-esima columna.
\begin{align*} \varphi_b(u_j)=b(\cdot,u_j) \end{align*}
Como no es natural la forma de escribir $\varphi_b(u_j)$ en términos de $\beta’$, calculemos $\varphi_b(u_j)(x)$ para algún $x \in V$
\begin{align*} \varphi_b(u_j)(x)=b(x,u_j) \end{align*}
Si $x=\sum_{i=1}^nu_ix_i$, entonces
\begin{align*} \varphi_b(u_j)(x)=b(\sum_{i=1}^nu_ix_i,u_j)= \sum_{i=1}^nx_ib(u_i,u_j)\end{align*}
Por otro lado, sabemos que para cualquier $x \in V$ $u^*_i(x)=x_i$, sustituyendo esto en la igualdad anterior
\begin{align*} \varphi_b(u_j)(x)= \sum_{i=1}^nu^*_i(x)b(u_i,u_j)\end{align*}
Para cualquier $x \in V$, por lo que
\begin{align*} \varphi_b(u_j)= \sum_{i=1}^nu^*_ib(u_i,u_j)\end{align*}
así, la $j-esima$ columna es de la forma
\begin{pmatrix} b(u_1,u_j) \\
\vdots \\
b(u_n,u_j) \end{pmatrix}
Así, podemos escribir $B$ como
B=\begin{pmatrix} b(u_1,u_1) & \cdots & b(u_1,u_n) \\
\vdots & \ddots & \vdots \\
b(u_n,u_1) & \cdots & b(u_n,u_n) \end{pmatrix}
Que sabemos es la matriz de $b$ respecto a $\beta$.

$\square$

Proposición (Teorema de representación de Riesz)

Sea $V$ un espacio euclidiano (espacio vectorial sobre $\mathbb{R}$ de dimensión finita) con producto interno $<,>$. La función $\varphi_{<,>}: V \rightarrow V^*$ es un isomorfismo.

Demostración

Empecemos con la inyectividad, sea $y \in V$ tal que $\varphi_{<,>}(y)=\overline{0}$ donde $\overline{0}$ es la función constante 0, dado esto, tenemos que para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(y)(x)=<x,y>=0 \end{align*}
Esto aplica en particular para sí mismo, por lo que
\begin{align*} \varphi_{<,>}(y)(y)=<y,y>=0 \end{align*}
Como $<,>$ es un producto interior, esto implica que $y=0$
Por lo que $ker(\varphi_{<,>})=\{0\}$, por lo que $\varphi_{<,>}$ es inyectiva.

Aparte, veamos que es lineal, calculemos $\varphi_{<,>}(\lambda a+b)$ con $\lambda \in \mathbb{R}$ y $a,b \in V$.
\begin{align*} \varphi_{<,>}(\lambda a + b)=<\cdot , \lambda a+ b> \end{align*}
calculando esto para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(\lambda a + b)(x)=<x , \lambda a + b> \end{align*}
y sabemos que $<,>$ es lineal en la segunda entrada por lo que
\begin{align*} <x , \lambda a + b>=\lambda<x , a> + < x , b >=\lambda\varphi_{<,>}(a)(x)+\varphi_{<,>}(b)(x) \end{align*}
Por lo que
\begin{align*} \varphi_{<,>}(\lambda a + b)=\lambda\varphi_{<,>}(a)+\varphi_{<,>}(b) \end{align*}
Lo por lo tanto $\varphi_{<,>}$ es lineal, finalmente, que $\varphi_{<,>}$ sea inyectiva, lineal y que $dim(V)=dim(V^*)$ implica que $\varphi_{<,>}$ es un isomorfismo.

$\square$

Ortogonalidad

Definición

Sea $V$ y $b$ una forma bilineal en $V$.

  • Dos vectores $x,y \in V$ serán ortogonales (respecto a $b$) si $b(x,y)=0$.
  • Sea $S \subseteq V$ el conjunto ortogonal de $S$ ($S^{\bot}$) es
    \begin{align*} S^{\bot}=\{v \in V : \forall s \in S, b(s,v)=0 \}.\end{align*}
  • $S,T \subseteq V$ serán ortogonales si S \subseteq $T^{\bot}$.

Observación (Teorema de Pitágoras)

Supongamos que $<,>$ es un producto interno en $V$ con $||\cdot||$ su norma asociada (es decir $||x||=\sqrt{<x,x>}$), entonces $x,y \in V$ son ortogonales si y solo si
\begin{align*} ||x+y||^2=||x||^2+||y||^2 \end{align*}
Demostración

Se sigue directamente de la identidad
\begin{align*} ||x+y||^2=||x||^2+2<x,y>||y||^2 \end{align*}

$\square$

Proposición

Sea $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
\begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*}
Y $(W^{\bot})^{\bot}=W$

Probaremos de hecho algo aún más fuerte.

Proposición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita. Entonces
\begin{align*} W \oplus W^{\bot} = V\end{align*}
Más aún $(W^{\bot})^{\bot}=W$

Demostración

Sea $<,>$ el producto interno de $V$, si tenemos que $x \in W \cap W^{\bot}$ tenemos que $x$ es ortogonal a $x$ por lo que
\begin{align*} <x,x>=0\end{align*}
lo que implica que $x=0$, por lo tanto $W \cap W^{\bot}= \{0\}$.

Por otro lado, sea $x \in V$ un vector cualquiera, podemos definir $f:W \rightarrow \mathbb{R}$ tal que $f(y):<x,y>$ que sabemos es una función lineal por lo que $f \in V^*$ como $W$ es de dimensión finita y tiene un producto interno (heredado de V) este cumple las hipótesis del teorema de representación de Riesz, así, sabemos que existe una única $z \in W$ tal que $f(y)=<z,y>$ para cualquier $y \in W$ de esta manera
\begin{align*} 0=f(y)-f(y)=<x,y>-<z,y>=<x-z,y>\end{align*}
Para cualquier $y \in W$ por lo que $x-z =w \in W^{\bot}$ entonces
\begin{align*} x=w+z\end{align*}
con $w \in W^{\bot}$ y $z \in W$, por lo tanto
\begin{align*} W + W^{\bot} = V\end{align*}
Y esto con el párrafo anterior implican que
\begin{align*} W \oplus W^{\bot} = V.\end{align*}

$\square$

Así la proposición más débil, se sigue directamente de esta, con la parte acerca de la dimensión implicada debido a que $W$ y $W^{\bot}$ están en posición de suma directa.

Definición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita, la proyección ortogonal hacia $W$ es
\begin{align*} p_W:V \rightarrow W \end{align*}
Con $p_W(x)$ el único vector en $W$ tal que $x-p_W(x) \in W^{\bot}$.

Definición

Sea $V$ euclidiano, una función lineal $p: V \rightarrow V$ será una proyección ortogonal si existe $W$ subespacio de $V$ tal que $p$ es la proyección ortogonal hacia $W$.

Proposición

Sea $V$ con producto interno $<.>$ y $|| \cdot ||$ su norma asociada. Sea $W \subseteq V$ un subespacio de dimensión finita y sea $v \in V$. Entonces
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Más aún, $p_w(v)$ es el único elemento con esta propiedad.

Demostración

Sea $x \in W$ un elemento cualquiera de $W$, primero notemos que $x – p_W(v) \in W$ y $v-p_W(v) \in W^{\bot}$, por lo que estos dos son ortogonales, así calculemos
\begin{align*} ||x-v||^2=||(x-p_W(v))+(p_W(v)-v)||^2= ||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \end{align*}
esta igualdad se cumple por el teorema de Pitágoras que fue una observación aquí arriba. Continuando con esta cadena
\begin{align*} ||x-v||^2=||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo tanto $\forall x \in W$ tenemos que $||x-v|| \geq ||(p_W(v)-v)||$ más aún por definición sabemos que $p_W(v) \in W$ por lo que
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Para probar la unicidad, supongamos que existe $x’ \in W$ tal que
\begin{align*}||v-x’||= min_{x \in W} ||x-v|| \end{align*}
Utilizando el procedimiento anterior tenemos que
\begin{align*} ||(p_W(v)-v)||^2=||x’-v||^2=||(x’-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo que se debe cumplir la desigualdad y notemos que esto pasa si y solo si
\begin{align*} 0=||(x’-p_W(v))||^2 \end{align*}
Que sucede si y solo si
\begin{align*} x’=p_W(v) \end{align*}
Por lo que $p_W(v)$ es único.

$\square$

utilizando este resultado, podemos dar una definición de distancia que coincida con las definiciones que tal vez has visto en otras materias

Definición

Con la notación del teorema anterior, la distancia de $v$ a $W$ es
\begin{align*}d(v,W)=||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}

Más adelante

En esta entrada mencionamos bases, bases duales y conjuntos ortogonales, una de las costumbres en el estudio de las matemáticas es intentar combinar resultados y definiciones con el fin de obtener resultados nuevos, por lo que no te debe de sorprender que hagamos eso mismo en las siguientes entradas.

Empezaremos en la siguiente entrada un pequeño repaso de vases ortogonales y ortonormales, así como el teorema de Gram-Schmidt. Y como es costumbre, terminaremos esta unidad revisando resultados análogos a los de estas dos entradas, pero esta vez para espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a \begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(x)=b(x, \cdot )? \end{align*} ¿Cambia algo en los resultados vistos?
  2. Demuestra sin utilizar la versión más fuerte de este resultado que dado $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
    \begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*} Y $(W^{\bot})^{\bot}=W$. ¿Es necesaria la hipótesis de que $W$ sea de dimensión finita?
  3. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$ encuentra a $W^{\bot}$ y define la proyección ortogonal hacia $W$, $p_W$.
  4. Encuentra el vector en $Span((1,2,1), (-1,3,-4))$ que es el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  5. Sea $V$ un espacio euclidiano y $T : V \rightarrow V $ una transformación lineal tal que $T^2=T$ prueba que T es una proyección ortogonal si y solo si $\forall x,y \in V$ $<T(x),y>=<x,T(y)>$.

Entradas relacionadas

Álgebra lineal II: Repaso de producto interior

Introducción

Como mencionamos en la entrada anterior, una de las aplicaciones más útiles de las formas cuadráticas es que a base de ellas se puede definir un concepto sumamente importante, el producto interior (también llamado producto interno o producto punto en algunos casos específicos).

Utilizando esto podemos introducir otro par de conceptos igualmente importantes (si no es que más), siendo estos norma y distancia, estos sin embargo salen del interés de esta materia por lo que sólo los mencionaremos sin abundar en ellos.

Producto interior

Antes de empezar con esta definición, debemos agregar un par de condiciones extra a las formas cuadráticas.

Definición

Sea $V$ un espacio vectorial en $\mathbb{R}$, $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica y $q: V \rightarrow \mathbb{R}$

Diremos que $b$ es positiva si
\begin{align*} \forall x \in V \text{ se tiene que } b(x,x) \geq 0. \end{align*}
Diremos que $b$ es definida positiva si
\begin{align*} \forall x \in V-\{ 0 \} \text{ se tiene que } b(x,x) > 0 \end{align*}
Dándose la igualdad únicamente si $v=0$.

De una manera semejante

Diremos que $q$ es positiva si su forma polar es positiva.

Diremos que $q$ es definida positiva si su forma polar es definida positiva.

Notemos que para saber si una forma cuadrática NO es positiva (ni definida positiva) no siempre es necesario conocer su polar, basta encontrar un vector tal que al calcular $q(x)$ este sea negativo, ya que esto garantiza que al calcular $b(x,x)$ será igualmente negativa.

En los siguientes ejemplos sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$.

Ejemplo

$q (x_1, x_2, x_3) = x_1x_2+x_2x_3+x_3x_1$.

Notemos que esta no es positiva, ya que tomando al vector $(-1,1,0) $ tenemos que
\begin{align*} q(-1,1,0)= -1 \end{align*}
Ejemplo

$q (x_1, x_2, x_3) = x_1^2+2(x_2-x_3) ^2+3(x_3-x_1) ^2$.

Calculemos la polar de esto, para ello recordemos la identidad de polarización que vimos aquí
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \end{align*}
Calculemos por separado $q(x+y)$ y $-q(x)-q(y)$
\begin{align*} q(x+y)=(x_1+y_1)^2+2(x_2+y_2-x_3-y_3)^2+3(x_3+y_3-x_1-y_1)^2 \\
-q(x)-q(y)=-x_1^2-2(x_2-x_3)^2-3(x_3-x_1)^2-y_1^2-2(y_2-y_3)^2-3(y_3-y_1)^2 \end{align*}
y notamos que por la desigualdad del triángulo tenemos que, para cualesquiera $x,y \in \mathbb{R}$
\begin{align*}(x_1+y_1)^2 \geq x_1^2 +y_1^2 \end{align*}
y también
\begin{align*}2(x_2+y_2-x_3-y_3) ^2 \geq 2(x_2-x_3)^2+2(y_2-y_3)^2 \\
3(x_3+y_3-x_1-y_1)^2 \geq 3(x_3-x_1)^2+3(y_3-y_1)^2 \end{align*}
Al juntar estas 3 desigualdades obtenemos
\begin{align*}q(x+y) \geq q(x) + q(y) \end{align*}
Por lo que
\begin{align*} b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2} \geq 0 \end{align*}
Para cualesquiera $x,y \in \mathbb{C}$, entonces $b$ es positiva, por lo que $q$ es positiva, finalmente, revisemos si es definida positiva, para esto, veamos si hay un vector no cero tal que $q (x_1, x_2, x_3) =0$.

Sea $x \in \mathbb{C}$ tal que $q(x)=0$ esto nos arrojaría el siguiente sistema
\begin{align} x_1=0 \nonumber \\
x_2-x_3=0 \nonumber \\
x_3-x_1=0 \nonumber \end{align}
De donde se concluye que $x_1=x_2=x_3=0$ y finalmente $x=0$ por lo que el único vector que anula esta forma cuadrática es el $0$, por lo tanto $q$ es definida positiva.

Teniendo una buena idea de las formas cuadráticas, prosigamos con la definición titular de esta entrada.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$, llamaremos a $b: V \times V \rightarrow \mathbb{R}$ un producto interno si $b$ es una forma bilineal, simétrica y definida positiva.

Diremos que $V$ es un espacio euclidiano si es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita y con un producto interno.

Como una curiosidad, abundemos un poco sobre este nombre, el término espacio euclidiano originalmente se refería al espacio tridimensional con la geometría euclidiana, usado para modelar el espacio alrededor de nosotros. Tras la introducción de geometrías no euclidianas, se redefinió axiomáticamente, otra forma de definirlo es como lo hemos hecho aquí que se ha mostrado ser equivalente a su antigua definición axiomática. Fuente.

Generalmente, cuando se habla de productos internos la notación usual es $<x,y>$ en vez de $b(x,y)$.

Finalmente, definamos un concepto sumamente importante, la norma.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con $b$ un producto interno en $V$, la norma de $x \in V$ es
\begin{align*} ||x||=\sqrt{b(x,x)}=\sqrt{q(x)} \end{align*}
Con $q$ la forma cuadrática con polar $b$.

Ejemplos

  • $\mathbb{R}^n$ con el producto interno canónico
    \begin{align} <x,y>= \sum_{i=1}^nx_iy_i. \nonumber \end{align}
  • Sea $V=\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en [a,b].
    \begin{align} <f,g>= \int_a^bf(x)g(x)dx. \nonumber \end{align}

Algo que vale la pena notar es que esta definición difiere un poco de la definición usual de norma, como es de esperarse, al final ambas describen el mismo objeto, pero eso lo abordaremos un poco más adelante.

Desigualdades de Cauchy-Schwarz y Minkowski

Ya con esto, procedamos a las desigualdades prometidas.

Proposición (Desigualdad de Cauchy-Schwarz)

Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es definida positiva y $b(x,y)^2=q(x)q(y)$ para algún par $x,y \in V$ entonces $x,y$ son linealmente dependientes.

Demostración

Definamos una nueva función como sigue
\begin{align*} F: \mathbb{R} \rightarrow \mathbb{R} \text{ dada por } F(t)=q(x+ty) \end{align*}
Aplicando que $b$ es bilinear y simétrica
\begin{align*} F(t)=b(x+ty, x+ty)=b(x,x)+2tb(x,y)+t^2b(y,y) \end{align*}
De aquí notemos que $F(t)$ es un polinomio de segundo grado en la variable $t$, además como $b$ es positiva tenemos que
\begin{align*} F(t) \geq 0 \end{align*}
Por lo que, calculando el discriminante de $F(t)$
\begin{align*} 4b(x,y)^2 -4b(x,x)b(y,y)=4b(x,y)^2 -4q(x)q(y) \leq 0 \end{align*}
Que finalmente, pasando $4q(x)q(y)$ y dividiendo entre $4$ obtenemos la desigualdad deseada
\begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
Para el inciso b), si $x=0$ o $y=0$ sabemos que $x,y$ son linealmente dependientes, por lo que supongamos que $x,y \neq 0 $, por lo que $q(y)>0$ ya que $q$ es definida positiva, lo que nos asegura que $F(t)$ es una ecuación de segundo grado en $t$, así volviendo a calcular su discriminante tenemos
\begin{align*} 4b(x,y)^2 -4q(x)q(y) = 0 \end{align*}
Ya que $b(x,y)^2=q(x)q(y)$, que a su vez nos indica que $F(t)$ tiene una única solución real, sea esta $t_1$ entonces
\begin{align*} F(t_1)=q(x+t_1y)=0 \end{align*}
Finalmente, como $q$ es definida positiva se debe tener que
\begin{align*} x+t_1y = 0 \end{align*}
Que nos da una combinación lineal de $0$ con coeficientes no todos cero, por lo tanto $x,y$ son linealmente dependientes.

$\square$

Si ya has visto previamente esta desigualdad, probablemente la forma de plantearla y demostrarla no resulte muy familiar, veamos un corolario y un par de ejemplos que tal vez te ayuden a reconocer mejor esta desigualdad y sus usos.

Corolario

Sea $V=$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$, entonces para cualesquiera $x,y \in V$
\begin{align*}|<x,y>| \leq ||x|| \cdot ||y||. \end{align*}

Ejemplos

Recordando el ejemplo usado arriba, tenemos que $\mathcal{C}^0[a,b]$ el espacio de funciones reales continuas en $[a,b]$ tiene un producto interno y por lo tanto una norma, así, aplicando el corolario tenemos que
\begin{align*} (\int_a^bf(x)g(x))^2 \leq (\int_a^bf(x)^2dx) \cdot (\int_a^bg(x)^2dx).\end{align*}
Que es como probablemente estudiarás esta desigualdad en cursos posteriores.

Otro ejemplo, sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interno $<,>$ por el corolario tenemos que
\begin{align*} -1 \leq \frac{<u,v>}{||u||\cdot||v||} \leq 1 \end{align*}
Para cualesquiera $u,v \in \mathbb{V} – \{0\}$, por lo que existe un único ángulo $\theta \in [0, \pi]$ tal que
\begin{align*} cos \theta =\frac{<u,v>}{||u||\cdot||v||}\end{align*}
De donde se definía a $\theta$ como el ángulo entre los vectores $u,v$.
Con esto, procedamos a la siguiente desigualdad.

Proposición (Desigualdad de Minkowski)
Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $q$ una forma cuadrática positiva en $V$, entonces, para cualesquiera $x,y \in V$
\begin{align} \sqrt{q(x)} + \sqrt{q(y)} \geq \sqrt{q(x+y)}. \nonumber \end{align}
Demostración

Sea $b$ la polar de $q$, por la desigualdad de Cauchy-Schwarz tenemos que
\begin{align*} b(x,y)^2 \leq q(x)q(y) \end{align*}
Que sacando raíz de ambos lados y ya que $b$ es positiva, nos arroja
\begin{align*} b(x,y) \leq \sqrt{q(x)q(y)} \end{align*}
Además, recordando la identidad de polarización, sabemos que
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \end{align*}
Utilizando la desigualdad anterior, se tiene
\begin{align*} q(x+y)=q(x)+q(y)+2b(x,y) \leq q(x)+q(y)+2\sqrt{q(x)q(y)} \end{align*}
Factorizando el lado derecho obtenemos
\begin{align*} q(x+y) \leq (\sqrt{q(x)}+\sqrt{q(y)})^2 \end{align*}
que finalmente, despejando el lado derecho arroja
\begin{align*} \sqrt{q(x+y)} \leq \sqrt{q(x)}+\sqrt{q(y)}.\end{align*}

$\square$

Finalicemos hablando rápidamente de la otra definición de norma que seguramente ya has visto o verás proximamente.

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{R}$ llamaremos norma a $|| \cdot ||: V \rightarrow \mathbb{R}$ una función que cumple las siguientes propiedades:

  • $||v|| \geq 0$ para todo $v \in V$, la igualdad se da si y solo si $v=0$.
  • $||av||=|a|\cdot||v||$ para todo $v \in V$ y para todo $a \in \mathbb{R}$.
  • $||v+w||\leq ||v||+||w||$ para todo $v,w \in V$.

Notemos que en nuestra definición de norma cumple estas tres propiedades, recordemos que $||v||=\sqrt{b(x,x)} $, así la primera se cumple debido a que $b$ se pidió definida positiva, la segunda debido a que $b$ es bilineal y la desigualdad de Minkowski nos garantiza la tercera propiedad.
Más aún, estas dos definiciones son equivalentes, esto de nuevo sale del interés de nuestro curso, pero no estaría de más que lo intentaras demostrar por tu cuenta.

Más adelante

Con esto concluimos nuestro pequeño repaso de producto interno y una de las grandes aplicaciones de las formas bilineales. Como probablemente sabes, los conceptos de producto interno y norma dan pie a un sin fin de teoría muy interesante y útil y poder llegar a ellos desde un enfoque puramente algebraico nos muestra el poder que tiene este campo de estudio.

Procederemos volviendo a la raíz del álgebra lineal y empezaremos a estudiar la relación entre formas bilineales y matrices, brindándonos tal vez un mejor entendimiento de ambas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es definida positiva?
  2. Sea $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n \in \mathbb{N}$ prueba que
    \begin{align*} <P.Q>=\sum_{i=0}^nP(i)Q(i) \end{align*}
    Es un producto interno en $V$.
  3. Demuestra el corolario de la desigualdad de Cauchy-Schwarz.
  4. Sea $V$ un $\mathbb{C}$-espacio vectorial, y $\Phi$ una forma cuadrática hermitiana en $V$, asumamos que $\Phi$ es definida positiva ($\Phi(v) >0$ para todo $v$ no cero) con $\varphi$ su polar.
    Prueba la desigualdad de Cauchy-Schwarz, es decir, para todo $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y) \end{align*}
    Y la igualdad sucede si y sólo si $x,y$ son linealmente dependientes.
  5. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}

Entradas relacionadas

Álgebra lineal II: Formas hermitianas cuadráticas

Introducción

Continuando con la entrada anterior, revisaremos las formas hermitianas cuadráticas siendo estas el equivalente a las formas cuadráticas, para números complejos, así como algunas de sus propiedades.

Análogamente a lo que vimos con formas cuadráticas y bilineales, definiremos también una forma polar y terminaremos enunciando un análogo al teorema de Gauss.

Formas hermitianas cuadráticas

Definición

Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal en $V$ hermitiana.

Llamaremos forma hermitiana cuadrática a la función $\Phi: V \rightarrow \mathbb{C}$ tal que para cualquier $x \in V$
\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}
Llamaremos a la función $\varphi $ la forma polar de $\Phi$.

Ejemplo

Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1 \cdots x_n)= |x_1|^2 + \cdots + |x_n|^2 \end{align*}
Para cualquier $(x_1, \cdots x_n) \in V$.

Solución

En este caso, recordando un poco la definición de norma en el campo de los complejos nos puede dar una buena idea, recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$.
Así propongamos $\varphi$ como sigue
\begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
Para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.

Ejemplo

Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt \end{align*}
Para cualquier $f \in V$.

Solución

Para este caso la solución es bastante análoga
Porpongamos $\varphi$ como sigue
\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
Para cualquier par $f_1,f_2 \in V$.

Cabe aclarar que para terminar de demostrar que estos ejemplos son formas hermitianas cuadráticas, habría que demostrar que $\varphi$ definida en cada uno es sesquilineal hermitiana.

Así, para demostrar que una función es una forma hermitiana cuadrática necesitamos encontrar su forma polar, veremos una forma para hacerlo en la siguiente proposición.

Proposición (Identidad de polarización)

Sea $\Phi: V \rightarrow \mathbb{C}$ una forma hermitiana cuadrática, existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, esta se puede encontrar de la siguiente manera:
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4}.\end{align*}.

Demostración

Por definición, como $\Phi$ es una forma hermitiana cuadrática, existe $s$ una forma sesquilineal hermitiana tal que $s(x,x)=\Phi(x)$ así, definamos una función
\begin{align*} \varphi(x,y)=\frac{ \Phi (y+x) – \Phi (y-x) + i [ \Phi(y+xi) – \Phi(y-ix)]}{4} \end{align*}
Además, como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{ s(y+x,y+x) – s(y-x,y-x) + i [ s(y+xi,y+xi) – s(y-ix,y-xi)]}{4} \end{align*}
Desarrollando los primeros dos sumandos tenemos que
\begin{align*} s(y+x,y+x) – s(y-x,y-x) =2s(y,x) + 2s(x,y)\end{align*}
Por otro lado, desarrollemos los últimos dos sumandos
\begin{align*} i [ s(y+xi,y+xi) – s(y-ix,y-xi)]= 2s(x,y) – 2s(y,x) \end{align*}
Sustituyendo esto en la función original tenemos que
\begin{align*} \varphi(x,y)=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}=s(x,y). \end{align*}

De esta igualdad podemos concluir varias cosas.

Primero, $\varphi = s$ por lo que $\varphi$ es efectivamente la forma polar de $\Phi$.

La forma polar en única ya que si existiera otra función $s’$ tal que $s'(x,x)=\Phi(x)$ para toda $x \in V$ sustituyendo en la identidad de polarización y repitiendo los pasos llegariamos a que $s’=\varphi$.

$\square$

Propiedades de formas hermitianas cuadráticas

Veamos algunas otras propiedades que nos pueden resultar útiles en entradas siguientes.

En las siguientes tres proposiciones, sea $V$ es un espacio vectorial sobre $\mathbb{C}$, $\Phi$ una forma hermitiana cuadrática con $\varphi$ su polar y $x,y \in V$ elementos cualesquiera.

Proposición

$\Phi(x) \in \mathbb{R}$.

Demostración

Sabemos que $\Phi(x)=\varphi(x,x)$ y como $\varphi$ es hermitiana por definición, tenemos que \begin{align*} \varphi(x,x)=\overline{\varphi(x,x)} \end{align*}
Y sabemos que esto pasa si y solo si $\Phi(x)=\varphi(x,x) \in \mathbb{R}$.

$\square$

Proposición

Sea $a \in \mathbb{C}$, entonces $\Phi(ax)=|a|^2\Phi(x)$.

Demostración

Utilizando de nuevo que $\Phi(x)=\varphi(x,x)$
\begin{align*} \varphi(ax,ax)=\overline{a}a\varphi(x,x)=|a|^2 \Phi(x). \end{align*}

$\square$

Proposición

$\Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y)$.

Demostración

Como en las anteriores usemos que $\Phi(x+y)=\varphi(x+y,x+y)$
\begin{align*} \varphi(x+y,x+y)=\varphi(x,x)+\varphi(x,y)+ \varphi(y,x)+ \varphi(y,y) \end{align*}
como $\varphi$ es hermitiana, tenemos que $\varphi(y,x)=\overline{\varphi(x,y)}$ por lo que
\begin{align*} \varphi(x+y,x+y)=\Phi(x)+\varphi(x,y)+ \overline{\varphi(x,y)}+ \Phi(y) \end{align*}
Y recordemos que
\begin{align*} \varphi(x,y)+ \overline{\varphi(x,y)} = 2 Re(\varphi (x,y)) \end{align*}
Por lo tanto
\begin{align*} \Phi(x+y) = \Phi(x) + \Phi(y) +2Re(x,y). \end{align*}

$\square$

Para concluir, también enunciaremos el análogo de el teorema de Gauss para formas cuadráticas.

Teorema de Gauss

Sea $\Phi$ una función hermitiana cuadrática en $\mathbb{C}^n$, existen $\alpha_1, \cdots , \alpha_r \in \{ -1, 1 \}$ y funciones linealmente independientes $l_1, \cdots l_r$ en $\mathbb{C}^n$ tal que, $\forall x \in \mathbb{C}^n$
\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Más adelante

Con esto concluimos nuestro pequeño repaso de formas bilineales y sesquilineales, basándonos en esto, veremos una aplicación de estas que te puede resultar bastante más familiar, los productos internos.

Al repasar productos internos concluiremos revisando dos desigualdades sumamente importantes para cualquier teoría en donde se utilicen espacios con producto interno (no abundaremos en este curso sobre este concepto, pero seguro conoces un par de espacios vectoriales que tienen definido un producto interno) siendo estas las desigualdades de Cauchy-Schwarz y de Minkowski, cuyas aplicaciones se extienden desde la geometría, el análisis e incluso la mecánica cuántica.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi$
    \begin{align*} \varphi(x,y)= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n) \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas $f: [ 0, 1] \rightarrow \mathbb{C}$ y $\varphi$ definida como sigue $\varphi$ como sigue
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}
    Para cualquier par $f_1, f_2 \in V$.
    Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma hermitiana cuadrática, prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)) \end{align*}.
  4. ¿Como definirías el concepto de producto interno en $\mathbb{R}$ utilizando formas cuadráticas o hermitianas cuadráticas?
  5. Demuestra el Teorema de Gauss para formas hermitianas cuadráticas.

Entradas relacionadas

Geometría Analítica I: Producto interior y el ortogonal canónico

Introducción

Continuando la conexión con la geometría Euclidiana con la que empezamos, hay un concepto en la geometría analítica que se conecta con la noción de ángulo, la de distancia y la de norma en la primera geometría mencionada, el producto interior. Dentro del contenido de esta entrada esta su definición en una dimensión de $2$ o mayor, ejemplos y sus propiedades. También, se discute el concepto del vector ortogonal canónico, que en conjunción con el producto interior, sirve como herramienta para detectar ciertas características de rectas y vectores.

Producto interior

Abramos esta entrada con la definición de este nuevo concepto.

Definición. Si tenemos dos vectores $u=(u_1,u_2)$ y $v=(v_1,v_2)$ en $\mathbb{R}^2$, el producto interior (o producto punto) en $\mathbb{R}^2$ de $u$ con $v$, está dado por

$u\cdot v := (u_1,u_2) \cdot (v_1,v_2) = u_1v_1 +u_2 v_2$

Esta definición se puede expresar en dimensiones mayores.

Definición. Si tenemos dos vectores $u=(u_1,u_2, \dots, u_n)$ y $v=(v_1,v_2, \dots, v_n)$ en $\mathbb{R}^n$, el producto interior (o producto punto) en $\mathbb{R}^n$ de $u_1$ con $u_2$, está definido como

\begin{align*}
u\cdot v : &= (u_1,u_2, \dots, u_n) \cdot (v_1,v_2, \dots, v_n) \\
&= u_1v_1 +u_2 v_2+u_3 v_3 + \dots + u_n v_n \\
&= \sum _{j=1} ^{n} u_j v_j
\end{align*}

Es importante notar que el resultado del producto interior (que es una operación vectorial), es un escalar.

Ejemplos:

1. Sean los vectores $(5,3)$ y $(2,-4)$ en $\mathbb{R}^2$, el producto interior de estos es

\begin{align*}
(5,3) \cdot (2,-4)&=5(2)+3(-4)\\
&=10-12\\
&=-2
\end{align*}

2. Sean los vectores $(-3,1,-1)$ y $(-6,2,-3)$ en $\mathbb{R}^3$, el producto interior de estos es

\begin{align*}
(-3,1,-1) \cdot (-6,2,-3)&=-3(-6)+1(2)+(-1)(-3)\\
&=18+2+3\\
&=23
\end{align*}

3. Sean los vectores $(1,0,-5,2,0,1)$ y $(0,-6,0,0,2,0)$ en $\mathbb{R}^6$, el resultado de su producto interior es cero, verifica.

Ahora que hemos definido una nueva operación, nos gustaría demostrar algunas propiedades asociadas a esta.

Teorema. Para todos los vectores $u,v,w \in \mathbb{R}^n$ y para todo número $t \in \mathbb{R}$ se cumple que

  1. $u \cdot v = v \cdot u$
  2. $u \cdot (tv)=t(u\cdot v)$
  3. $u \cdot (v + w)= u \cdot v + u \cdot w$
  4. $u \cdot u \geq 0$
  5. $u \cdot u =0 \Leftrightarrow u=(0,0)$

La primera propiedad nos dice que el producto interior es conmutativo; la siguiente que la operación saca escalares; la tercera expresa que esta abre sumas; la cuarta que al hacer el producto interior de un vector consigo mismo, el resultado es siempre mayor o igual a cero la última que la igualdad a cero sólo sucede cuando el vector $u$ es el vector cero.

Demostración

Haremos la demostración para vectores en $\mathbb{R}^2$, (el caso para dimensión $n$ es análogo) y usaremos los axiomas de los números reales.

Para empezar definamos los vectores $u=(u_1,u_2)$, $v=(v_1,v_2)$ y $w=(w_1,w_2)$ en $\mathbb{R}^2$

1. P. D. $u \cdot v = v \cdot u$. Comencemos con la definición y desarrollemos a partir de ella

\begin{align*}
u \cdot v &=(u_1,u_2) \cdot (v_1,v_2)\\
&=u_1v_1+u_2v_2 \\
&=v_1u_1+v_2u_2 \\
&=(v_1,v_2) \cdot (u_1,u_2)\\
&=v \cdot u
\end{align*}

$\therefore$ $u\cdot v= v \cdot u$

2. P.D. $u \cdot (tv)=t(u\cdot v)$

\begin{align*}
u \cdot (tv)&=(u_1,u_2) \cdot t(v_1,v_2) \\
&= (u_1,u_2) \cdot (tv_1,tv_2) \\
&= u_1(tv_1)+u_2(tv_2)\\
&= t(u_1v_1+u_2v_2) \\
&=t(u_1,u_2) \cdot (v_1,v_2)\\
&= t (u \cdot v)
\end{align*}

$\therefore u \cdot (tv)=t(u\cdot v)$

3. P.D. $u \cdot (v + w)= u \cdot v + u \cdot w$

\begin{align*}
u \cdot (v + w)&=(u_1,u_2) \cdot ((v_1,v_2) + (w_1,w_2)) \\
&= (u_1,u_2) \cdot (v_1+w_1,v_2+w_2) \\
&=u_1(v_1+w_1)+u_2(v_2+w_2) \\
&=u_1v_1+u_1w_1+u_2v_2+u_2w_2 \\
&=u_1v_1+u_2v_2+u_1w_1+u_2w_2 \\
&=(u_1v_1+u_2v_2)+(u_1w_1+u_2w_2) \\
&=((u_1,u_2)\cdot(v_1,v_2)) + ((u_1,u_2) \cdot (w_1,w_2)) \\
&= u \cdot v + u \cdot w
\end{align*}

$\therefore$ $u \cdot (v + w)= u \cdot v + u \cdot w$

4 y 5. P.D. $u \cdot u \geq 0$ y $u \cdot u =0 \Leftrightarrow u=(0,0)$

\begin{align*}
u \cdot u&=(u_1,u_2) \cdot (u_1,u_2) \\
&= u_1u_1+u_2u_2\\
&= u_1^2 + u_2^2 \geq 0
\end{align*}

La última relación se da ya que es una suma de números al cuadrado y cada término por sí sólo es mayor o igual a cero.

Resulta que si $u_1 \neq 0$ ó $u_2 \neq 0$, entonces $u_1^2 + u_2^2 > 0$, por lo que el único caso en el que se da la igualdad a cero es cuando $u=(0,0)$.

$\therefore$ $u \cdot u \geq 0$ y $u \cdot u =0 \Leftrightarrow u=(0,0)$

$\square$

Lo usado en esta demostración se restringe a los axiomas de los reales y la definición del producto interior, por lo que aunque no haya mucha descripción, espero que te sea clara.

El ortogonal canónico

Definición. Sea $v=(x,y)$ un vector en $\mathbb{R}^2$, el vector ortogonal canónico a v es el vector

$v^{\perp}=(-y,x)$

Si te das cuenta, esta definición hace referencia a lo que sucede al aplicar el ortogonal a un vector. Además, esta definición define al ortogonal canónico, pero no significa que sea el único vector perpendicular (ortogonal) a $v$.

Antes de definir o probar más cosas relacionadas al ortogonal, hagamos algunas observaciones.

Observación: Si aplicamos 4 veces el ortogonal a un vector $v$, regresamos al mismo vector:


$v^{\perp}=(x,y)^{\perp}=(-y,x)$

$(-y,x)^{\perp}=(-x,-y)$

$(-x,-y)^{\perp}=(y,-x)$

$(y,-x)^{\perp}=(x,y)$

Observación: Para cualquier $v=(x,y) \in \mathbb{R}^2$, tenemos que

$v \cdot v^{\perp} =(a,b) \cdot (-b,a)=a(-b)+b(a)=-ab+ab=0$

Para continuar, usemos el producto interior para definir y probar ciertas cosas con relación al compadre ortogonal.

Definición. Diremos que dos vectores $u,v \in \mathbb{R}^2$ son perpendiculares (ortogonales) si $u \cdot v=0$.

Proposición. Sea $u \in \mathbb{R}^2$ \ ${ 0\}$. Entonces

$\{x \in \mathbb{R}^2 : x \cdot u =0\}=L_{u_{\perp}}:=\{ru^{\perp}: r \in \mathbb{R}\}$

Demostración

Como queremos comprobar una igualdad de conjuntos, hay que probar la doble contención. Comencemos con la contención $\supseteq$.

$\supseteq$ En esta contención, queremos demostrar que cualquier vector de la forma $ru^{\perp}$ es tal que

$(ru^{\perp}) \cdot u=0$

Tomemos un vector de la forma $ru^{\perp}$ con $r \in \mathbb{R}$ y notemos que gracias a la segunda propiedad del producto interior se cumple que

$(ru^{\perp}) \cdot u = r(u^{\perp} \cdot u)= r(0)=0 $

Esto es suficiente para la demostración de la primera contención, pues hemos probado que el producto interior de cualquier vector de la forma $ru^{\perp}$ con $u$ es cero.

$\subseteq$ Para esta contención, queremos demostrar que los vectores $x$ que cumplen $x \cdot u =0$, son de la forma $x=r u^{\perp}$. Para esto, tomemos un vector $x=(r,s)$ que cumpla la primera condición y expresemos al vector $u$ con sus coordenadas $u=(u_1,u_2)$. Al realizar el producto interior obtenemos

$x \cdot u=(r,s) \cdot (u_1,u_2)=ru_1+su_2=0 $

$\Rightarrow ru_1= -su_2 \cdots (a) $

Dado que $u \neq (0,0)$, al menos una de sus entradas es distinta de cero. Supongamos que $u_1 \neq 0$, entonces podemos despejar $r$

$r=\frac{-su_2}{u_1}$

Podemos sustituir este valor en $x$ y desarrollar para obtener

\begin{align*}
x=(r,s)&=\left( \frac{-su_2}{u_1},s \right)=s\left( \frac{-u_2}{u_1}, 1 \right) \\
&=s \left( \frac{-u_2}{u_1}, \frac{u_1}{u_1} \right) \\
&=\frac{s}{u_1} \left( -u_2, u_1 \right)
\end{align*}

Y ya está el primer caso, pues sabemos que $u^{\perp}=( -u_2, u_1)$.

Así, $x \in \mathbb{R}^2$ tal que $x \cdot u=0$,es de la forma $ru^{\perp}$, con r un escalar.

En el caso en el que $u_2 \neq 0$, tenemos algo análogo. A partir de $(a)$ podemos despejar $s$

$ ru_1= -su_2$

$s=\frac{-ru_1}{u_2}$

Al sustituir en $x$ y desarrollar obtendremos que

$x=\frac{r}{-u_2}(-u_2,u_1)$

$\square$

Aplicaciones del producto punto

Para cerrar esta entrada, usemos el producto interior para describir algunas características de las rectas y vectores.

Definición. Diremos que dos líneas $l_1$ y $l_2$ son perpendiculares si al escribirlas en forma paramétrica

$l_1=\{ p_1+rq_1 : r \in \mathbb{R} \}$

$l_2=\{ p_2+rq_2 : r \in \mathbb{R} \}$

se tiene que $q_1 \cdot q_2 =0$, esto es si sus vectores dirección son ortogonales.

Proposición. Dos vectores $u$ y $v$ son paralelos si y sólo si $u$ y $v^{\perp}$ son ortogonales, es decir si $u \cdot v^{\perp}=0$.

Demostración

Ida ($\Rightarrow$). Si $u$ y $v$ son paralelos, por definición $u=cv$ con $c \in \mathbb{R}$. Como queremos que $u$ y $v^{\perp}$ sean ortogonales, realicemos su producto interior y utilicemos las propiedades de este para desarrollar

\begin{align*}
u \cdot v^{\perp}&=(cv) \cdot v^{\perp} \\
&=c(v \cdot v^{\perp}) \\
&=c(0)=0
\end{align*}

Por lo que $u$ y $v^{\perp}$ son ortogonales.

Regreso ($\Leftarrow$). Si ahora suponemos que $u$ y $v^{\perp}$ son ortogonales, pasa que

$u \cdot v^{\perp}=0$

Pero por lo visto en la proposición de la sección anterior, esto sólo pasa cuando $u=c(v^{\perp})^{\perp}$ para algún $c \in \mathbb{R}$. Si $v=(v_1,v_2)$ esto se desarrolla como

\begin{align*}
u&=c(v^{\perp})^{\perp}=c(-v_2,v_1)^{\perp}\\
&=c(-v_1,-v_2)\\
&= -cv
\end{align*}

$\therefore$ por definición de paralelismo, $u$ y $v$ son paralelos.

$\square$

Otra cosa útil del producto punto, es que cualquier recta se puede escribir en términos de este. Precisemos esto en la siguiente proposición.

Proposición. Sea la recta $l$ en su forma paramétrica

$l=\{p+rq : r \in \mathbb{R}\}$

La recta $l$ se puede escribir usando el produto punto de la siguiente manera

$l=\{x \in \mathbb{R} ^2 : q^{\perp} \cdot x=q^{\perp} \cdot p \}$

Antes de adentrarnos en la demostración, hablemos un poco de qué significa esta proposición con ayuda del siguiente interactivo aclarando que $qT$ es el vector $q{^\perp}$.

Al definir $qT$ como el vector perpendicular a la recta, tenemos que $q$ es el vector director de esta; $p$ es el punto por el que pasa la recta y $x$ representa a los puntos en ella. Como $p$ y $qt$ son fijos, entonces $qT \cdot p$ es un número constante. Si tú mueves $x$ a lo largo de la recta, veras que el producto punto $qT \cdot x$ al cual denominamos como $a$ en GeoGebra, no varia.

Es así como expresamos la recta por medio del producto punto; el conjunto de todas los $x \in \mathbb{R}^2$ tal que el producto punto con $q^{\perp}$ ($qT$ en el interactivo) es igual a $q^{\perp} \cdot p$.

Con esto claro, procedamos a la demostración.

Demostración

Como queremos demostrar que $l$ en su forma paramétrica es el mismo conjunto que el descrito por el producto punto, tenemos que explorar las dos contenciones de los conjuntos.

$\supseteq$ Tomemos $x \in \mathbb{R}^2$ tal que $q^{\perp}\cdot x =q^{\perp}\cdot p$. De esta igualdad se tiene que

\begin{align*}
0 &= q^{\perp}\cdot x – q^{\perp}\cdot p\\
&=q^{\perp}\cdot (x-p)\\
& \Rightarrow q^{\perp}\cdot (x-p) =0
\end{align*}

Dada la última igualdad, sabemos (por la primera proposición de esta entrada) que $x-p$ debe ser un múltiplo de $(q^{\perp})^{\perp}=-q$ y por lo tanto un múltiplo de $q$; por lo que para algún $s \in \mathbb{R}$ se tiene que

\begin{align*}
x-p&=sq\\
\Rightarrow x&=p+sq
\end{align*}

$\subseteq$ Ahora partamos de un punto $x=p+rq \in$ $l$ y desarrollemos su producto punto con $q^{\perp}$ para finalizar esta demostración

\begin{align*}
q^{\perp} \cdot x &= q^{\perp} \cdot (p+rq)\\
&=(q^{\perp} \cdot p) + (q^{\perp} \cdot (rq)) \\
&= q^{\perp} \cdot p
\end{align*}

Donde la última igualdad se da gracias a que $q^{\perp} \cdot (rq)=r(q^{\perp} \cdot q)=0$.

$\therefore$ Partiendo la expresión parametrica de la recta está contenida en la expresión con producto punto y viceversa y por lo tanto son el mismo conjunto (la misma recta).

$\square$

Tarea moral

  • Completa los pocos pasos que omitimos en cada demostración o ejemplo.
  • Demuestra el teorema de las propiedades del producto interior para $n=3$.
  • Calcula el producto interior de los siguientes vectores:
    • $(4,-1)$ y $(7,2)$
    • $(-2,3,0)$ y $(4,-6,0)$
    • $(-2,3,0)$ y $(-2)(-2,3,0)$
    • $(5,0,-3,0,0)$ y $(0,4,0,-2,1)$
  • Usando la definición del producto interior, demuestra que dado $ u \in \mathbb{R}^2$ se tiene que

$u \cdot x =0$, $\forall x\in \mathbb{R}^2$

si y sólo si $u=(0,0)$.

  • Demuestra que para todos los vectores $ u \text{, }v \in \mathbb{R}^2$ y $\forall t \in \mathbb{R}$, se cumple que
    1. $(u+v)^{\perp}=u^{\perp}+v^{\perp}$
    2. $(tu^{\perp})=t(u^{\perp})$
    3. $u^{\perp} \cdot v^{\perp}=u \cdot v$
    4. $u^{\perp} \cdot v = -(u \cdot v^{\perp})$

Más adelante…

El producto interior fungirá como herramienta para establecer las nociones de distancia y ángulo en las siguientes entradas y particularmente para definir la forma normal de la recta en la siguiente entrada.