Archivo de la etiqueta: álgebra lineal

Álgebra Lineal II: Repaso de bases ortogonales y Gram-Schmidt

Introducción

En esta última parte de la unidad revisaremos la definición y aplicaciones de bases ortogonales, además veremos el proceso de Gram-Schmidt, lo repasaremos de una manera un tanto superficial ya que en estas entradas (Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt) lo estudiamos un poco más a fondo.

Continuando con lo visto en la entrada anterior, juntaremos dos definiciones ya revisadas para estudiar un poco más de ellas, concluiremos esta unidad revisando todas estas definiciones esta vez para espacios vectoriales complejos.

Familias ortogonales

Entendamos en esta entrada a $V$ un espacio vectorial real con producto interno $<,>$ y su norma asociada $||\cdot||$.

Definición

Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
\begin{align*} <v_i,v_j>=0 \qquad \forall i \neq j \in I. \end{align*}
Donde $I$ es un conjunto de indices cualquiera.

Más aún, a $(v_i)_{i \in I}$ le llamaremos ortonormal si es ortogonal y
\begin{align*} ||v_i||=\sqrt{<v_i,v_i>}=1 \qquad \forall i \in I.\end{align*}
Una base $\beta$ será una base ortogonal si es una familia ortogonal.

Y una base $\beta$ será base ortonormal si es una familia ortonormal.

Como siempre, sería conveniente conocer ejemplos de estos cuatro conjuntos podemos pensar en dos muy sencillos.

Si $V= \mathbb{R}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal, puedes notar la similitud de ambas, ¿Será que siempre que tenemos un base ortogonal podemos obtener una ortonormal?

Afortunadamente la respuesta es que sí, si $\beta=\{ u_1, \cdots , u_n \}$ es una base ortogonal entonces
\begin{align*} \beta’=\{ \frac{u_1}{||u_1||}, \cdots , \frac{u_n}{||u_n||} \} \end{align*}
Es una base ortonormal

Una propiedad sumamente importante de los conjuntos ortogonales es vista en la siguiente proposición demostrada aquí.

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ es linealmente independiente.

Más aún, esto nos da otro criterio para encontrar bases.

Corolario

Toda familia ortogonal sin vectores cero en un espacio euclidiano de dimensión $n$ tiene a lo más $n$ elementos.
Más aún, una familia ortogonal $(v_i)_{i \in I}$ tiene $n$ elementos si y solo si es una base ortogonal.

La demostración a este resultado la puedes encontrar repartida en varios pedazos en esta entrada, veamos una idea rápida, como toda familia ortogonal es linealmente independiente si suponemos que hay una que tiene más de $n$ elementos esto diría que $V$ tiene dimensión $n+1$ que sería contradictorio, también sabemos que una base es un conjunto linealmente independiente con $dim(V)$ elementos lo que ayuda a la demostración la doble implicación.

Recordemos ahora la descomposición de Fourier.

Definición

Sea $V$ euclidiano de dimensión $n$ y $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal, entonces $\forall v \in V$ la descomposición de Fourier de $v$ respecto a $\beta$ es
\begin{align*} v=\sum_{i=1}^n<v,e_i>e_i.\end{align*}
Algo que debes notar es que no sabemos si algún vector de $V$ se puede descomponer de esta manera, para ello veamos el siguiente resultado.

Proposición

Sea $V$ euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal, entonces $\forall v \in V$
\begin{align*} v=\sum_{i=1}^n<v,u_i>u_i.\end{align*}
De nuevo, la demostración completa la puedes encontrar aquí (Aplicaciones de bases ortogonales y descomposición de Fourier), pero revisemos una idea rápida.

Empezaremos demostrando que si $v \in V$ es tal que $v=\sum_{i=1}^nu_iv_i$ entonces para cualquier $i \in \{1, \cdots , n \}$ $v_i=<v,u_i>$, así calculemos este producto.
\begin{align*} <v,u_i>=<\sum_{j=1}^nu_jv_j,u_i>\end{align*}
Utilizando la linealidad de $<.>$ en la primera entrada
\begin{align*} <v,u_i>=\sum_{j=1}^nv_j<u_j,u_i>\end{align*}
y como sabemos que $\beta$ es ortogonal, se tiene que si $j \neq i $ entonces $<u_j,u_i>=0$ por lo que de esta suma el único coeficiente no cero es $<u_i,u_i>$, más aún como $\beta$ es ortonormal tenemos que $<u_i,u_i>=1$, por lo tanto
\begin{align*} <v,u_i>=v_i.\end{align*}
Finalmente, la descomposición de Fourier puede ser utilizada para calcular la proyección respecto a algún conjunto $W$ ($p_W$) que vimos en la entrada anterior, esto queda reflejado en el siguiente resultado.

Proposición

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortogonal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n \frac{<v,v_i>}{||v_i||^2}v_i.\end{align*}
Como te imaginarás la demostración de este resultado está aquí (Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt).

Proceso de Gram-Schmidt

De este último resultado podemos obtener la siguiente proposición.

Proposición (Desigualdad de Bessel)

Sea $V$ y $W \subseteq V$ subespacio de dimensión finita y $\beta= \{u_1 , \cdots u_n \}$ una base ortonormal de $W$, entonces $\forall v \in V$
\begin{align*} p_W(v) = \sum_{I=1}^n <v,v_i>v_i.\end{align*}
Y
\begin{align*} d(v,W)^2=||v-\sum_{I=1}^n <v,v_i>v_i||^2=||v||^2-\sum_{I=1}^n <v,v_i>^2. \end{align*}
En particular
\begin{align*} ||v||^2 \geq \sum_{I=1}^n <v,v_i>^2. \end{align*}
La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt.

Terminaremos con dos resultados sumamente importantes.

Primero, quisiéramos garantizar que, en todo espacio euclídeo se puede encontrar una base ortonormal, para ello el siguiente resultado.

Proposición

Todo espacio euclidiano tiene una base ortonormal.

Y de hecho no lo probamos directamente, vimos una versión más fuerte e incluso un algoritmo de cómo encontrar esta base, esto es conocido como el proceso de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sea $V$ (no necesariamente de dimensión finita) y $\{u_1 , \cdots u_n \}$ un conjunto linealmente independiente, entonces existe $\{e_1 , \cdots e_n \}$ una única familia ortonormal tal que
\begin{align*} span(u_1, \cdots , u_n)=span(e_1, \cdots , e_n)\end{align*}
Y
\begin{align*} \langle e_k,u_k \rangle > 0\end{align*}
Para cualquier $k \in \{1, \cdots , n\}$.

Como en las proposiciones anteriores, la demostración está aquí (Proceso de Gram-Schmidt), aplicándolo a nuestro problema en específico, si $\{u_1 , \cdots u_n \}$ es una base (lo que implicaría que $V$ es euclídeo) entonces siempre se puede encontrar $\{e_1 , \cdots e_n \}$ una única familia ortonormal, que en particular al ser ortogonal garantiza que es linealmente independiente y esto junto al hecho de que tiene $n$ elementos en un espacio de dimensión $n$ garantiza que es una base.

Aunque no hayamos visto la demostración aquí, vale la pena recordar el proceso de Gram-Schmidt.

Si tenemos una base $\{u_1 , \cdots u_n \}$, definiremos
\begin{align*} f_k=v_k-\sum_{i=1}^{k-1}<v_k,e_i>e_i\end{align*}
Y obtendremos $e_k$ como sigue
\begin{align*} e_k=\frac{f_k}{||f_k||}\end{align*}
Para cualquier $k \in \{1,\cdots , n \}$, de esta manera el nuevo conjunto que formemos $\{e_1 , \cdots e_n \}$ es una base ortonormal

Ejemplo

Sea $V$ el espacio de polinomios en $[0,1]$ con coeficientes reales de grado a lo más 2, con el producto interior
\begin{align*}\langle p,q \rangle =\int_0^1 p(x)q(x) dx. \end{align*}

Sean $v_1=1$, $v_2=1+x$, $v_3=1+x^2$ vectores en $V$ notemos que son linealmente independientes. Así, encontremos los vectores que nos da el proceso de Gram-Schmidt.

Primero notemos que $f_1=v_1$ por lo que $e_1=\frac{f_1}{||f_1||}$ así calculemos $||f_1||$
\begin{align*} \norm{f_1}^2=\int_0^1 1 dx= 1 \end{align*}
entonces $e_1=\frac{f_1}{\norm{f_1}}=f_1=1$.

De la misma manera para $e_2$
\begin{align*}
f_2&=v_2-\langle v_2,e_1 \rangle e_1 \\
&=1+x- \int_0^1 (1+x)dx=1+x-\left(1+\frac{1}{2}\right) \\
&=x-\frac{1}{2}.
\end{align*}
Así para obtener $||f_2||$ hay que resolver $$\int_0^1 \left(x-\frac{1}{2}\right)^2 dx$$ de donde obtenemos $\norm{f_2}=\sqrt{\frac{1}{12}}$, entonces $e_2=\sqrt{12}\left(x-\frac{1}{2}\right)$.
Por último, calculemos $f_3$ así como su norma. Primero,
\begin{align*}
f_3&=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2 \\
&=(1+x^2)-\int_0^1 (1+x^2)dx – 12\left(x-\frac{1}{2}\right)\int_0^1 (1+x^2)\left(x-\frac{1}{2}\right)dx \\
&=1+x^2-\left(1+\frac{1}{3}\right)-12\left(x-\frac{1}{2}\right)\left(\frac{1}{12}\right) \\
&=x^2-\frac{1}{3}-x+\frac{1}{2} \\
&=x^2-x+\frac{1}{6},
\end{align*}

y luego, con la integral $$\int_0^1 \left(x^2-x+\frac{1}{6}\right)^2 dx$$ se calcula que $\norm{f_3}=\frac{1}{6\sqrt{5}}$, por lo tanto $e_3=6\sqrt{5}\left(x^2-x+\frac{1}{6}\right)$.

Más adelante

Con esto podemos pensar como concluida esta unidad de curso, aunque veremos una entrada más, estudiaremos como se traducen estos resultados a espacios vectoriales complejos y que cambios se deben hacer a estos.

En la siguiente unidad estudiaremos un poco más de un concepto el cual tocamos un poco pero no abundamos en él, la transformación adjunta, así como sus propiedades y esto nos servirá de punto de partida para nuevos conceptos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Revisa las demostraciones completas de cada uno de los resultados aquí vistos.
  2. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más 2, dado $p,q \in V$ definamos el producto interno en $V$ como sigue $$<p,q>=p(0)q(0)+p(1)q(1)+p(2)q(2)$$ Demuestra que $<,>$ es efectivamente un producto interno.
  3. Con la notación del problema anterior, aplica el proceso de Gram-Schmidt a $1, x, x^2 $
  4. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden?
  5. Aplica el proceso de Gram-Schmidt a los vectores
    \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*}
    En $\mathbb{R}^4$ con el producto interior canónico. ¿Es esta una base de $\mathbb{R}^4$?

Entradas relacionadas

Álgebra lineal II: Dualidad y ortogonalidad

Introducción

En entradas anteriores mencionamos y utilizamos propiedades del espacio dual y del producto interno, en esta entrada nos enfocaremos más en la relación de las formas bilineales, (específicamente el producto interno) con este concepto.

También veremos el concepto de ortogonalidad con respecto a una forma bilineal, lo que dará paso a un teorema muy importante (El teorema de representación de Riesz) e incluso nos permitirá definir conceptos como distancia entre un conjunto y un elemento.

Dualidad

De aquí en adelante, asumiremos que $V$ es un $\mathbb{R}$-espacio vectorial, no necesariamente de dimensión finita. Definamos una función que utilizaremos mucho como sigue

Sea $b$ una forma bilineal en $V$.
\begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(y)=b(\cdot, y ) \end{align*}
Donde $b( \cdot , y)$ es la función que envía $x$ a $b(x,y)$, además sabemos que es lineal ya que
$b$ es bilineal, lo que significaba que es lineal en la primera entrada, por lo que pertenece a $V^*$ (el espacio dual de V, puedes leer un poco más de este y de las bases duales aquí).

Proposición

Sea $\mathcal{B}$ base de $V$ de dimensión finita, $\beta’$ su base dual y $b$ forma bilineal en $V$. Prueba que la matriz de $\varphi_b$ respecto a $\beta$ y $\beta’$ es la matriz de $b$ respecto a $\beta$.

Demostración

Sea $\beta=\{ u_1, \cdots , u_n \}$ y $\beta’=\{ u’_1, \cdots , u’_n \}$ y sea $B$ la matriz asociada a $\varphi_b$ respecto a $\beta$ y $\beta’$, primero calcularemos su $j$-esima columna.
\begin{align*} \varphi_b(u_j)=b(\cdot,u_j) \end{align*}
Como no es natural la forma de escribir $\varphi_b(u_j)$ en términos de $\beta’$, calculemos $\varphi_b(u_j)(x)$ para algún $x \in V$
\begin{align*} \varphi_b(u_j)(x)=b(x,u_j) \end{align*}
Si $x=\sum_{i=1}^nu_ix_i$, entonces
\begin{align*} \varphi_b(u_j)(x)=b(\sum_{i=1}^nu_ix_i,u_j)= \sum_{i=1}^nx_ib(u_i,u_j)\end{align*}
Por otro lado, sabemos que para cualquier $x \in V$ $u^*_i(x)=x_i$, sustituyendo esto en la igualdad anterior
\begin{align*} \varphi_b(u_j)(x)= \sum_{i=1}^nu^*_i(x)b(u_i,u_j)\end{align*}
Para cualquier $x \in V$, por lo que
\begin{align*} \varphi_b(u_j)= \sum_{i=1}^nu^*_ib(u_i,u_j)\end{align*}
así, la $j-esima$ columna es de la forma
\begin{pmatrix} b(u_1,u_j) \\
\vdots \\
b(u_n,u_j) \end{pmatrix}
Así, podemos escribir $B$ como
B=\begin{pmatrix} b(u_1,u_1) & \cdots & b(u_1,u_n) \\
\vdots & \ddots & \vdots \\
b(u_n,u_1) & \cdots & b(u_n,u_n) \end{pmatrix}
Que sabemos es la matriz de $b$ respecto a $\beta$.

$\square$

Proposición (Teorema de representación de Riesz)

Sea $V$ un espacio euclidiano (espacio vectorial sobre $\mathbb{R}$ de dimensión finita) con producto interno $<,>$. La función $\varphi_{<,>}: V \rightarrow V^*$ es un isomorfismo.

Demostración

Empecemos con la inyectividad, sea $y \in V$ tal que $\varphi_{<,>}(y)=\overline{0}$ donde $\overline{0}$ es la función constante 0, dado esto, tenemos que para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(y)(x)=<x,y>=0 \end{align*}
Esto aplica en particular para sí mismo, por lo que
\begin{align*} \varphi_{<,>}(y)(y)=<y,y>=0 \end{align*}
Como $<,>$ es un producto interior, esto implica que $y=0$
Por lo que $ker(\varphi_{<,>})=\{0\}$, por lo que $\varphi_{<,>}$ es inyectiva.

Aparte, veamos que es lineal, calculemos $\varphi_{<,>}(\lambda a+b)$ con $\lambda \in \mathbb{R}$ y $a,b \in V$.
\begin{align*} \varphi_{<,>}(\lambda a + b)=<\cdot , \lambda a+ b> \end{align*}
calculando esto para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(\lambda a + b)(x)=<x , \lambda a + b> \end{align*}
y sabemos que $<,>$ es lineal en la segunda entrada por lo que
\begin{align*} <x , \lambda a + b>=\lambda<x , a> + < x , b >=\lambda\varphi_{<,>}(a)(x)+\varphi_{<,>}(b)(x) \end{align*}
Por lo que
\begin{align*} \varphi_{<,>}(\lambda a + b)=\lambda\varphi_{<,>}(a)+\varphi_{<,>}(b) \end{align*}
Lo por lo tanto $\varphi_{<,>}$ es lineal, finalmente, que $\varphi_{<,>}$ sea inyectiva, lineal y que $dim(V)=dim(V^*)$ implica que $\varphi_{<,>}$ es un isomorfismo.

$\square$

Ortogonalidad

Definición

Sea $V$ y $b$ una forma bilineal en $V$.

  • Dos vectores $x,y \in V$ serán ortogonales (respecto a $b$) si $b(x,y)=0$.
  • Sea $S \subseteq V$ el conjunto ortogonal de $S$ ($S^{\bot}$) es
    \begin{align*} S^{\bot}=\{v \in V : \forall s \in S, b(s,v)=0 \}.\end{align*}
  • $S,T \subseteq V$ serán ortogonales si S \subseteq $T^{\bot}$.

Observación (Teorema de Pitágoras)

Supongamos que $<,>$ es un producto interno en $V$ con $||\cdot||$ su norma asociada (es decir $||x||=\sqrt{<x,x>}$), entonces $x,y \in V$ son ortogonales si y solo si
\begin{align*} ||x+y||^2=||x||^2+||y||^2 \end{align*}
Demostración

Se sigue directamente de la identidad
\begin{align*} ||x+y||^2=||x||^2+2<x,y>||y||^2 \end{align*}

$\square$

Proposición

Sea $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
\begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*}
Y $(W^{\bot})^{\bot}=W$

Probaremos de hecho algo aún más fuerte.

Proposición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita. Entonces
\begin{align*} W \oplus W^{\bot} = V\end{align*}
Más aún $(W^{\bot})^{\bot}=W$

Demostración

Sea $<,>$ el producto interno de $V$, si tenemos que $x \in W \cap W^{\bot}$ tenemos que $x$ es ortogonal a $x$ por lo que
\begin{align*} <x,x>=0\end{align*}
lo que implica que $x=0$, por lo tanto $W \cap W^{\bot}= \{0\}$.

Por otro lado, sea $x \in V$ un vector cualquiera, podemos definir $f:W \rightarrow \mathbb{R}$ tal que $f(y):<x,y>$ que sabemos es una función lineal por lo que $f \in V^*$ como $W$ es de dimensión finita y tiene un producto interno (heredado de V) este cumple las hipótesis del teorema de representación de Riesz, así, sabemos que existe una única $z \in W$ tal que $f(y)=<z,y>$ para cualquier $y \in W$ de esta manera
\begin{align*} 0=f(y)-f(y)=<x,y>-<z,y>=<x-z,y>\end{align*}
Para cualquier $y \in W$ por lo que $x-z =w \in W^{\bot}$ entonces
\begin{align*} x=w+z\end{align*}
con $w \in W^{\bot}$ y $z \in W$, por lo tanto
\begin{align*} W + W^{\bot} = V\end{align*}
Y esto con el párrafo anterior implican que
\begin{align*} W \oplus W^{\bot} = V.\end{align*}

$\square$

Así la proposición más débil, se sigue directamente de esta, con la parte acerca de la dimensión implicada debido a que $W$ y $W^{\bot}$ están en posición de suma directa.

Definición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita, la proyección ortogonal hacia $W$ es
\begin{align*} p_W:V \rightarrow W \end{align*}
Con $p_W(x)$ el único vector en $W$ tal que $x-p_W(x) \in W^{\bot}$.

Definición

Sea $V$ euclidiano, una función lineal $p: V \rightarrow V$ será una proyección ortogonal si existe $W$ subespacio de $V$ tal que $p$ es la proyección ortogonal hacia $W$.

Proposición

Sea $V$ con producto interno $<.>$ y $|| \cdot ||$ su norma asociada. Sea $W \subseteq V$ un subespacio de dimensión finita y sea $v \in V$. Entonces
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Más aún, $p_w(v)$ es el único elemento con esta propiedad.

Demostración

Sea $x \in W$ un elemento cualquiera de $W$, primero notemos que $x – p_W(v) \in W$ y $v-p_W(v) \in W^{\bot}$, por lo que estos dos son ortogonales, así calculemos
\begin{align*} ||x-v||^2=||(x-p_W(v))+(p_W(v)-v)||^2= ||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \end{align*}
esta igualdad se cumple por el teorema de Pitágoras que fue una observación aquí arriba. Continuando con esta cadena
\begin{align*} ||x-v||^2=||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo tanto $\forall x \in W$ tenemos que $||x-v|| \geq ||(p_W(v)-v)||$ más aún por definición sabemos que $p_W(v) \in W$ por lo que
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Para probar la unicidad, supongamos que existe $x’ \in W$ tal que
\begin{align*}||v-x’||= min_{x \in W} ||x-v|| \end{align*}
Utilizando el procedimiento anterior tenemos que
\begin{align*} ||(p_W(v)-v)||^2=||x’-v||^2=||(x’-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo que se debe cumplir la desigualdad y notemos que esto pasa si y solo si
\begin{align*} 0=||(x’-p_W(v))||^2 \end{align*}
Que sucede si y solo si
\begin{align*} x’=p_W(v) \end{align*}
Por lo que $p_W(v)$ es único.

$\square$

utilizando este resultado, podemos dar una definición de distancia que coincida con las definiciones que tal vez has visto en otras materias

Definición

Con la notación del teorema anterior, la distancia de $v$ a $W$ es
\begin{align*}d(v,W)=||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}

Más adelante

En esta entrada mencionamos bases, bases duales y conjuntos ortogonales, una de las costumbres en el estudio de las matemáticas es intentar combinar resultados y definiciones con el fin de obtener resultados nuevos, por lo que no te debe de sorprender que hagamos eso mismo en las siguientes entradas.

Empezaremos en la siguiente entrada un pequeño repaso de vases ortogonales y ortonormales, así como el teorema de Gram-Schmidt. Y como es costumbre, terminaremos esta unidad revisando resultados análogos a los de estas dos entradas, pero esta vez para espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a \begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(x)=b(x, \cdot )? \end{align*} ¿Cambia algo en los resultados vistos?
  2. Demuestra sin utilizar la versión más fuerte de este resultado que dado $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
    \begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*} Y $(W^{\bot})^{\bot}=W$. ¿Es necesaria la hipótesis de que $W$ sea de dimensión finita?
  3. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$ encuentra a $W^{\bot}$ y define la proyección ortogonal hacia $W$, $p_W$.
  4. Encuentra el vector en $Span((1,2,1), (-1,3,-4))$ que es el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  5. Sea $V$ un espacio euclidiano y $T : V \rightarrow V $ una transformación lineal tal que $T^2=T$ prueba que T es una proyección ortogonal si y solo si $\forall x,y \in V$ $<T(x),y>=<x,T(y)>$.

Entradas relacionadas

Álgebra lineal II: Formas sesquilineales y matrices

Introduccíon

Como en las entradas anteriores, una vez que estudiamos formas bilineales y cuadráticas, intentamos expandir esta definición a los números complejos con las formas sesquilineales y hermitianas cuadráticas, esta vez será lo mismo, una vez que entendemos la relación entre matrices y formas bilineales, ahora intentaremos entender la relación que existe entre matrices y formas sesquilineales.

En esta entrada veremos que gran parte de la relación que había para el caso real se mantiene al pasar a los complejos, si es que, agregando una condición, por lo que veremos el análogo a la gran mayoría de resultados vistos en las últimas dos entradas, por lo que te recomendamos tener a la mano las entradas sobre formas bilineales y matrices (Ambas partes) y formas sesquilineales.

Matriz asociada

De aquí en adelante, asumiremos que $V$ siempre es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita y $\mathcal{B}=\{u_1, \cdots u_n\}$ una base de $V$. Tambien recordemos que $S(V)$ se definió como el espacio de formas sesquilineales en V.

Definición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. La matriz de $\varphi$ con respecto $\mathcal{B}$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j)\end{align*}
Para todo $i,j$ tal que $1 \leq i,j \leq n$.

Notemos que a las formas sesquilineales no se les pidió ser simétricas. (¿por qué?)

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial.

Proposición

Sea $\mathcal{B}$ base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal en $V$. Prueba que $\forall x,y \in V$
\begin{align*} \varphi(x,y)=X^*AY\end{align*}
Con $X,Y$ los vectores columna con coordenadas $x_1, \cdots x_n$ y $y_1, \cdots y_n$ respectivamente tales que $x=\sum_{i=1}^nu_1x_1$ y $y=\sum_{j=1}^nu_jy_j$ y $X^*=\text{ }^t\overline{X}$.

Demostración

Calculemos $\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)$ como sabemos que $\varphi$ es sesquilineal, tenemos
\begin{align*}\varphi(\sum_{i=1}^nu_1x_1, \sum_{j=1}^nu_jy_j)=\sum_{i=1}^n\sum_{j=1}^n \overline{x_1} y_j\varphi(u_i,u_j)\end{align*}
Donde notemos que la única diferencia con las funciones bilineales es que en la primera coordenada, las $x_i$ salen como conjugadas.

Y notemos que esto es efectivamente igual a
\begin{align*} X^*AY\end{align*}
Por lo que tenemos la igualdad buscada.

$\square$

Proposición

Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^*AY.\end{align*}

Demostración

La demostración es completamente análoga a la vista aquí, (la primera proposición bajo Preparaciones para el teorema de Sylvester) , por lo que revisemosla rápidamente

Si suponemos que existe $A’$ tal que
\begin{align*} \varphi(x,y)=X^*A’Y\end{align*}
Entonces
\begin{align*} X^*A’Y=X^*AY\end{align*}
Por lo que
\begin{align*} A’=A\end{align*}
Por lo tanto $A$ es única.

$\square$

Proposición

Sea $ \mathcal{B}$ base de $V$, la función $\psi: S(V) \rightarrow M_n(\mathbb{C})$ que envía una forma sesquilineal a su matriz con respecto a $ \mathcal{B} $ establece un isomorfismo entre $\mathbb{C}$-espacios vectoriales.

Demostración

Primero revisemos que $\varphi$ y $\varphi’$ dos formas sesquilineales son iguales si y solo si para cualesquiera $x,y \in V$
\begin{align*} \varphi(x,y)= \varphi'(x,y)\end{align*}
dada $B$ una base, utilizando
\begin{align*}\varphi(x, y)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)\end{align*}
tenemos que
\begin{align*}\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi(u_i,u_j)=\sum_{i=1}^n\sum_{j=1}^n\overline{x_1}y_j\varphi'(u_i,u_j)\end{align*}
y notemos que la igualdad se cumple si y solo si
\begin{align*} \varphi(u_i,u_j)=\varphi'(u_i,u_j). \end{align*}
De esta manera, hagamos otra demostración completamente análoga a la vista a entradas anteriores sean $\varphi, \varphi’$ dos formas sesquilineales, con $A $ y $A’$ sus matrices asociadas respectivamente, si suponemos que $A=A’$ entonces $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$ por lo que $\psi$ es inyectiva.

Para la suprayectividad, sea $A=[a_{ij}]$ y $x,y \in V$ tales que $x=\sum_{i=1} ^nx_iu_i$ y $y=\sum_{j=1} ^ny_ju_j$ definamos
\begin{align*} \varphi(x,y) =\sum_{i,j=1}^na_{ij}\overline{x_i}y_j \end{align*}.
También hemos visto anteriormente que esto define una forma sesquilineal.
Por lo que $b$ es tal que $\psi(b)=A$, esto implica que $\varphi$ es suprayectiva.

Finalmente, para mostrar que esto es efectivamente un isomorfismo, sea $A =\psi(\varphi+c\varphi’)$ para algún $c \in \mathbb{C}$, sabemos entonces que
\begin{align*} A=[a_{ij}] \end{align*}
Con $a_{ij}=(\varphi+c\varphi’)(u_i,u_j)=\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j) $ así.
\begin{align*} A=[\varphi(u_i,u_j) + c \cdot \varphi'(u_i,u_j)] \end{align*}
Por los que
\begin{align*} A=[\varphi(u_i,u_j)] + c \cdot [\varphi'(u_i,u_j)] \end{align*}
y por como definimos $\psi$
\begin{align*} \psi(\varphi+c\varphi’)= \psi(\varphi) + c \cdot \psi(\varphi) \end{align*}

Por lo que $\psi$ es un isomorfismo.

$\square$

Proposición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Prueba que $\varphi$ es hermitiana si y solo si $A=A^*$.

Demostración

Sea $\varphi$ hermitiana, esto pasa si y solo si
\begin{align*}\varphi(x,y)=\overline{\varphi(y,x)} \end{align*}
Para cualesquiera $x,y \in V $. Notemos que esto pasa si y solo si
\begin{align*}\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)} \end{align*}
Para todo $e_i, e_j \in \mathcal{B}$, continuando esto es equivalente a
\begin{align*} a_{ij}=\overline{a_{ji}} \end{align*}
con $a_{ij}$ las entradas de la matriz $A$, finalmente esta última igualdad sucede si y solo si
\begin{align*} A=\overline{\text{ }^tA}=A^*.\end{align*}

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición

Sea $\varphi \in S(V)$ y $A$ su matriz asociada respecto a $\mathcal{B}$. Diremos que $A$ es conjugada simétrica o hermitiana si
\begin{align*} A=A^*.\end{align*}
De esta manera una matriz es hermitiana si y solo si su forma sesquilineal asociada lo es.

Proposición

Sean $\mathcal{B}$ y $\mathcal{B}’$ dos bases de $V$ y $P$ la matríz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$, sean $X$ el vector columna con coordenadas $x_1, \cdots , x_n$ tales que $x=\sum_{i=1}^nx_iu_i$, análogamente definamos $Y,X’,Y’$. Prueba que si $A$ es la matriz correspondiente a una forma sesquilineal en la base $\mathcal{B}$, entonces
\begin{align*} A’=P^*AP.\end{align*}
Demostración

Al $P$ ser la matriz de cambio de base, tenemos las siguientes igualdades
\begin{align*} X=PX’ \qquad \text{y} \qquad Y=PY’ \end{align*}
Además
\begin{align*} (X’)^*A’Y’=X^*AY\end{align*}
Sustituyendo $X,Y$ en esta igualdad
\begin{align*} (X’)^*A’Y’=X^*AY=(PX’)^*A(PY’)=(X’)^*(P^*AP)Y’\end{align*}
Revisando los extremos de esta igualdad
\begin{align*} (X’)^*A’Y’=(X’)^*(P^*AP)Y’\end{align*}
Esto implica que
\begin{align*} A’=P^*AP.\end{align*}

$\square$

Finalmente, revisemos la última definición que se vio en con formas bilineales.

Definición

Una matriz hermitiana $A \in M_n(\mathbb{C})$ es positiva si $X^*AX \geq 0$ para cualquier $X \in \mathbb{C}^n$, será definida positiva si la igualdad únicamente se cumple para el $0$.

Más adelante

Tras revisar esta serie bastante larga de resultados, tanto para formas bilineales como sesquilineales, enfocaremos nuestro estudio a algo que hemos utilizado, un par de veces en la demostración de estos resultados, pero nunca hemos abundado en su utilidad, esto es la dualidad.

Más aún, veremos otro concepto igual visto anteriormente, la ortogonalidad, pero esta vez definida con respecto a una forma bilineal y probaremos varios resultados antes vistos desde un enfoque de las formas bilineales, terminaremos esta unidad haciendo un repaso de bases ortogonales y el teorema de Gram-Schmidt, así como su análogo complejo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. En la tercera proposición ¿Por qué $A=A’$ implica que $\varphi(u_i,u_j)=\varphi'(u_i,u_j)$?
  2. En esa misma proposición definimos una nueva forma que afirmamos era sesquilineal para demostrar la suprayectividad. Demuestra que $\varphi$ así definida es sesquilineal.
  3. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  4. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ $B^*B$ y $BB^*$ son hermitianas positivas.
  5. Demuestra que para cualquier matriz $A \in M_n(\mathbb{C})$ hermitiana positiva, esta puede ser escrita como
    \begin{align*} A=BB^*\end{align*}
    para alguna $B \in M_n(\mathbb{C})$.

Entradas relacionadas

Álgebra lineal II: Matrices y formas bilineales, parte 2.

Introducción

Recordemos que, en la entrada del teorema de Gauss se hacía uso de la base canónica y en la entrada anterior definimos la matriz asociada a una forma bilineal dependiente de alguna base, nuestro objetivo en esta entrada será probar resultados o encontrar propiedades independientes a la base elegida.

Si recuerdas, una propiedad con estas características era el rango de una forma cuadrática o al menos eso mencionamos, aunque no dimos una prueba, aquí escribiremos formalmente este resultado, así como su prueba.

Congruencia de matrices

En la entrada anterior revisamos como obtener matrices asociadas a una misma forma bilineal en diferentes bases, en ello llegamos a la igualdad
\begin{align*} B=\text{ } ^tPAP\end{align*}
Profundicemos un poco en matrices que estén relacionadas de esta manera
Definición

Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ diremos que $A$ es congruente con $B$ si existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Notemos que esto es equivalente a decir que $A$ y $B$ son las matrices asociadas a una forma bilineal $b$ en distintas bases.

Generalmente cuando se introduce una relación de este estilo, se define de manera que sea una relación de equivalencia, por lo que no te debería sorprender el siguiente resultado.

Proposición

Ser matrices congruentes es una relación de equivalencia.

Demostración

Empezando con la reflectividad, esto es claro ya que la matriz identidad ($1_n$) es invertible (la inversa es si misma) y es clara la igualdad
\begin{align*} A=\text{ } ^t1_nA1_n.\end{align*}

Para la simetría, si tomamos dos matrices $A,B \in M_n(\mathbb{R})$ tal que $A$ es congruente con $B$ tenemos que
\begin{align*} B=\text{ } ^tPAP\end{align*}
Con $P \in M_n(\mathbb{R})$ invertible, aprovechando esto, multipliquemos del lado izquierdo por la inversa de $^tP$ y del lado derecho por la inversa de $P$ de ambos lados de la igualdad
\begin{align*} A=\text{ } ^t(P^{-1})BP^{-1}\end{align*}
Además, es claro que $P^{-1}$ es invertible por lo que $B$ es congruente con $A$.

Finalmente, la transitividad, supongamos que $A$ es congruente con $B$ y $B$ a su vez es congruente con $C$ esto nos arroja las siguientes dos igualdades
\begin{align*} B=\text{ } ^tPAP \\
C=\text{ } ^tQBQ\end{align*}
Con $P,Q \in M_n(\mathbb{R})$ invertibles, así sustituyendo $B$ en la segunda igualdad
\begin{align*} C=\text{ } ^tQ \text{ } ^tPAP Q\end{align*}
Recordando que
\begin{align*} \text{ } ^tQ \text{ } ^tP=\text{ }^t(PQ)\end{align*}
Por lo que la igualdad anterior se puede escribir como
\begin{align*} C=\text{ }^t(PQ)AP Q\end{align*}
Más aún, sabemos que $PQ$ sigue siendo invertible, por lo tanto $A$ es congruente a $C$.

$\square$

Ahora, recordando la definición del rango de una matriz vista en esta entrada y la siguiente proposición (demostrada en esa misma entrada)

Proposición

Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Prestando especial atención a la última igualdad, procedamos con el siguiente resultado sumamente importante.

Proposición

Dos matrices congruentes tienen el mismo rango.

Demostración

La demostración, utilizando las herramientas adecuadas, es increíblemente sencilla.
Sean dos matrices simétricas $A,B \in M_n(\mathbb{R})$ congruentes, entonces existe una matriz invertible $P \in M_n(\mathbb{R})$ tal que
\begin{align*} B=\text{ } ^tPAP.\end{align*}
Como $P$ es invertible sabemos que la transformación lineal asociada a $^tP$ es inyectiva (es biyectiva, de hecho) y la asociada a $P$ es suprayectiva (igualmente es de hecho biyectiva), además, como todas las matrices las tomamos cuadradas, notemos que, por el punto $4$ de la proposición anterior
\begin{align*} rank(B)=rank(\text{ } ^tPAP)=rank(A).\end{align*}
Armados con estos resultados, veamos un análogo al teorema de Gauss visto anteriormente, si no es que una forma un tanto más fuerte de este, y procedamos a finalmente enunciar y demostrar el teorema de inercia de Sylvester, cuya demostración será poco más que un corolario.

Teorema de Gauss y teorema de Inercia de Sylvester.

Teorema de Gauss

Toda matriz simétrica $A \in M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración

Sea $q$ su forma cuadrática asociada en alguna base en $V=\mathbb{R}^n$ entonces
\begin{align*} q(x)=\text{ }^tXAX \text{ o visto de otra manera } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*}
Debido a la última proposición de la entrada anterior, sabemos que es suficiente mostrar la existencia de una base de $V$ bajo la cual la matriz asociada a $q$ sea diagonal.

Por el teorema de Gauss para formas cuadráticas, sabemos que podemos encontrar $\{ \alpha_1, \cdots, \alpha_r \} \subseteq \mathbb{R} $ números reales y $\{ l_1, \cdots, l_r \} \subseteq V* $ formas lineales linealmente independientes tales que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
Para cualquier $x \in V$, más aún la familia $\{ l_1, \cdots, l_r \}$ puede ser completada a una base para $V^*$ sea esta $\{ l_1, \cdots, l_n \}$ ya que esta es linealmente independiente, por una proposición vista aquí, sabemos que existe una base $\{ u_1, \cdots, u_n \}$ de $V$ con base dual $\{ l_1, \cdots, l_n \}$ más aún, sabemos que
\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$.}
\end{cases} \end{align*}
Por lo que, si $x=\sum_{i=1}^n x_iu_i$ entonces
\begin{align*} q(x)= \sum_{i=1}^n \alpha _i (l_i(x))^2= \sum_{i=1}^n \alpha _i x_i^2\end{align*}
Por lo que su matriz asociada respecto a la base $\{ u_1, \cdots, u_n \}$ es la matriz diagonal $D$ tal que
\begin{align*} D=[d_{ij}] \qquad \text{con} \qquad d_{ii}= \alpha_i \qquad \text{y} \qquad d_{ij}=0 \end{align*}
Si $i \neq j$.

Por la última proposición de la entrada anterior, $A$ es congruente con $D$.

$\square$

Anteriormente se definió rango de una forma bilineal, se esperaría por la elección de nombres que el rango de una forma cuadrática y el rango de su matriz correspondiente coincidan, redefinamos rango de una forma cuadrática y veamos que es equivalente a la antigua definición.

Definición

Sea $q$ una forma cuadrática en $V$, el rango de $q$ será el rango de su matriz asociada en alguna base de $V$.

Recordemos que el rango de $q$ lo definimos anteriormente como la cardinalidad del conjunto $\{ \alpha_1, \cdots, \alpha_r \}$ (utilizando la notación del teorema de Gauss), por la demostración anterior este número es igual al número de entradas no cero en la diagonal de la matriz asociada con respecto a la base $\{ u_1, \cdots, u_n \}$ que al ser una matriz diagonal es igual al rango de esta matriz que ya vimos es igual al rango de la matriz asociada a $q$ en cualquier base de $V$, por lo que nuestras definiciones son equivalentes.

Podemos llegar incluso más lejos, en esta entrada discutimos como podíamos hacer que dada $q$ con
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
fuera tal que todo $\alpha_i \in \{-1,1\}$ inclusive reordenando la base $\{ u_1, \cdots, u_n \}$ podemos hacer que
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i x_i^2\end{align*}
Haciendo que $D$ su matriz asociada diagonal tenga como entradas únicamente a $1,0,-1$ y que el $-1$ y $1$ aparezcan únicamente en las primeras $r$-esimas entradas de la diagonal.

Culminemos esta larga sección con el teorema de Sylvester.

Proposición (Teorema de Sylvester/Ley de Inercia de Sylvester)

Sea $q$ una forma cuadrática en $V$ un espacio vectorial de dimensión finita sobre $\mathbb{R}$, el rango de $q$ son invariantes sin importar la base respecto a la que se encuentre su matriz asociada.

Demostración

Sea $A$ la matriz asociada a $q$ en una base $\beta$, sabemos que el rango es igual al de la matriz asociada a $q$ bajo una base $\beta’$ al ser matrices congruentes.

$\square$

Recordando las notas anteriores hay un tipo de formas cuadráticas de las que no hemos hablado, las formas positivas o definidas positivas, revisemos sus matrices y que propiedades extras podemos obtener de agregar esta condición

Definición

Sea una matriz simétrica $A \in M_n(\mathbb{R})$ diremos que es positiva si $^tXAX \geq 0$ para todo $X \in \mathbb{R}^n$, diremos que es definida positiva si $^tXAX > 0$ para todo $X \in \mathbb{R}^n- \{0\}$.

Otra forma de verlo, dada una matriz simétrica $A$ esta será positiva si su forma cuadrática asociada, a saber, dado $x \in \mathbb{R}^n$
\begin{align*} q(x_1, \cdots, x_n) = \sum_{i,j=1}^na_ijx_ix_j\end{align*}
Es positiva, análogamente para alguna forma definida positiva.

De esta manera notemos que una matriz definida positiva da un producto interno en $\mathbb{R}^n$ definido por
\begin{align*} <X,Y>_A=<X,AY>=\text{ }^tXAY\end{align*}
donde $<,>$ es el producto interno canónico en $\mathbb{R}^n$.

Continuando con la idea de no requerir bases, probemos la siguiente proposición.

Proposición

Sean $A,B \in M_n(\mathbb{R})$ congruentes, tal que $A$ es positiva, B es positiva tambien.

Demostración

Si son congruentes sabemos que existe $P \in M_n(\mathbb{R})$ invertible tal que
\begin{align*} B=\text{ }^tPAP\end{align*}
Así sea $X \in \mathbb{R}^n$
\begin{align*} ^tXBX=\text{ }^t X \text{ }^tPAP X=\text{ }^t (PX) A PX \end{align*}
y como $PX \in \mathbb{R}^n$ tenemos que $\text{ }^t (PX) A PX \geq 0$ ya que $A$ es positiva, por lo que
\begin{align*} ^tXBX \geq 0. \end{align*}

$\square$

Notemos también que, en una matriz diagonal positiva $D$, todas sus entradas no cero deben ser positivas, supongamos que esto es falso com $d_{ii}<0$, si $q$ es su forma cuadrática asociada entonces calculando $q(e_i)=d_{ii}<0$ con $e_i$ el elemento de la base canónica cuya unica entrada no cero es la $i$-esima, lo que es una contradicción.

Concluyamos con la siguiente proposición.

Proposición

Cualquier matriz positiva $A \in M_n(\mathbb{R})$ puede ser escrita como $^tBB$ para alguna matriz $B \in M_n(\mathbb{R})$.

Demostración

Sea $A \in M_n(\mathbb{R})$ positiva, por el teorema de Gauss sabemos que es congruente con alguna matriz diagonal, por lo que
\begin{align*} ^tPDP=A\end{align*}
Con $D=[d_{ij}]$ diagonal, además sabemos que al ser congruente con $A$ esta debe ser positiva, más aún, por lo discutido arriba sabemos que toda entrada no $0$ en $D$ debe ser positiva, por lo que podemos escribir a $D$ como sigue
\begin{align*} ^tD_1D_1=D\end{align*}
Con
\begin{align*} D_1=[\sqrt{d_{ij}}]\end{align*}
Sustituyendo esto en la igualdad de arriba
\begin{align*} A=\text{ }^tP\text{ }^tD_1D_1P=\text{ }^t(D_1P)(D_1P)\end{align*}
Y nombrando $B=D_1P$
\begin{align*} ^tBB=A.\end{align*}

$\square$

Más adelante

Con esto concluiremos por ahora nuestra revisión de formas bilineales y sus relaciones con matrices, aunque como es de esperarse no abandonaremos el tema completamente, centrándonos después en la relación que existe entre dualidad y ortogonalidad.

Antes de ello, intentaremos replicar los resultados vistos en las últimas dos entradas esta vez para formas sesquilineales y hermitianas cuadráticas, encontrando resultados análogos pero esta vez para formas en espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Como definirías el determinante de una forma bilineal simétrica basándonos en su matriz? ¿Puedes hacer esta definición independiente de la base que elijas?
  2. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  3. Demuestra que una matriz simétrica y definida positiva es invertible.
  4. Demuestra que una matriz simétrica y positiva es definida positiva si y solo si es invertible.
  5. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.

Entradas relacionadas

Álgebra lineal II: Formas bilineales y matrices

Introducción

Al principio de esta unidad, especialmente en la entrada acerca de teoremas de Gauss y teorema de Sylvester empezamos a hablar de una futura relación entre formas bilineales y matrices, más aún, sabemos que cualquier función lineal se puede representar como una matriz, por lo que esperaríamos una relación similar con las formas bilineales, aquí empezaremos a estudiar esta relación.

Por otro lado, en la entrada de teorema de Sylvester enunciamos de una manera bastante vaga dicho resultado, aunque no dimos una demostración, en esta entrada comenzaremos con los pasos para la demostración de este teorema, aunque no la completaremos aún.

Matriz asociada

De aquí en adelante, asumiremos que $V$ siempre es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.
Definición

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal simétrica en $V$. La matriz de $b$ con respecto a la base $e_1 \cdots e_n$ es la matriz
\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j)\end{align*}
Para todo $i,j$ tal que $1 \leq i,j \leq n$.

Si $q$ es una forma cuadrática en $V$, la matriz de $q$ con respecto a la base $e_1 \cdots e_n$ es la matriz de su polar.

Y para reforzar la idea de esta relación, veamos el siguiente teorema.

Teorema

Entendamos a $Sim(V)$ como el subespacio de formas bilineales simétricas y a $M_n^*(\mathbb{R})$ como el subespacio de matrices simétricas.

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$, la función $\varphi: Sim(V) \rightarrow M_n^*(\mathbb{R})$ que envía una forma bilineal simétrica a su matriz con respecto a $ \{e_1, \cdots , e_n\} $ establece un isomorfismo.

Demostración

Sean $b,b’$ dos formas bilineales simétricas, con $\varphi(b)=A $ y $\varphi(b’) =A’$ respectivamente, si suponemos que $A=A’$ entonces $b(e_i,e_j)=b'(e_i,e_j)$ para cualesquiera $i,j$ tal que $1 \leq i,j \leq n$, que es suficiente para saber qué $b=b’$, por lo que esta asignación es inyectiva.

Para la suprayectividad, sea $A=[a_{ij}]$ una matriz simétrica y sean $x,y \in V$ dos vectores cualesquiera tales que $x=\sum_{i=1} ^nx_ie_i$ y $y=\sum_{j=1} ^ny_je_j$ definamos
\begin{align*} b(x,y) =\sum_{i,j=1}^na_{ij}x_iy_j \end{align*}.
En esta entrada demostramos que $b$ así definida efectivamente es una forma bilineal y la simetría se sigue naturalmente de la conmutatividad del producto en $\mathbb{R}$.
Por lo que $b$ es una forma bilineal simétrica tal que $\varphi(b)=A$, a su vez, esto implica que $\varphi$ es suprayectiva.

Finalmente, para mostrar que esto es efectivamente un isomorfismo, sea $A =\varphi(b+cb’)$ para algún $c \in \mathbb{R}$, sabemos entonces que
\begin{align*} A=[a_{ij}] \end{align*}
Con $a_{ij}=(b+cb’)(e_i,e_j)=b(e_i,e_j) + c \cdot b'(e_i,e_j) $ así.
\begin{align*} A=[b(e_i,e_j) + c \cdot b'(e_i,e_j)] \end{align*}
Además, sabemos que las matrices son lineales por los que
\begin{align*} A=[b(e_i,e_j)] + c \cdot [b'(e_i,e_j)] \end{align*}
y por como definimos $\varphi$
\begin{align*} \varphi(b+cb’)=A= \varphi(b) + c \cdot \varphi(b’) \end{align*}

Por lo que $\varphi$ es un isomorfismo.

$\square$

Una pregunta natural que se sigue de este teorema es ¿Cuál es, explícitamente, la inversa de este isomorfismo? por suerte esta fue casi definida durante la demostración del teorema, así escribámosla de una manera más formal.

Sea $ \{e_1, \cdots , e_n\} $ una base de $V$, la función $\varphi^{-1}: M_n^*(\mathbb{R}) \rightarrow Sim(V) $ es tal que para todo $A \in M_n^*(\mathbb{R})$ con $A=[a_{ij}]$
\begin{align*} \varphi^{-1}(A)=b \end{align*}
Con
\begin{align*} b(x,y)= \sum_{i,j=1}^na_{ij}x_iy_j \end{align*}
para cualesquiera $x,y \in V$ vectores tales que $x=\sum_{i=1} ^nx_ie_i$ y $y=\sum_{j=1} ^ny_je_j$

Preparaciones para el teorema de Sylvester

Recordemos que, en entradas anteriores, empezamos a hablar del teorema de inercia de Sylvester y dijimos que era más fácil trabajar con él una vez que tuviéramos la notación matricial, empecemos con los resultados que nos llevaran a enunciar y demostrar este teorema.

Algo que vale la pena notar de la última igualdad, en particular del lado derecho es que lo podemos expresar como una multiplicación matricial de la manera que sigue
\begin{align*} \sum_{i,j=1}^na_{ij}x_iy_j= \text{ }^{t}XAY\end{align*}
Con $A=[a_{ij}]$ y $X, Y$ los vectores columna con entradas $x_i$ y $y_i$ respectivamente y $^{t}X$ el vector transpuesto de $X$. Dada esta igualdad podemos obtener otra caracterización de la matriz de $b$ con respecto a la base $e_1, \cdots e_n $.

Proposición

Sea $e_1, \cdots e_n $ una base de $V$ y $b$ una forma bilinear simétrica en $V$, la matriz de $b$ con respecto a la base $e_1, \cdots e_n $ es la única matriz simétrica $A \in M_n(\mathbb{R})$ tal que
\begin{align*} b(x,y)=\text{ } ^tXAY \end{align*}
Para cualesquiera vectores $x,y \in V$ donde $X,Y$ son los vectores columna con entradas las de $x,y$ con respecto a la base $e_1, \cdots e_n $

Demostración

Por las observaciones anteriores, sabemos que la matriz de $b$ con respecto a la base $e_1, \cdots e_n $ efectivamente cumple esta igualdad y si una matriz cumple esto efectivamente debe ser la matriz de $b$ con respecto a la base $e_1, \cdots e_n $, todo esto gracias a la función $\varphi$ y su inversa, así solo falta mostrar la unicidad, así sea $A’$ otra matriz tal que para cualesquiera vectores $x,y \in V$
\begin{align*} b(x,y)=\text{ } ^tXA’Y \end{align*}
Entonces se debe tener que
\begin{align*} \text{ } ^tXAY =\text{ } ^tXA’Y \end{align*}
Que a su vez implica que
\begin{align*} A=A’\end{align*}

$\square$

Ejemplo

Sea
\begin{align*} A=\begin{pmatrix} 0 & 1 \\
1 & 0 \end{pmatrix}\end{align*}
Encuentra su forma cuadrática asociada.

Solución

Utilizando lo revisado arriba tenemos que su forma bilineal asociada es
\begin{align*} b(x,y)= \sum_{i,j=1}^na_{ij}x_iy_j \end{align*}
de esta manera, en este caso sabemos que $a_{11}=a_{22}=0$ y $a_{12}=a_{21}=1$, por lo que explícitamente, $b$ se puede escribir como
\begin{align*} b(x,y)= 0x_1y_1+1x_1y_2+1x_2y_1+0x_2y_2=x_1y_2+y_1x_2 \end{align*}
Con $x_1,x_2,y_1,y_2$ las coordenadas de $x,y$ respectivamente, para encontrar la forma cuadrática basta solo calcular $b(x,x)$
\begin{align*} q(x)=b(x,x)=x_1x_2+x_1x_2=2x_1x_2. \end{align*}

Ejemplo

Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1 \end{align*}
Encuentra su matriz asociada en la base canónica y en $\{u_1=(1,1,0), u_2=(1,0,1), u_3=(0,1,1) \}$.

Solución

Primero encontremos su polar
\begin{align*} b(x,x’)=\frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} \end{align*}
Así calculemos que le hace esta forma bilineal a la base canónica de par en par.
\begin{align*} b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \qquad \text{y} \qquad b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}\end{align*}
Por lo que su matriz asociada en la base canónica es
\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}
Por otro lado, calculando lo que $b$ le hace a nuestra otra base
\begin{align*} b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \qquad \text{y} \qquad b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}\end{align*}
Y construyendo esta otra matriz
\begin{align*} A=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1 \end{pmatrix}\end{align*}

En estos resultados y ejemplos podemos ver que la matriz asociada a una forma bilineal es completamente dependiente de la base que elijamos, y obtenerla en bases distintas puede resultar en cálculos muy grandes, por ello no te debe de sorprender que se buscara una manera de encontrar matrices en bases distintas sin tener que recurrir a la forma bilineal cada vez, con esta motivación revisemos este último teorema.

Proposición

Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$, sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$, entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}
Demostración

Sean $x,y \in V$ dos vectores cualesquiera, si $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$ entonces
\begin{align*} x=u_1x_1 + \cdots + u_nx_n=u’_1x’_1 + \cdots + u’_nx’_n\end{align*}
Definamos al vector columna $X$ como sigue
\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}
Y definamos análogamente a $X’,Y,Y’$, sabemos entonces que
\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}
Además, sabemos que
\begin{align*} X=PX’ \qquad \text{y} \qquad Y=PY’\end{align*}
De donde se sigue la siguiente cadena
\begin{align*} \text{ }^tX’A’Y’= b(x,y)=\text{ }^tXAY=\text{ }^t(PX’)A(PY’)=\text{ }^tX’\text{ }^tPAPY’ \end{align*}
Fijándonos en los extremos
\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’ \end{align*}
De donde finalmente concluimos que
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices, podemos ver que esta nos otorgó otra manera de entender las formas bilineales y otra forma de calcularlas, algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal.

Otro problema que enfrentamos es la dependencia de las matrices a su base, aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida o alguna relación entre todas las matrices de una misma forma bilineal, esto lo abordaremos en la siguiente entrada y cumpliremos lo antes prometido de enunciar y demostrar la ley de Inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2-(y-z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su polar.
  2. ¿Es q positiva? ¿Es definida positiva?
  3. Encuentra la matriz asociada a $q$ con respecto a la base canónica.
  4. Sean los vectores
    \begin{align*} |v_1=(2,0,0), \; v_2=(-5,1,1), \; v_3=(1,1,-1).\end{align*}
    Prueba que son una base de $V$ y encuentra la matriz asociada a b respecto a ellos.
  5. Encuentra el rango y signatura de $q$ y encuentra el rango y discriminante de cada una de sus matrices, ¿Qué puedes decir acerca de ellos?

Entradas relacionadas