Archivo de la etiqueta: formas bilineales

Álgebra lineal II: Dualidad y ortogonalidad

Introducción

En entradas anteriores mencionamos y utilizamos propiedades del espacio dual y del producto interno, en esta entrada nos enfocaremos más en la relación de las formas bilineales, (específicamente el producto interno) con este concepto.

También veremos el concepto de ortogonalidad con respecto a una forma bilineal, lo que dará paso a un teorema muy importante (El teorema de representación de Riesz) e incluso nos permitirá definir conceptos como distancia entre un conjunto y un elemento.

Dualidad

De aquí en adelante, asumiremos que $V$ es un $\mathbb{R}$-espacio vectorial, no necesariamente de dimensión finita. Definamos una función que utilizaremos mucho como sigue

Sea $b$ una forma bilineal en $V$.
\begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(y)=b(\cdot, y ) \end{align*}
Donde $b( \cdot , y)$ es la función que envía $x$ a $b(x,y)$, además sabemos que es lineal ya que
$b$ es bilineal, lo que significaba que es lineal en la primera entrada, por lo que pertenece a $V^*$ (el espacio dual de V, puedes leer un poco más de este y de las bases duales aquí).

Proposición

Sea $\mathcal{B}$ base de $V$ de dimensión finita, $\beta’$ su base dual y $b$ forma bilineal en $V$. Prueba que la matriz de $\varphi_b$ respecto a $\beta$ y $\beta’$ es la matriz de $b$ respecto a $\beta$.

Demostración

Sea $\beta=\{ u_1, \cdots , u_n \}$ y $\beta’=\{ u’_1, \cdots , u’_n \}$ y sea $B$ la matriz asociada a $\varphi_b$ respecto a $\beta$ y $\beta’$, primero calcularemos su $j$-esima columna.
\begin{align*} \varphi_b(u_j)=b(\cdot,u_j) \end{align*}
Como no es natural la forma de escribir $\varphi_b(u_j)$ en términos de $\beta’$, calculemos $\varphi_b(u_j)(x)$ para algún $x \in V$
\begin{align*} \varphi_b(u_j)(x)=b(x,u_j) \end{align*}
Si $x=\sum_{i=1}^nu_ix_i$, entonces
\begin{align*} \varphi_b(u_j)(x)=b(\sum_{i=1}^nu_ix_i,u_j)= \sum_{i=1}^nx_ib(u_i,u_j)\end{align*}
Por otro lado, sabemos que para cualquier $x \in V$ $u^*_i(x)=x_i$, sustituyendo esto en la igualdad anterior
\begin{align*} \varphi_b(u_j)(x)= \sum_{i=1}^nu^*_i(x)b(u_i,u_j)\end{align*}
Para cualquier $x \in V$, por lo que
\begin{align*} \varphi_b(u_j)= \sum_{i=1}^nu^*_ib(u_i,u_j)\end{align*}
así, la $j-esima$ columna es de la forma
\begin{pmatrix} b(u_1,u_j) \\
\vdots \\
b(u_n,u_j) \end{pmatrix}
Así, podemos escribir $B$ como
B=\begin{pmatrix} b(u_1,u_1) & \cdots & b(u_1,u_n) \\
\vdots & \ddots & \vdots \\
b(u_n,u_1) & \cdots & b(u_n,u_n) \end{pmatrix}
Que sabemos es la matriz de $b$ respecto a $\beta$.

$\square$

Proposición (Teorema de representación de Riesz)

Sea $V$ un espacio euclidiano (espacio vectorial sobre $\mathbb{R}$ de dimensión finita) con producto interno $<,>$. La función $\varphi_{<,>}: V \rightarrow V^*$ es un isomorfismo.

Demostración

Empecemos con la inyectividad, sea $y \in V$ tal que $\varphi_{<,>}(y)=\overline{0}$ donde $\overline{0}$ es la función constante 0, dado esto, tenemos que para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(y)(x)=<x,y>=0 \end{align*}
Esto aplica en particular para sí mismo, por lo que
\begin{align*} \varphi_{<,>}(y)(y)=<y,y>=0 \end{align*}
Como $<,>$ es un producto interior, esto implica que $y=0$
Por lo que $ker(\varphi_{<,>})=\{0\}$, por lo que $\varphi_{<,>}$ es inyectiva.

Aparte, veamos que es lineal, calculemos $\varphi_{<,>}(\lambda a+b)$ con $\lambda \in \mathbb{R}$ y $a,b \in V$.
\begin{align*} \varphi_{<,>}(\lambda a + b)=<\cdot , \lambda a+ b> \end{align*}
calculando esto para cualquier $x \in V$
\begin{align*} \varphi_{<,>}(\lambda a + b)(x)=<x , \lambda a + b> \end{align*}
y sabemos que $<,>$ es lineal en la segunda entrada por lo que
\begin{align*} <x , \lambda a + b>=\lambda<x , a> + < x , b >=\lambda\varphi_{<,>}(a)(x)+\varphi_{<,>}(b)(x) \end{align*}
Por lo que
\begin{align*} \varphi_{<,>}(\lambda a + b)=\lambda\varphi_{<,>}(a)+\varphi_{<,>}(b) \end{align*}
Lo por lo tanto $\varphi_{<,>}$ es lineal, finalmente, que $\varphi_{<,>}$ sea inyectiva, lineal y que $dim(V)=dim(V^*)$ implica que $\varphi_{<,>}$ es un isomorfismo.

$\square$

Ortogonalidad

Definición

Sea $V$ y $b$ una forma bilineal en $V$.

  • Dos vectores $x,y \in V$ serán ortogonales (respecto a $b$) si $b(x,y)=0$.
  • Sea $S \subseteq V$ el conjunto ortogonal de $S$ ($S^{\bot}$) es
    \begin{align*} S^{\bot}=\{v \in V : \forall s \in S, b(s,v)=0 \}.\end{align*}
  • $S,T \subseteq V$ serán ortogonales si S \subseteq $T^{\bot}$.

Observación (Teorema de Pitágoras)

Supongamos que $<,>$ es un producto interno en $V$ con $||\cdot||$ su norma asociada (es decir $||x||=\sqrt{<x,x>}$), entonces $x,y \in V$ son ortogonales si y solo si
\begin{align*} ||x+y||^2=||x||^2+||y||^2 \end{align*}
Demostración

Se sigue directamente de la identidad
\begin{align*} ||x+y||^2=||x||^2+2<x,y>||y||^2 \end{align*}

$\square$

Proposición

Sea $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
\begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*}
Y $(W^{\bot})^{\bot}=W$

Probaremos de hecho algo aún más fuerte.

Proposición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita. Entonces
\begin{align*} W \oplus W^{\bot} = V\end{align*}
Más aún $(W^{\bot})^{\bot}=W$

Demostración

Sea $<,>$ el producto interno de $V$, si tenemos que $x \in W \cap W^{\bot}$ tenemos que $x$ es ortogonal a $x$ por lo que
\begin{align*} <x,x>=0\end{align*}
lo que implica que $x=0$, por lo tanto $W \cap W^{\bot}= \{0\}$.

Por otro lado, sea $x \in V$ un vector cualquiera, podemos definir $f:W \rightarrow \mathbb{R}$ tal que $f(y):<x,y>$ que sabemos es una función lineal por lo que $f \in V^*$ como $W$ es de dimensión finita y tiene un producto interno (heredado de V) este cumple las hipótesis del teorema de representación de Riesz, así, sabemos que existe una única $z \in W$ tal que $f(y)=<z,y>$ para cualquier $y \in W$ de esta manera
\begin{align*} 0=f(y)-f(y)=<x,y>-<z,y>=<x-z,y>\end{align*}
Para cualquier $y \in W$ por lo que $x-z =w \in W^{\bot}$ entonces
\begin{align*} x=w+z\end{align*}
con $w \in W^{\bot}$ y $z \in W$, por lo tanto
\begin{align*} W + W^{\bot} = V\end{align*}
Y esto con el párrafo anterior implican que
\begin{align*} W \oplus W^{\bot} = V.\end{align*}

$\square$

Así la proposición más débil, se sigue directamente de esta, con la parte acerca de la dimensión implicada debido a que $W$ y $W^{\bot}$ están en posición de suma directa.

Definición

Sea $V$ con producto interno y $W \subseteq V$ de dimensión finita, la proyección ortogonal hacia $W$ es
\begin{align*} p_W:V \rightarrow W \end{align*}
Con $p_W(x)$ el único vector en $W$ tal que $x-p_W(x) \in W^{\bot}$.

Definición

Sea $V$ euclidiano, una función lineal $p: V \rightarrow V$ será una proyección ortogonal si existe $W$ subespacio de $V$ tal que $p$ es la proyección ortogonal hacia $W$.

Proposición

Sea $V$ con producto interno $<.>$ y $|| \cdot ||$ su norma asociada. Sea $W \subseteq V$ un subespacio de dimensión finita y sea $v \in V$. Entonces
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Más aún, $p_w(v)$ es el único elemento con esta propiedad.

Demostración

Sea $x \in W$ un elemento cualquiera de $W$, primero notemos que $x – p_W(v) \in W$ y $v-p_W(v) \in W^{\bot}$, por lo que estos dos son ortogonales, así calculemos
\begin{align*} ||x-v||^2=||(x-p_W(v))+(p_W(v)-v)||^2= ||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \end{align*}
esta igualdad se cumple por el teorema de Pitágoras que fue una observación aquí arriba. Continuando con esta cadena
\begin{align*} ||x-v||^2=||(x-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo tanto $\forall x \in W$ tenemos que $||x-v|| \geq ||(p_W(v)-v)||$ más aún por definición sabemos que $p_W(v) \in W$ por lo que
\begin{align*}||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}
Para probar la unicidad, supongamos que existe $x’ \in W$ tal que
\begin{align*}||v-x’||= min_{x \in W} ||x-v|| \end{align*}
Utilizando el procedimiento anterior tenemos que
\begin{align*} ||(p_W(v)-v)||^2=||x’-v||^2=||(x’-p_W(v))||^2+||(p_W(v)-v)||^2 \geq ||(p_W(v)-v)||^2 \end{align*}
Por lo que se debe cumplir la desigualdad y notemos que esto pasa si y solo si
\begin{align*} 0=||(x’-p_W(v))||^2 \end{align*}
Que sucede si y solo si
\begin{align*} x’=p_W(v) \end{align*}
Por lo que $p_W(v)$ es único.

$\square$

utilizando este resultado, podemos dar una definición de distancia que coincida con las definiciones que tal vez has visto en otras materias

Definición

Con la notación del teorema anterior, la distancia de $v$ a $W$ es
\begin{align*}d(v,W)=||v-p_W(v)||= min_{x \in W} ||x-v|| \end{align*}

Más adelante

En esta entrada mencionamos bases, bases duales y conjuntos ortogonales, una de las costumbres en el estudio de las matemáticas es intentar combinar resultados y definiciones con el fin de obtener resultados nuevos, por lo que no te debe de sorprender que hagamos eso mismo en las siguientes entradas.

Empezaremos en la siguiente entrada un pequeño repaso de vases ortogonales y ortonormales, así como el teorema de Gram-Schmidt. Y como es costumbre, terminaremos esta unidad revisando resultados análogos a los de estas dos entradas, pero esta vez para espacios vectoriales complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a \begin{align*} \varphi_b: V \rightarrow V^* \qquad \text{tal que} \qquad \varphi_b(x)=b(x, \cdot )? \end{align*} ¿Cambia algo en los resultados vistos?
  2. Demuestra sin utilizar la versión más fuerte de este resultado que dado $V$ un espacio euclidiano y $W \subseteq V$, entonces $W \oplus W^{\bot} = V$, en particular
    \begin{align*} dim(W) + dim(W^{\bot}) = dim(V) \end{align*} Y $(W^{\bot})^{\bot}=W$. ¿Es necesaria la hipótesis de que $W$ sea de dimensión finita?
  3. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$ encuentra a $W^{\bot}$ y define la proyección ortogonal hacia $W$, $p_W$.
  4. Encuentra el vector en $Span((1,2,1), (-1,3,-4))$ que es el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  5. Sea $V$ un espacio euclidiano y $T : V \rightarrow V $ una transformación lineal tal que $T^2=T$ prueba que T es una proyección ortogonal si y solo si $\forall x,y \in V$ $<T(x),y>=<x,T(y)>$.

Entradas relacionadas

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si $A$ es una matriz de $m\times n$, su transpuesta $^tA$ es la matriz de $n\times m$ que se obtiene de reflejar a las entradas de $A$ en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos $A=[a_{ij}]$, entonces $^tA=[a_{ji}]$. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y $^tA = A^{-1}$. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si $A$ es una matriz de $n\times n$ con entradas reales y simétrica, entonces:

  • Sus eigenvalores $\lambda_1,\ldots,\lambda_n$ (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal $P$ de $n\times n$ y con entradas reales tal que si tomamos a $D$ la matriz diagonal de $n\times n$ cuyas entradas en la diagonal principal son $\lambda_1,\ldots,\lambda_n$, entonces $$A=P^{-1}DP.$$

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si $A=P^{-1}DP$ como en el teorema anterior, entonces
\begin{align*}
A^2&=(P^{-1}DP)(P^{-1}DP)\\
&=P^{-1}DDP\\
&=P^{-1}D^2P,
\end{align*}

y de manera inductiva se puede probar que $A^k=P^{-1}D^kP$. Elevar la matriz $D$ a la $k$-ésima potencia es sencillo, pues como es una matriz diagonal, su $k$-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la $k$.

Problema. Sea $A$ una matriz de $n\times n$ simétrica y de entradas reales. Muestra que si $A^k = O_n$ para algún entero positivo $k$, entonces $A=O_n$.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de $A$. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como $A$ es simétrica y de entradas reales, entonces sus eigenvalores $\lambda_1,\ldots, \lambda_n$ son reales y es diagonalizable. Digamos que su diagonalización es $P^{-1} D P$. Tenemos que $$O_n = A^k = P^{-1} D^k P.$$ Multiplicando por la matriz $P$ a la izquierda, y la matriz $P^{-1}$ a la derecha, tenemos que $D^k=O_n$. Las entradas de $D^k$ son $\lambda_1^k,\ldots,\lambda_n^k$, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo, $$\lambda_1=\ldots=\lambda_n=0.$$

Concluimos que $D=O_n$, y que por lo tanto $A=P^{-1} O_n P = O_n$.

$\square$

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz $$A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.$$ Calcula las primeras potencias de $A$ a mano. Conjetura y muestra cómo es $A^n$ en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el $n$-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz $A$ obtenemos:

\begin{align*}
A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\
A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\
A^3&=\begin{pmatrix} 1 & 2 \\ 2& 3 \end{pmatrix},\\
A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\
A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.
\end{align*}

Al parecer, en las entradas de $A$ van apareciendo los números de Fibonacci. Seamos más concretos. Definimos $F_0=0$, $F_1=1$ y para $n\geq 0$ definimos $$F_{n+2}=F_{n}+F_{n+1}.$$ La conjetura es que para todo entero $n\geq 1$, se tiene que $$A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.$$

Esto se puede probar por inducción. Arriba ya hicimos el caso $n=1$. Supongamos la conjetura cierta hasta un entero $n$ dado, y consideremos la matriz $A^{n+1}$. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

\begin{align*}
A^{n+1}&=AA^n\\
& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\
&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\
&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.
\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz $A$ es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de $A$. Su polinomio característico es $$\begin{vmatrix} \lambda & -1 \\ – 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.$$

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de $A$) son $$\frac{1\pm \sqrt{5}}{2}.$$ Por el momento, para simplificar la notación, llamemos $\alpha$ a la de signo más y $\beta$ a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible $P$ de $2\times 2$ tal que $$A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.$$

De esta forma, $$A^n = P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.$$

Aquí no es tan importante determinar concretamente $P$ ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de $\alpha^n$ y $\beta^n$ y de que los coeficientes de esta combinación lineal ya no dependen de $n$, sino sólo de las entradas de $P$. En particular, la entrada superior derecha de $A^n$ por un lado es $F_n$, y por otro lado es $r\alpha^n + s\beta ^n$.

¿Cómo obtenemos los valores de $\alpha$ y $\beta$? Basta substituir $n=1$ y $n=2$ para obtener un sistema de ecuaciones en $\alpha$ y $\beta$. Aquí abajo usamos que como $\alpha$ y $\beta$ son raíces de $x^2-x-1$, entonces $\alpha^2=\alpha+1$, $\beta^2=\beta+1$ y $\alpha+\beta = 1$.

$$\begin{cases}
1= F_1 = r \alpha + s \beta \\
1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.
\end{cases}$$

De aquí, obtenemos la solución
\begin{align*}
r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\
s&=-r = -\frac{1}{\sqrt{5}}.
\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es $$F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n – \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.$$

$\square$

Matrices positivas y positivas definidas

Por definición, una matriz simétrica $A$ de $n\times n$ con entradas reales es positiva si para cualquier vector (columna) $v$ en $\mathbb{R}^n$ se tiene que $$^t v A v \geq 0.$$ Aquí $^tv$ es la transposición de $v$, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector $v=0$, entonces decimos que $A$ es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz $A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix},$ pues para cualquier vector $v=(x,y)$ se tiene que $$^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.$$ Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como $(1,1)$. Como puedes verificar, un ejemplo de matriz positiva definida es $$B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.$$

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en $\mathbb{R}^n$. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea $A$ una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B$ en $M_n(\mathbb{R})$.
  4. $A= {^tC} C$ para alguna matriz $C$ en $M_n(\mathbb{R})$.

Hay un resultado análogo para cuando se quiere determinar si una matriz $A$ es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos $3$ y $4$ se necesita además que $B$ y $C$ sean invertibles.

Problema. Sea $A$ una matriz de $n\times n$ con entradas reales, simétrica y positiva. Muestra que si $$\text{tr}(A) = n \sqrt[n]{\det(A)},$$ entonces $A$ conmuta con cualquier matriz de $n\times n$.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que $A$ se puede diagonalizar con matrices $A=P^{-1} D P$, donde $D$ es la matriz diagonal que tiene en su diagonal principal a los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$, y $P^{-1}$ es una matriz invertible. Como $A$ y $D$ son similares, se tiene que
\begin{align*}
\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\
\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.
\end{align*}

Como $A$ es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

$$\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.$$

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor $\lambda$, y entonces $D=\lambda I_n$. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de $n\times n$, tendríamos entonces que

\begin{align*}
A&=P^{-1}D P \\
&=P^{-1}(\lambda I_n) P\\
&=(\lambda I_n) (P^{-1}P)\\
&=\lambda I_n.
\end{align*}

Con esto probamos que $A$ es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de $n\times n$.

$\square$

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de formas cuadráticas y producto interior

Introducción

En las últimas sesiones, hemos introducido el tema de formas bilineales y formas cuadráticas. Más adelante, hablamos de positividad de formas cuadráticas y de producto interior. Ahora veremos algunos problemas de formas cuadráticas y producto interior.

Problemas resueltos de formas cuadráticas

Sabemos que si $T:V\times V\rightarrow \mathbb{R}$ es una transformación lineal, $T$ no necesariamente es una forma bilineal (durante la clase del viernes se discutió un ejemplo), entonces una pregunta interesante es ¿qué información tenemos sobre el núcleo de una forma cuadrática? Es fácil ver que una forma cuadrática no es una transformación lineal, pero está asociada a una forma bilineal. Interesadas en esta pregunta, analizaremos algunas propiedades del núcleo de una forma bilineal y de una forma cuadrática.

Problema. a) Si $q$ es una forma cuadrática en $\mathbb{R}^n$, ¿el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ es un subespacio de $\mathbb{R}^n$?
b) Describe ${ x\in \mathbb{R}^n:q(x)=0}$ si:
1) $q(x,y)=x^2+y^2$,
2) $q(x,y,z)=xy+yz+zx$
3) $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.

Solución. a) La respuesta es: no, el conjunto $\{ x\in \mathbb{R}^n: q(x)=0 \}$ no necesariamente es un subespacio, ya que no necesariamente es cerrado bajo la suma. Daremos un ejemplo.

Sea $q:\mathbb{R}^2\rightarrow \mathbb{R}$ definido como $q((x,y))=x^2-y^2$. Sabemos que ésta es una forma cuadrática. Notemos que para todo $x,y \in\mathbb{R}$, si $v_1=(x,x),v_2=(y,-y)$, entonces $q(v_1)=x^2-x^2=0$ y $q(v_2)=y^2-(-y)^2=0$, entonces $v_1,v_2 \in \{ x\in \mathbb{R}^n: q(x)=0 \}$. Pero $v_1+v_2=(x+y,x-y)$ no pertenecen al núcleo de $q$, ya que $q(v_1+v_2)=q((x+y,x-y))=(x+y)^2-(x-y)^2=4xy\neq 0$ si $x,y\neq 0$.

b.1) Sea $(x,y)\in\mathbb{R}^2$ tal que $q((x,y))=x^2+y^2=0$. Como $x,y\in\mathbb{R}$, sabemos que la única posibilidad en que la suma de dos cuadrados sea cero es que ambos sean cero, por lo tanto $\{ x\in \mathbb{R}^2: q(x)=0 \}=\{(0,0)\}$.

b.2) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=xy+yz+zx=0$. Si $x=0$ entonces $yz=0$, esto es posible sólo si $y=0$ o $z=0$. Entonces el núcleo contiene a los ejes $(x,0,0)$, $(0,y,0)$ y $(0,0,z)$. Ahora, si $x=-y$, entonces $xy+yz+zx=-x^2-xz+zx=-x^2=0$, por lo tanto $x=0=y$, obteniendo nuevamente a los ejes. Ahora suponemos que $x+y\neq 0$. Entonces $xy+yz+zx=xy+z(x+y)=0$, obteniendo que $z=-\frac{xy}{x+y}$ (el cono elíptico). Por lo tanto el núcleo de $q$ son los ejes y el cono elíptico.

b.3) Sea $(x,y,z)\in\mathbb{R}^3$ tal que $q((x,y,z))=(x-y)^2+(y-z)^2+(z-x)^2=0$. Al igual que en el inciso (b.1), esto sólo es posible si $x-y=y-z=z-x=0$, entonces $x=y=z$. Por lo tanto, $\{ x\in \mathbb{R}^n: q(x)=0 \}=\{(x,x,x):x\in\mathbb{R}\}$.

$\square$

Problema. Sea $V=P_2(\mathbb{R})$ el espacio de polinomios en $[-1,1]$ con coeficientes reales de grado a lo más 2 y considera el mapeo $b:V\times V\rightarrow \mathbb{R}$ definido como

$b(f,g)=\int_{-1}^1 tf(t)g(t) dt.$

Prueba que $b$ es una forma bilineal simétrica de $V$. Si $q$ es la forma cuadrática asociada, encuentra las $f$ en $V$ tales que $q(f)=0$.

Solución. Mostrar que $b$ es bilineal es sencillo, y queda como tarea moral. Es fácil ver que es simétrica, ya que

\begin{align*}
b(f,g)&=\int_{-1}^1 tf(t)g(t) dt \\
&=\int_{-1}^1 tg(t)f(t)dt=b(g,f).
\end{align*}

Ahora, queremos encontrar las funciones $f$ tales que $q(f)=b(f,f)=\int_{-1}^1 tf^2(t)dt=0$. Como $f$ es un polinomio de grado $2$, es de la forma $f(x)=ax^2+bx+c$ para reales $a,b,c$ y entonces

\begin{align*}
0&=q(f)\\
&=\int_{-1}^1 tf^2(t)dt \\
&=\int_{-1}^1 t(at^2+bt+c)^2dt \\
& = \int_{-1}^1 t(a^2t^4+2abt^3+(b^2+2ac)t^2+2bct+c^2)dt \\
&=\int_{-1}^1 (a^2t^5+2abt^4+(b^2+2ac)t^3+2bct^2+c^2t)dt \\
&=\frac{4ab}{5}+\frac{4bc}{3}=0
\end{align*}

Esto implica que $4b(3a+5c)=0$, entonces $b=0$ o $3a+5c=0$. Por lo tanto $$\{f\in V:q(f)=0\}=\{ax^2+c \}\cup \{ax^2+bx-\frac{3a}{5}\}.$$

$\square$

Problemas resueltos de producto interior

Ahora recordemos que en la clase de ayer, definimos formas bilineales y cuadráticas positivas y definidas positivas, y a partir de ello, definimos qué es un producto interior. Así, en los siguientes problemas, veremos algunos ejemplos de estas definiciones.

Problema. Determina cuáles de las siguientes formas cuadráticas son positivas. ¿Cuáles también son definidas positivas?

  1. $q(x,y,z)=xy+yz+zx$.
  2. $q(x,y,z)=(x-y)^2+(y-z)^2+(z-x)^2$.
  3. $q(x,y,z)=x^2-y^2+z^2-xy+2yz-3zx$.

Solución. Sea $v=(x,y,z)\in\mathbb{R}^3$, recordemos que para cada uno de los incisos $q$ es positiva si $q(v)\geq 0$ para toda $v$ y es definida positiva si es positiva y $q(v)=0$ si y sólo si $v=0$.

1) Si escogemos a $v$ como $v=(1,-2,1)$ tenemos que
\begin{align*}q(v)&=q(1,-2,1)\\&=1(-2)+(-2)(1)+1(1)\\&=-2-2+1\\&=-3.\end{align*} Por lo tanto no es positiva ni definida positiva.

2) Dado que para todo $x,y,z$, tenemos que $(x-y)^2,(y-z)^2,(z-x)^2\geq 0$, entonces $q(v)\geq 0$ para todo $v\in\mathbb{R}^3$. Pero si $q(v)=0$, entonces $x=y=z$, pero no necesariamente son iguales a cero. Por lo tanto, $q$ es positiva pero no es definida positiva.

3) Si tomamos $v=(3,0,3)$, obtenemos que \begin{align*}q(v)&=(3)^2+(3)^2-3(3)(3)\\&=9+9-27\\&=-9\\&<0.\end{align*} Por lo tanto no es positiva ni definida positiva.

$\square$

Problema. Sea $V=C([a,b],\mathbb{R})$. Prueba que el mapeo $\langle \cdot , \cdot \rangle$ definido por $$\langle f,g \rangle = \int_a^b f(x)g(x) dx$$

es un producto interior en $V$.

Solución. Por lo visto en la clase de ayer, tenemos que un producto interior es una forma bilineal simétrica y definida positiva.
Es fácil ver que es forma bilineal simétrica. Basta con probar que es una forma definida positiva. Entonces $\langle f,f\rangle=\int_0^1 f^2(x)dx \geq 0$ ya que $f^2(x)\geq 0$ para toda $x$. Por lo tanto $\langle \cdot, \cdot \rangle$ es positiva. Como $f^2$ es continua y positiva, si $\int_0^1 f^2(x)dx=0$, implica que $f^2=0$, entonces $f=0$. Por lo tanto, $\langle \cdot , \cdot \rangle$ es definida positiva, y por ende, es un producto interior.

$\square$

Para finalizar, el siguiente problema es un ejemplo que pareciera ser producto interior, pero resulta que no serlo.

Problema. Sea $C^\infty([0,1],\mathbb{R})$ es el espacio de funciones suaves (funciones continuas cuyas derivadas de cualquier orden existen y son continuas). Definimos el espacio $V={ f\in C^\infty([0,1],\mathbb{R}): f(0)=f(1)=0 }$. Si definimos $$\langle f,g \rangle:=\int_0^1 (f(x)g'(x)+f'(x)g(x))dx,$$ ¿es $\langle \cdot , \cdot \rangle$ un producto interior en $V$?

Solución. Es claro ver que $\langle \cdot, \cdot \rangle$ es bilineal y simétrica, entonces falta demostrar si es o no es una forma definida positiva. Para $f\in V$, tenemos que $\langle f,f \rangle=\int_0^1 2f(x)f'(x)dx.$

Notemos que, por la regla de la cadena, $\frac{d}{dx}f^2(x)=2f(x)f'(x)$, entonces \begin{align*}\langle f,f \rangle&=\int_0^1 \frac{d}{dx} f^2(x) dx\\&=f^2(1)-f^2(0)\\&=0.\end{align*}

Por lo tanto $\langle f,f\rangle=0$ para toda $f$. Esto implica que no es definida positiva, y como consecuencia, no es producto interior de $V$.

$\square$

Entradas relacionadas

Álgebra Lineal I: Problemas de transformaciones transpuestas y formas bilineales

Introducción

En la entrada del miércoles pasado se definió el concepto de la transpuesta de una transformación lineal. Así mismo, se probó el impresionante y muy útil hecho de que si $A$ es la matriz asociada a la transformación $T$ con respecto a ciertas bases, entonces $^tA$ es la matriz asociada de la transformación $^tT$ con respecto a las bases duales. Comenzamos esta entrada con problemas de transformaciones transpuestas. Los problemas 1 y 2 de esta entrada nos servirán para repasar la teoría vista en esa clase.

Por otra parte, en la entrada del viernes pasado comenzamos con el estudio de las formas bilineales y también se definió la forma cuadrática asociada a una forma bilineal. Además, se presentó la identidad de polarización, la cuál dada una forma cuadrática $q$ nos recupera la única forma bilineal simétrica de la cuál viene $q$.

Para repasar esta teoría, en esta entrada se encuentran los problemas 3 y 4. El problema 4 es interesante porque introduce de manera sencilla los espacios de funciones $l_p$ , de los cuáles se hace un estudio mucho más profundo en un primer curso de análisis matemático. Además, para este problema hacemos uso de herramientas de convergencia de series.

Problemas resueltos

Veamos dos problemas de transformaciones transpuestas

Problema. Considera la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^2$ dada por $$T(x,y,z)=(x+3y, x+y-z).$$
Sea $\mathcal{B}^*=\{e_1^*, e_2^*\}$ la base dual canónica de $\mathbb{R}^2$.
Calcula $^tT(e_1^*+e_2^*)$ y $^tT(e_1^*-e_2^*)$ en términos de la base dual canónica $\{f_1^\ast, f_2^\ast, f_3^\ast\}$ de $\mathbb{R}^3$.

Solución. Primero observemos que para un vector cualquiera de $\mathbb{R}^2$ se tiene que
\begin{align*}
e_1^*(x,y)&=x\\
e_2^*(x,y)&=y.
\end{align*}

entonces
\begin{align*}
(e_1^* + e_2^* )(x,y)&=x+y\\
(e_1^* – e_2^* )(x,y)&=x-y.
\end{align*}

Así,

\begin{align*}
(^tT(e_1^*&+e_2^*))(x,y,z)\\=&(e_1^* + e_2^*)(T(x,y,z))\\
=&(e_1^* + e_2^*)(x+3y, x+y-z)\\=&x+3y+x+y-z\\
=&2x+4y-z.
\end{align*}

Esto nos dice que $^tT(e_1^*&+e_2^*)=2f_1^\ast+4f_2^\ast – f_3^\ast$.

Por otro lado,

\begin{align*}
(^tT(e_1^*&-e_2^*))(x,y,z)\\
=&(e_1^* – e_2^*)(T(x,y,z))\\
=&(e_1^* – e_2^*)(x+3y, x+y-z)\\
=&x+3y-x-y+z\\
=&2y+z.
\end{align*}

Por lo tanto, $ ^tT(e_1^*&-e_2^*)) =2f_2^\ast+f_3^\ast.$

$\square$

Problema. Encuentra la matriz de $^tT$ con respecto a la base canónica de $\mathbb{R}^3$ sabiendo que

$T(x,y,z)=(x+y, y-z,x+2y-3z).$

Solución. Recordemos que para calcular la matriz asociada a una transformación con respecto a una base canónica sólo hace falta poner en la $i$-ésima columna la imagen del $i$-ésimo vector canónico. Por esto, calculamos los siguientes valores

$T(e_1)=T(1,0,0)=(1,0,1)$
$T(e_2)=T(0,1,0)=(1,1,2)$
$T(e_3)=(0,0,1)=(0,-1,-3).$

Entonces la matriz asociada a $T$ es

$A=\begin{pmatrix}
1 & 1 & 0\\
0 & 1 & -1\\
1 & 2 & -3\end{pmatrix}.$

Así, por Teorema 2 visto en la entrada de ortogonalidad y transformación transpuesta, sabemos que la matriz asociada a $^tT$ es justamente la matriz

$^tA=\begin{pmatrix}
1 & 0 & 1\\
1 & 1 & 2\\
0 & -1 & -3\end{pmatrix}$.

$\square$

Problemas de formas bilineales y cuadráticas

Problema. Demuestra que la transformación

$b:\mathbb{R}^2 \times \mathbb{R}^2 \to \mathbb{R}$
$b((x,y),(z,t))=xt-yz$

es una forma bilineal sobre $\mathbb{R}^2$. Describe la forma cuadrática asociada.

Demostración. Sea $(x,y)\in \mathbb{R}^2$ fijo. Queremos ver que

$b((x,y), \cdot):\mathbb{R}^2 \to \mathbb{R}$
definida por
$(u,v)\mapsto b((x,y),(u,v))$
es lineal.

Sean $(u,v),(z,t)\in \mathbb{R}^2$.

\begin{align*}
b(&(x,y),(u,v)+(z,t))\\&=b((x,y),(u+z, v+t))\\&=x(v+t)-y(u+z)\\&=(xv-yu)+(xt-yz)\\
&=b((x,y),(u,v))+b((x,y),(z,t)).
\end{align*}

Sea $k \in \mathbb{R}$.
\begin{align*}
b((x,y),k(u,v))&=b((x,y),(ku,kv))\\
&=kxv-kyu\\
&=k(xv-yu)\\
&=kb((x,y),(u,v)).
\end{align*}

Así, $(u,v)\mapsto b((x,y),(u,v))$ es lineal.

Ahora veamos que dado $(u,v)\in\mathbb{R}^2$ fijo, la transformación $(x,y)\mapsto b((x,y),(u,v))$ es lineal.

Sean $(x,y),(z,t)\in\mathbb{R}^2$ y $k\in \mathbb{R}$. Tenemos que
\begin{align*}
b((x&,y)+k(z,t),(u,v))\\
=&b((x+kz,y+kt),(u,v))\\
=&(x+kz)v – (y+kt)u\\
=& xv-kzv-yu-ktu\\
=&(xv-yu)+k(zv-tu)\\
=&b((x,y),(u,v))+kb((z,t),(u,v)).
\end{align*}

Así, $(x,y)\mapsto b((x,y),(u,v))$ es lineal y por consiguiente $b$ es una forma bilineal.

Ahora, tomemos $q:\mathbb{R}^2\to \mathbb{R}$ definida por $$q(x,y)=b((x,y),(x,y)).$$
Entonces $q(x,y)=xy-yx=0$. Así, la forma cuadrática cero es la forma cuadrática asociada a la forma bilineal $b$.

$\square$

Problema. Para un real $p\geq 0$, definimos el espacio $$l_p:=\left\{(x_n)_{n\in\mathbb{N}} : x_n\in\mathbb{R} \forall n\in \mathbb{N} ; \displaystyle\sum_{i\in \mathbb{N}}|x_i| ^p < \infty \right\}.$$

Notemos que para $p\in[1,\infty)$, $l_p$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones definidas de manera natural. La demostración no es totalmente trivial, pues hay que mostrar que este espacio es cerrado bajo la suma, y esto requiere de la desigualdad del triángulo para la norma $|\cdot |_p$. Puedes intentar demostrar esto por tu cuenta como tarea moral.

Ahora, considera $H:l_2\times l_2 \to\mathbb{R}$ definida por

$H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})=\displaystyle\sum_{n\in\mathbb{N}}x_ny_n$.


Demuestra que $H$ es una forma bilineal simétrica sobre $l_2$.

Demostración. Lo primero que haremos es mostrar que la forma bilineal que definimos en efecto tiene valores reales. Para ello, tenemos que ver que converge.

Observemos que para cada $n\in\mathbb{N}$ se tiene que

$0\leq(|x_n|- |y_n|)^2.$

Entonces ,
\begin{align*}
0&\leq |x_n| ^2 -2|x_ny_n|+ |y_n |^2\\
|x_n y_n|&\leq \frac{1}{2}(|x_n|^2 + |y_n|^2).
\end{align*}


Por consiguiente,

$\displaystyle\sum_{n\in\mathbb{N}}|x_n y_n|\leq \frac{1}{2}\left (\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 + \displaystyle\sum_{n\in\mathbb{N}}|y_n|^2 \right ) < \infty$.

Lo anterior se debe a que

$\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 < \infty$ ya que $(x_n)_{n\in \mathbb{N}}\in l_2$

y análogamente para $(y_n)_{n\in \mathbb{N}}$.

Así, $\displaystyle\sum_{n\in\mathbb{N}}x_n y_n < \infty$, pues converge absolutamente, y por lo tanto $H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ siempre cae en $\mathbb{R}$.

Ahora veamos que $H$ es bilineal. Sea $x=(x_n)_{n\in \mathbb{N}}\in l_2$ fija. Queremos ver que $$(y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$$ es lineal.

Sean $y=(y_n)_{n\in \mathbb{N}},z=(z_n)_{n\in \mathbb{N}}\in l_2$ y $k\in \mathbb{R}$.

Entonces

\begin{align*}
H(x,&y+kz)\\
&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n +kx_nz_n\\
&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n + k\displaystyle\sum_{n\in\mathbb{N}}x_n z_n\\
&= H(x,y) + k H(x,z).
\end{align*}

Así, $(y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ es lineal.

De manera análoga se ve que si $(y_n)_{n\in \mathbb{N}} \in l_2$ fija, entonces $(x_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ es lineal.

Además
\begin{align*}
H(x,y)&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n\\
&=\displaystyle\sum_{n\in\mathbb{N}}y_n x_n \\
&= H(y,x).
\end{align*}

Por lo tanto, $H$ es una forma bilineal simétrica sobre $l_2$.

$\square$

Tarea moral

  • Muestra que en efecto $l_p$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones definidas entrada a entrada.

Entradas relacionadas