Archivo de la etiqueta: dualidad

Álgebra Lineal II: Ortogonalidad en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, cuando hablamos del espacio dual de un espacio vectorial, definimos qué quería decir que una forma lineal y un vector fueran ortogonales. Esa noción de ortogonalidad nos ayudó a definir qué era un hiperplano de un espacio vectorial y a demostra que cualquier subespacio de dimensión $k$ de un espacio de dimensión $n$ podía ponerse como intersección de $n-k$ hiperplanos.

Hay otra noción de ortogonalidad en álgebra lineal que también ya discutimos en el primer curso: la ortogonalidad de parejas de vectores con respecto a un producto interior. En el primer curso vimos esta noción muy brevemente. Lo que haremos ahora es profundizar en esta noción de ortogonalidad. De hecho, gracias a las herramientas que hemos desarrollado podemos conectar ambas nociones de ortogonalidad.

Esta teoría la veremos de manera explícita en el caso real en la entrada. El caso en $\mathbb{C}$ queda esbozado en los ejercicios.

Definición de ortogonalidad

Comenzamos con las siguientes definiciones.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos vectores $x,y$ en $V$ son ortogonales (con respecto a $b$) si $b(x,y)=0$.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Sea $S$ un subconjunto de vectores de $V$. El conjunto ortogonal de $S$ (con respecto a $b$) consiste de todos aquellos vectores en $V$ que sean ortogonales a todos los vectores de $S$. En símbolos:

$$S^{\bot}:=\{v \in V : \forall s \in S, b(s,v)=0.$$

Es un buen ejercicio verificar que $S^\bot$ siempre es un subespacio de $V$. Finalmente, definimos la ortogonalidad de conjuntos.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos subconjuntos $S$ y $T$ son ortogonales (con respecto a $b$) si $S \subseteq T^{\bot}$.

En otras palabras, estamos pidiendo que todo vector de $S$ sea ortogonal a todo vector de $T$.

Observación. Si tenemos un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$, entonces tenemos la fórmula $$\norm{x+y}^2=\norm{x}^2+2\langle x,y\rangle +\norm{y}^2.$$

De esta forma, $x$ y $y$ son ortogonales si y sólo si $$\norm{x+y}^2= \norm{x}^2+\norm{y}^2.$$ Podemos pensar esto como una generalización del teorema de Pitágoras.

Descomposición en un subespacio y su ortogonal

Comenzamos esta sección con un resultado auxiliar.

Teorema. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$V=W\oplus W^\bot.$$

Demostración. Sea $\langle \cdot,\cdot \rangle$ el producto interior de $V$. Para demostrar la igualdad que queremos, debemos mostrar que $W$ y $W^\bot$ están en posición de suma directa y que $V=W+W^\bot$.

Para ver que $W$ y $W^\bot$ están en posición de suma directa, basta ver que el único elemento en la intersección es el $0$. Si $x$ está en dicha intersección, entonces $\langle x, x \rangle =0$, pues por estar en $W^\bot$ debe ser ortogonal a todos los de $W$, en particular a sí mismo. Pero como tenemos un producto interior, esto implica que $x=0$.

Tomemos ahora un vector $v\in V$ cualquiera. Definamos la forma lineal $f:W\to \mathbb{R}$ tal que $f(u)=\langle u, v \rangle$. Por el teorema de representación de Riesz aplicado al espacio vectorial $V$ y a su forma lineal $f$, tenemos que existe un (único) vector $x$ en $W$ tal que $f(u)=\langle u, x \rangle$ para cualquier $u$ en $W$.

Definamos $y=v-x$ y veamos que está en $W^\bot$. En efecto, para cualquier $u$ en $W$ tenemos:

\begin{align*}
\langle u, y\rangle &= \langle u, v-x \rangle\\
&=\langle u, v \rangle – \langle u , x \rangle\\
&=f(u)-f(u)\\
&=0.
\end{align*}

De esta manera, podemos escribir $v=x+y$ con $x\in W$ y $y\in W^\bot$.

$\square$

En particular, el teorema anterior nos dice que la unión disjunta de una base de $W$ y una base de $W^\bot$ es una base de $V$. Por ello, tenemos el siguiente corolario.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$\dim{W}+\dim{W^\bot}=\dim{V}.$$

Tenemos un corolario más.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$(W^\bot)^\bot=W.$$

Demostración. Tanto $W$ como $(W^\bot)^\bot$ son subespacios de $V$. Tenemos que $W\subseteq (W^\bot)^\bot$ pues cualquier elemento de $W$ es ortogonal a cualquier elemento de $W^\bot$. Además, por el corolario anterior tenemos:

\begin{align*}
\dim{W}+\dim{W^\bot}&=\dim{V}\\
\dim{W^\bot}+\dim{(W^\bot)^\bot}&=\dim{V}.
\end{align*}

De aquí se sigue que $\dim{W} = \dim{(W^\bot)^\bot}$. Así, la igualdad que queremos de subespacios se sigue si un subespacio está contenido en otro de la misma dimensión, entonces deben de ser iguales.

$\square$

Proyecciones ortogonales

Debido al teorema anterior, podemos dar la siguiente definición.

Definición. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. La proyección ortogonal hacia $W$ es la transformación lineal $p_W:V\to W$ tal que a cada $v$ en $V$ lo manda al único vector $p_W(v)$ tal que $x-p_W(v)$ está en $W^\bot$.

Dicho en otras palabras, para encontrar a la proyección de $v$ en $W$ debemos escribirlo de la forma $v=x+y$ con $x\in W$ y $y\in W^\bot$ y entonces $p_W(v)=x$.

Distancia a subespacios

Cuando definimos la distancia entre conjuntos que tienen más de un punto, una posible forma de hacerlo es considerando los puntos más cercanos en ambos conjuntos, o en caso de no existir, el ínfimo de las distancias entre ellos. Esto da buenas propiedades para la distancia. En particular, cuando queremos definir la distancia de un punto $x$ a un conjunto $S$ hacemos lo siguiente.

Definición. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $S$ un subconjunto de $V$ y $v$ un vector de $V$. Definimos la distancia de $v$ a $S$ como la menor posible distancia de $v$ hacia algún punto de $S$. En símbolos:

$$d(v,S):=\inf_{s\in S} d(v,s).$$

En general, puede ser complicado encontrar el punto que minimiza la distancia de un punto a un conjunto. Sin embargo, esto es más sencillo de hacer si el conjunto es un subespacio de un espacio con producto interior: se hace a través de la proyección al subespacio. Esto queda reflejado en el siguiente resultado.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $W$ un subespacio de $V$ y sea $v$ un vector en $V$. Entonces $$d(v,W)=\norm{v-p_W(v)}.$$

Más aún, $p_W(v)$ es el único punto en $W$ para el cual se alcanza la distancia mínima.

Demostración. Por el teorema de descomposición en un subespacio y su ortogonal, sabemos que podemos escribir $v=x+y$ con $x$ en $W$ y con $y$ en $W^\bot$.

Tomemos cualquier elemento $w$ en $W$. Tenemos que $x-w$ está en $W$ y que $y$ está en $W^\bot$. Así, usando el teorema de Pitágoras tenemos que:

\begin{align*}
\norm{v-w}^2&=\norm{y+(x-w)}^2\\
&=\norm{y}^2+\norm{x-w}^2\\
&\geq \norm{y}^2\\
&=\norm{v-x}^2.
\end{align*}

Esto muestra que $\norm{v-w}\geq \norm{v-x}$. Como $x\in W$, esto muestra que la distancia de $v$ a $W$ en efecto se alcanza con $x=p_W(v)$, pues cualquier otra distancia es mayor o igual.

La igualdad en la cadena anterior de alcanza si y sólo si $\norm{x-w}^2=0$, lo cual sucede si y sólo si $x=w$, como queríamos.

$\square$

Más adelante…

En la siguiente entrada recordaremos varias de las ventajas que tiene contar con una base de un espacio vectorial en la que cualesquiera dos vectores sean ortogonales entre sí. Y en la entrada después de esa, recordaremos algunas hipótesis bajo las cuales podemos garantizar encontrar una de esas bases.

Tarea moral

  1. Resuelve los siguientes ejercicios:
    1. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$. Encuentra a $W^{\bot}$ y define la proyección ortogonal $p_W$ hacia $W$.
    2. Encuentra el vector en $\text{Span}((1,2,1), (-1,3,-4))$ que sea el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  2. Sea $V$ un espacio euclidiano y $T : V \to V $ una transformación lineal tal que $T^2=T$. Prueba que T es una proyección ortogonal si y solo si para cualesquiera $x$ y $y$ en $V$ se tiene que $$\langle T(x),y\rangle =\langle x,T(y)\rangle.$$
  3. Resuelve los siguientes ejercicios:
    1. Demuestra que una proyección ortogonal reduce la norma, es decir, que si $T$ es una proyección ortogonal, entonces $\norm{T(v)}\leq \norm{v}$.
    2. Prueba que una proyección ortogonal únicamente puede tener como eigenvalores a $0$ ó a $1$.
  4. Demuestra que la composición de dos proyecciones ortogonales no necesariamente es una proyección ortogonal.
  5. En el teorema de descomposición, ¿es necesaria la hipótesis de tener un producto interior? ¿Qué sucede si sólo tenemos una forma bilineal, simétrica y positiva?

Entradas relacionadas

Álgebra Lineal II: Dualidad y representación de Riesz en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

En Álgebra Lineal I introdujimos el concepto de espacio dual. A grandes rasgos, era un espacio vectorial en donde estaban todas las formas lineales de un espacio hacia el campo en donde estaba definido. Por otro lado, en entradas recientes hicimos un recordatorio de qué era un producto interior. Lo que haremos ahora es relacionar ambos conceptos. Esta relación no debería ser tan inesperada, pues finalmente un producto interior es una forma bilineal, y al fijar una entrada de una forma bilineal obtenemos una forma lineal.

Lo primero que haremos es ver cómo conectar la matiz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».

Nos enfocaremos únicamente a los resultados en el caso lineal. Los casos en el caso complejo son muy parecidos, y se exploran en los ejercicios.

La matriz de una transformación que «crea» formas lineales

Sea $V$ un espacio vectorial real con una forma bilineal $b$. A partir de $b$ podemos construir muchas formas lineales, a través de la función $\varphi_b:V\to V^\ast$ que asigna a cada vector $y$ de $V$ a la forma lineal $\varphi_b(y):=b(\cdot,y)$.

Podemos pensar a $\varphi_b$ como «una maquinita que genera formas lineales» que depende del vector $b$. Claramente $\varphi_b(y)$ es lineal, pues $b$ es lineal en su primera entrada. Y también claramente $\varphi_b$ es lineal, pues $b$ es lineal en su segunda entrada. En cierto sentido, la matriz correspondiente a la forma bilineal $b$ coincide con la matriz correspondiente a $\varphi_b$.

Proposición. Sea $\beta$ una base de un espacio vectorial $V$ de dimensión finita sobre los reales. Sea $\beta^\ast$ su base dual. Tomemos $b$ una forma bilineal en $V$. La matriz de $\varphi_b$ con respecto a las bases $\beta$ y $\beta’$ es igual a la matriz de $b$ con respecto a la base $\beta$.

Demostración. Llamemos a los elementos de la base $\beta$ como $u_1,\ldots,u_n$ y a los de la base $\beta^ \ast$ como $l_1,\ldots,l_n$. Para encontrar la $j$-ésima columna de la matriz de $\varphi_b$ con respecto a $\beta$ y $\beta^\ast$, debemos expresar a cada $\varphi_b(u_j)$ como combinación lineal de los elementos $l_1,\ldots,l_n$. Para hacer esto, es más sencillo ver cómo es $\varphi_b(u_j)(x)$ para cada $x\in V$ y usar que los $l_i$ «leen» las coordenadas en la base $\beta$.

Para ello, tomemos $x=\sum_{i=1}^nu_ix_i$. Tenemos lo siguiente:

\begin{align*}
\varphi_b(u_j)(x)&=b(\sum_{i=1}^nu_ix_i,u_j)\\
&= \sum_{i=1}^nx_ib(u_i,u_j)\\
&= \sum_{i=1}^n l_i(x) b(u_i,u_j).
\end{align*}

Como esto sucede para cada vector $x$, tenemos entonces que $$\varphi_b(u_j)=\sum_{i=1}^n b(u_i,u_j) l_i.$$

Pero esto es justo lo que queremos. Las entradas de la $j$-ésima columna de la matriz que representa a $\varphi_b$ son entonces los coeficientes $b(u_1,u_j),b(u_2,u_j),\ldots,b(u_n,u_j)$. Pero esas son justo las entradas de la $j$-ésima columna de la matriz que representa a $b$ en la base $\beta$.

$\square$

Teorema de representación de Riesz

La sección anterior explica cómo de una forma bilineal $b$ podemos obtener una «máquinita» que genera formas lineales $\varphi_b$. Si $b$ es mucho más especial (un producto interior), entonces esta maquinita es «más potente», en el sentido de que puede generar cualquier forma lineal del espacio. A este resultado se le conoce como el teorema de representación de Riesz. Aunque sus versiones más generales incluyen ciertos espacios de dimensión infinita, y el enunciado dice algo más general, en este curso nos limitaremos a enunciar y demostrar la versión en espacios vectoriales de dimensión finita.

Teorema (teorema de representación de Riesz). Sea $V$ un espacio euclidiano con producto interno $\langle \cdot, \cdot \rangle$. La función $\varphi_{\langle \cdot, \cdot \rangle}: V \rightarrow V^\ast$ es un isomorfismo.

Demostración. Debemos probar que $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal biyectiva hacia $V^\ast$. Como mencionamos en la sección anterior, cada $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es una forma lineal pues el producto interior es lineal en su primera entrada. Además, $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal pues el producto interior es lineal en su segunda entrada.

Por los resultados que se vieron en el curso de Álgebra Lineal I, se tiene que $\dim V = \dim V^\ast$. De esta manera, basta ver que $\varphi_{\langle\cdot,\cdot \rangle}$ es inyectiva. Y para ello, basta ver que el único vector $y$ tal que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero es $y=0$.

Supongamos entonces que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero. Si este es el caso, entonces para cualquier $x$ en $V$ tendríamos que $\langle x, y \rangle = 0$. En particular, esto sería cierto para $x=y$, de modo que $\langle y, y \rangle =0$. Pero como el producto interior es positivo definido, esto implica que $y=0$.

Esto muestra que $\varphi_{\langle \cdot, \cdot \rangle}$ es inyectiva. Como es transformación lineal entre espacios de la misma dimensión, entonces es biyectiva.

$\square$

Ejemplo de representación de Riesz

Las operaciones que se hacen para calcular una forma lineal no siempre son sencillas. Lo que nos dice el teorema de representación de Riesz es que podemos tomar un «vector representante» de una forma lineal para que evaluarla corresponda «simplemente» a hacer un producto interior. Si es fácil hacer ese producto interior, entonces podemos simplificar la evaluación de la forma lineal.

Ejemplo. Tomemos $V$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $2$. Hemos visto con anterioridad que $\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}$ dado por: $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2) $$ es un producto interior.

Hemos visto también que $I:V\to \mathbb{R}$ dada por $I(p)=\int_0^1 p(x)\, dx$ es una forma lineal. El teorema de representación de Riesz nos garantiza que $I$, que es una integral definida, debería poder de «representarse» como el producto interior con un polinomio especial $q$. Esto parecen ser buenas noticias: para $I(p)$ necesitamos hacer una integral. Para hacer el producto interior, sólo son unas multiplicaciones y sumas.

El polinomio «mágico» que funciona en este caso es el polinomio $q(x)=-\frac{x^2}{2}+\frac{3}{4}x+\frac{5}{12}$. Puedes verificar que:

\begin{align*}
q(0)&=\frac{5}{12}\\
q(1)&=\frac{2}{3}\\
q(2)&=-\frac{1}{12}.
\end{align*}

De esta manera, si hacemos el producto interior con cualquier otro polinomio $p(x)=ax^2+bx+c$ obtenemos:

\begin{align*}
\langle p, q \rangle &= p(0)q(0) + p(1)q(1)+p(2)q(2)\\
&= c\cdot \frac{5}{12} + (a+b+c)\cdot \frac{2}{3} + (4a+2b+c) \cdot \left(-\frac{1}{12}\right)\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

Si por otro lado hacemos la integral, obtenemos:

\begin{align*}
\int_0^1 ax^2 + bx + c \, dx &= \left. \left(\frac{ax^3}{3}+\frac{bx^2}{2}+cx \right)\right|_0^1\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

En ambos casos se obtiene lo mismo.

$\square$

Se podría tener una discusión más profunda para explicar cómo se obtuvo el polinomio $q$ del ejemplo anterior. Sin embargo, dejaremos la experimentación de esto para los ejercicios. Por ahora, la mayor ventaja que le encontraremos al teorema de representación de Riesz es la garantía teórica de que dicho vector que representa a una forma lineal dado un producto interior siempre existe en los espacios euclideanos.

Más adelante…

Hemos enunciado y demostrado una versión del teorema de Riesz para espacios euclieanos. Este teorema tiene versiones más generales en el contexto de espacios de Hilbert. Así mismo, una versión más extensa del teorema de Riesz nos dice cómo es la norma del vector que representa a un producto interior. Estos resultados son muy interesantes, pero quedan fuera del alcance de este curso. Es posible que los estudies si llevas un curso de análisis funcional.

Un poco más adelante, en la Unidad 3, usaremos el teorema de representación de Riesz para definir a las transformaciones adjuntas, a las simétricas y a las ortogonales. Por ahora, nos enfocaremos en estudiar más definiciones y propiedades en espacios euclideanos. La siguiente definición que repasaremos es la de ortogonalidad para vectores y para espacios vectoriales. Es un concepto que se estudia por encima en Álgebra Lineal I, pero ahora tenemos herramientas para poder decir más.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a $\varphi_b: V \rightarrow V^*$ en la otra entrada? Es decir, como la función tal que $\varphi_b(x)=b(x,\cdot)$? Si hacemos esto, ¿cambian en algo los resultados que vimos?
  2. Considera el espacio vectorial de matrices en $M_n(\mathbb{R})$. Anteriormente vimos que $b(A,B)=\text{tr}(\text{ }^t A B)$ es un producto interior y que sacar traza es una forma lineal. De acuerdo al teorema de representación de Riesz, debe haber una matriz $T$ que representa a la traza, es decir, tal que $\text{tr}(A)=b(A,T)$. ¿Quién es esta matriz $T$? Ahora, si tomamos la transformación que manda una matriz $A$ a la suma de las entradas en su antidiagonal, esto también es una forma lineal. ¿Quién es la matriz que representa a esta forma lineal con el producto interior dado?
  3. Enuncia y demuestra un teorema de igualdad de formas matriciales para el caso de formas sesquilineales. ¿Necesitas alguna hipótesis adicional?
  4. Enuncia y demuestra un teorema de representación de Riesz para espacios hermitianos. Deberás tener cuidado, pues el vector que representa a una forma lineal tendrá que estar en la coordenada que conjuga escalares. ¿Por qué?
  5. ¿Será cierto el teorema de representación de Riesz si la forma bilineal no es un producto interior? Identifica dónde falla la prueba que dimos. Luego, construye un contraejemplo para ver que la hipótesis de que $b$ sea positiva definida es fundamental. Es decir, encuentra un espacio vectorial $V$ real con una forma bilineal simétrica y positiva $b$, en donde exista una forma lineal $l$ tal que sea imposible encontrar un vector $y$ tal que para todo $x$ en $V$ se tenga que $l(x)=b(x,y)$. Sugerencia. Parace que hay muchos cuantificadores. Intenta dar un contraejemplo lo más sencillo posible, por ejemplo, en $\mathbb{R}^2$.

Entradas relacionadas

Álgebra Lineal I: Producto interior y desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, platicamos acerca de formas bilineales y de formas cuadráticas. Ahora veremos un tipo de formas bilineales especiales: las positivas y las positivas definidas. Las formas positivas definidas nos ayudan a definir qué es un producto interior. Esta es una noción fundamental que más adelante nos ayudará a definir distancias y ángulos.

Formas bilineales positivas y positivas definidas

Para hablar de geometría en espacios vectoriales, la siguiente noción es fundamental. Es importante notar que es una definición únicamente para formas bilineales simétricas.

Definición. Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo vector $x$ de $V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo vector $x\neq 0$ de $v$.

Tenemos una noción análoga para formas cuadráticas.

Definición. Sea $q:V\to \mathbb{R}$ una forma cuadrática con forma polar $b$. Diremos que $q$ es positiva si $b$ lo es, y diremos que es positiva definida si $b$ lo es.

Ejemplo. Como ya vimos antes, el producto punto de $\mathbb{R}^n$ es una forma bilineal simétrica. También es positiva definida, pues si tenemos $x=(x_1,\ldots,x_n)$, tenemos que $$x\cdot x = x_1^2+\ldots+x_n^2\geq 0,$$ y esta es una igualdad si y sólo si $x_1=\ldots=x_n=0$, lo cual sucede si y sólo si $x=0$.

$\square$

Ejemplo. Considera $V=\mathbb{R}_2[x]$ y consideremos la forma bilineal $b$ dada por $$b(p,q)=p(0)q(1)+p(1)q(0).$$ Esta es una forma bilineal simétrica pues \begin{align*}b(p,q)&=p(0)q(1)+p(1)q(0)\\&=q(0)p(1)+q(1)p(0)\\&=b(q,p).\end{align*} Notemos que $$b(p,p)=2p(0)p(1),$$ que no necesariamente es positivo. Por ejemplo, si tomamos el polinomio $p(x)=x-\frac{1}{2}$, tenemos que \begin{align*}b(p,p)&=2p(0)p(1)\\&=-2\cdot\frac{1}{2}\cdot\frac{1}{2}\\&=-\frac{1}{2}.\end{align*} Así, esta es una forma bilineal simétrica, pero no es positiva (y por lo tanto tampoco es positiva definida).

$\square$

Problema. Considera la forma cuadrática $Q$ en $M_{2}(\mathbb{R})$ que suma el cuadrado de las entradas de la diagonal de una matriz, es decir, aquella dada por $$Q\begin{pmatrix} a & b\\c & d\end{pmatrix}=a^2+d^2.$$ Determina su forma polar y si es positiva o positiva definida.

Solución. Para encontrar la forma polar $B$ de $Q$, usamos la identidad de polarización
\begin{align*}
B&\left(\begin{pmatrix}a&b\\c&d\end{pmatrix},\begin{pmatrix} e & f\\ g & h \end{pmatrix}\right)\\
&=\frac{(a+e)^2+(d+h)^2-a^2-e^2-d^2-h^2}{2}\\
&=\frac{2ae+2dh}{2}\\
&=ae+dh.
\end{align*}

Como $Q\begin{pmatrix}a&b\\c&d\end{pmatrix}=a^2+d^2\geq 0$, tenemos que $Q$ (y $B$) son positivas. Sin embargo, $Q$ no es positiva definida (ni $B$), pues por ejemplo, $$Q\begin{pmatrix}0&1\\1&0\end{pmatrix} = 0.$$

Producto interior

Estamos listos para definir aquellos espacios sobre los que podemos hacer geometría.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$

  • Un producto interior en $V$ es una forma bilineal simétrica y positiva definida.
  • Decimos que $V$ es un espacio Euclideano si es de dimensión finita y está equipado con un producto interior.

Estamos siguiendo la convención del libro de Titu Andreescu, en donde es importante pedir que $V$ sea de dimensión finita para ser Euclideano.

Cuando estamos hablando de espacios con producto interior, o de espacios Euclideanos, tenemos una forma bilineal simétrica y positiva definida $b$. Sin embargo, en vez de usar constantemente $b(x,y)$, para simplificar la notación usaremos simplemente $\langle x, y\rangle$.

Definición. Si $V$ es un espacio con producto interior $\langle \cdot,\cdot \rangle$, definimos la norma de un vector $x$ como $$\Vert x \Vert =\sqrt{\langle x, x \rangle}.$$

Ejemplo. Como dijimos arriba, el producto punto en $\mathbb{R}^n$ es una forma bilineal simétrica, así que es un producto interior. Como $\mathbb{R}^n$ es de dimensión finita, entonces es un espacio Euclideano.

La norma de un vector $x=(x_1,\ldots,x_n)$ está dada por $\Vert x \Vert = \sqrt{x_1^2+\ldots+x_n^2},$ y geométricamente se interpreta como la distancia de $x$ al origen.

Un ejemplo más concreto es $\mathbb{R}^4$, en donde la norma del vector $(1,2,3,1)$ es $\sqrt{1^2+2^2+3^2+1^2}=\sqrt{15}$.

$\square$

La notación de producto interior quizás te recuerde la notación que se usa cuando hablamos de dualidad. Sin embargo, es muy importante que distingas los contextos. En el caso de dualidad, tenemos $$\langle \cdot, \cdot \rangle: V^\ast\times V \to \mathbb{R},$$ y en este contexto de producto interior tenemos $$\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}.$$ Más adelante, puede que te encuentres en tu preparación matemática con el teorema de representación de Riesz, a partir del cual tendrá sentido que se use la misma notación.

Desigualdad de Cauchy-Schwarz

A continuación presentamos un resultado fundamental es espacios con formas bilineales positivas y positivas definidas.

Teorema (desigualdad de Cauchy-Schwarz). Sea $b:V\times V\to \mathbb{R}$ una forma bilineal simétrica y $q$ su forma cuadrática asociada.

  • Si $b$ es positiva, entonces para todo $x$ y $y$ en $V$ tenemos que $$b(x,y)^2\leq q(x)q(y).$$ Si $x$ y $y$ son linealmente dependientes, se alcanza la igualdad.
  • Además, si $b$ es positiva definida y $x$ y $y$ son linealmente independientes, entonces la desigualdad es estricta.

Demostración. Supongamos primero solamente que $b$ es positiva. Consideremos la función $f:\mathbb{R}\to \mathbb{R}$ dada por $f(t)=q(x+ty)$. Como $q$ es forma cuadrática positiva, tenemos que $f(t)\geq 0$ para todo real $t$. Por otro lado, expandiendo y usando que $b$ es simétrica, tenemos que
\begin{align*}
f(t)&=q(x+ty)\\
&=b(x+ty,x+ty)\\
&=b(x,x)+2b(x,y)\cdot t + b(y,y) \cdot t^2\\
&=q(x) + 2b(x,y)\cdot t + q(y) \cdot t^2.
\end{align*}

En esta expresión, $q(x)$, $2b(x,y)$ y $q(y)$ son reales, así que $f(t)$ es un polinomio cuadrático en $t$. Como $f(t)\geq 0$ para todo $t$ en $\mathbb{R}$, el discriminante de este polinomio es no positivo, en otras palabras, $$(2b(x,y))^2-4q(x)q(y)\leq 0.$$

Sumando $4q(x)q(y)$ y dividiendo entre $4$ ambos lados de la desigualdad, obtenemos que $$b(x,y)^2\leq q(x)q(y),$$ la cual es la desigualdad que queremos.

Si $x$ y $y$ son linealmente dependientes, podemos despejar a uno en términos del otro. Sin perder generalidad, podemos suponer que $x=\alpha y$. En este caso, $$b(\alpha y,y)^2=\alpha^2 b(y,y)=q(\alpha(y))q(y),$$ así que se da la igualdad.

Ahora, supongamos además que $b$ es positiva definida y que se da la igualdad. Si esto sucede, el discriminante del polinomio cuadrático de arriba es igual a $0$ y por lo tanto el polinomio tiene una raíz $t$. En otras palabras, $q(x+ty)=0$. Pero como $q$ es positiva definida, esto implica que $x+ty=0$, de donde $x$ y $y$ son linealmente dependientes. Así, si $x$ y $y$ son linealmente independientes, tenemos que la desigualdad es estricta.

$\square$

El siguiente caso particular es uno de los más importantes y los más usados, por lo cual amerita que lo enunciemos separadamente.

Corolario. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior $\langle \cdot, \cdot \rangle$. Para cualesquiera $x,y$ en $V$ se cumple $|\langle x, y \rangle| \leq \Vert x \Vert \cdot \Vert y \Vert$.

Puede que te preguntes por qué enfatizamos los resultados de desigualdades. En varias partes de tu formación matemática trabajarás con espacios vectoriales en donde quieres hacer cálculo. Ahí, se define la convergencia y los límites en términos de una norma. Las desigualdades que probemos para espacios vectoriales son útiles para cuando se quiere demostrar la validez de ciertos límites. Más adelante mencionaremos algunas cosas adicionales al respecto.

Tarea moral

  • Considera la función $q(w,x,y,z)=wx+yz$. Muestra que es una forma cuadrática en $\mathbb{R}^4$. Encuentra su forma polar y determina si es una forma cuadrática positiva y/o positiva definida.
  • Muestra que $$q(w,x,y,z)=x^2+y^2+z^2+xy+yz+zx$$ es una forma cuadrática en $\mathbb{R}^4$ y determina si es positiva y/o positiva definida.
  • Considera $V=\mathcal{C}[0,1]$ el espacio vectorial de funciones continuas en el intervalo $[0,1]$. Muestra que $$\langle f,g\rangle = \int_0^1 f(x)g(x)\, dx$$ define un producto interior en $V$. ¿Es $V$ un espacio Euclideano? Determina la norma de la función $f(x)=x^3$.
  • Sea $V=\mathbb{R}_2[x]$ el espacio vectorial de polinomios con coeficientes reales y de grado a lo más $1$. Muestra que $$\langle p,q\rangle = p(0)q(0)+p(1)q(1)+p(2)q(2)$$ hace a $V$ un espacio Euclideano.

Más adelante…

En esta entrada definimos el concepto de producto interior y vimos cómo el producto interior induce una norma en el espacio vectorial. El concepto de norma nos permite generalizar la noción de distancia y esto nos permitirá ver cómo se puede hacer cálculo en espacios vectoriales.

En las siguientes entradas veremos cómo se define esta norma para diferentes espacios vectoriales con diferentes productos interiores. Podremos ver entonces cómo se generalizan otras nociones que ya hemos visto en cursos anteriores; como el concepto de ángulo.

Entradas relacionadas

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en $\mathbb{R}^n$ en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial $V$ es una transformación $b:V\times V \to \mathbb{R}$ tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si $b(x,y)=b(y,x)$ para cada par de vectores $x,y$ en $V$. Una forma cuadrática de $V$ es una transformación $q:V\to \mathbb{R}$ tal que $q(x)=b(x,x)$ para alguna forma bilineal $b$.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea $q:V\to \mathbb{R}$ una forma cuadrática. Existe una única forma bilineal simétrica $b:V\times V \to \mathbb{R}$ tal que $q(x)=b(x,x)$ para todo vector $x$. Esta forma bilineal está determinada mediante la identidad de polarización $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$

Demostración. Tomemos una forma cuadrática $q$ de $V$. Por definición, está inducida por una forma bilineal $B$ de $V$, es decir, $q(x)=B(x,x)$. Definamos la transformación $b$ mediante $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.$$ Comencemos probando que $b$ es una transformación bilineal simétrica. Notemos que:
\begin{align*}
b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\
&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\
&=\frac{B(x,y)+B(y,x)}{2}.
\end{align*}

De aquí es muy claro que $b$ es forma bilineal, pues fijando $x$, set tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $y$; y fijando $y$, se tiene que $b(x,y)$ es combinación lineal de dos formas lineales en $x$. Además, de esta igualdad (o directo de la definición de $b$) es claro que $b(x,y)=b(y,x)$.

También de esta igualdad obtenemos que $$b(x,x)=B(x,x)=q(x).$$

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica $b’$ tal que $b'(x,x)=q(x)$ debe satisfacer, como en las cuentas que hicimos arriba, que
\begin{align*}
q(x+y)&=b'(x+y,x+y)\\
&=q(x)+q(y)+b'(x,y)+b'(y,x)\\
&=q(x)+q(y)+2b'(x,y).
\end{align*}

De aquí, despejando $b’$, se obtiene que debe tener la forma de $b$.

$\square$

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática $q$ de $V$, a la única forma bilineal simétrica $b$ de $V$ tal que $q(x)=b(x,x)$ le llamamos la forma polar de $q$.

Ejemplo. En el espacio vectorial $\mathbb{R}^n$, la transformación $q:\mathbb{R}^n\to \mathbb{R}$ dada por $$q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.$$ es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a $x=(x_1,\ldots,x_n)$ y $y=(y_1,\ldots,y_n)$ a $$b(x,y)=x_1y_1+\ldots+x_ny_n.$$

Esto coincide con la construcción dada por la identidad de polarización, ya que \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

$\square$

Ejemplo. En el espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales, la transformación $Q$ dada por $$Q(p)=p(0)p(1)+p(2)^2$$ es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización
\begin{align*}
B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\
&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\
&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\
&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).
\end{align*}

$\square$

Propiedades de formas cuadráticas

Si $q$ es una forma cuadrática, $x$ es un vector y $c$ es un real, tenemos que $q(cx)=c^2q(x)$, pues sale una $c$ por cada una de las coordenadas de la forma bilineal asociada. En particular, $q(-x)=q(x)$.

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea $q$ una forma cuadrática en $V$ con forma polar $b$. Entonces:

  • Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$b(x,y)=\frac{q(x+y)-q(x-y)}{4}.$$
  • (Ley del paralelogramo) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $$q(x+y)+q(x-y)=2(q(x)+q(y)).$$
  • (Teorema de Pitágoras) Para vectores $x$ y $y$ tales que $b(x,y)=0$, se tiene que $$q(x+y)=q(x)+q(y).$$
  • (Diferencia de cuadrados) Para todo par de vectores $x$ y $y$ en $V$, se tiene que $b(x+y,x-y)=q(x)-q(y).$

Demostración. Por la identidad de polarización tenemos que $$b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},$$ y como $q(y)=q(-y)$, tenemos también por la identidad de polarización que \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores $x+y$ y $x-y$, y de usar que $q(2x)=4q(x)$ y que $q(2y)=4q(y)$.

$\square$

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial $V$ de dimensión $n$, basta tomar una base $\{e_1,\ldots,e_n\}$ de $V$ y decidir los valores $b_{ij}$ de $b(e_i,e_j)$ para $1\leq i \leq j \leq n$. Como $b$ es simétrica, para $j<i$ se tendría que $b(e_i,e_j)=b(e_j,e_i)$, es decir, que $b_{ji}=b_{ij}$.

De esta forma, para todo vector $v$ en $V$ podemos encontrar el valor de $q(v)$ expresando $v$ en la base $\{e_1,\ldots,e_n\}$, digamos, $$v=a_1e_1+\ldots+a_ne_n,$$ de donde $$q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.$$

Ejemplo. Toda forma cuadrática en $\mathbb{R}^3$ se obtiene de elegir reales $a,b,c,d,e,f$ y definir $$q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.$$ La forma polar de $q$ es la forma bilineal $B$ tal que para la base canónica $e_1,e_2,e_3$ de $\matbb{R}^3$ hace lo siguiente

\begin{align*}
B(e_1,e_1)&=a\\
B(e_2,e_2)&=b\\
B(e_3,e_3)&=c\\
B(e_1,e_2)&=B(e_2,e_1)=d\\
B(e_2,e_3)&=B(e_3,e_2)=e\\
B(e_3,e_1)&=B(e_1,e_3)=f.
\end{align*}

$\square$

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como $\mathbb{R}^n$. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales $\alpha_1,\ldots, \alpha_r$ y formas lineales $l_1,\ldots,l_r$. Consideremos $$q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.$$ Se tiene que $q$ es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes $1$ y $-1$.

Teorema (clasificación de Gauss de formas cuadráticas). Sea $q$ una forma cuadrática en $\mathbb{R}^n$. Entonces, existen enteros no negativos $r$ y $s$, y formas lineares $l_1,\ldots,l_r,m_1,\ldots,m_s$ en $(\mathbb{R}^n)^\ast$, todas ellas linealmente independientes, tales que $$q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.$$

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números $r$ y $s$ en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en $\mathbb{R}^3$ dada por $q(x,y,z)=xy+yz+zx$. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que: $$xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,$$ en donde
\begin{align*}
(x,y,z)&\mapsto \frac{2x+y+z}{2},\\
(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\
(x,y,z)&\mapsto x
\end{align*}
son formas lineales linealmente independientes.

$\square$

Tarea moral

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que $q(x,y)=3x^2-y^2+7y$ no es una forma cuadrática.
  • Muestra que si $\alpha_1,\ldots, \alpha_r$ son reales y tomamos formas lineales $l_1,\ldots,l_r$ en $\mathbb{R}^n$, entonces $$q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2$$ es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática $Q(f)=\int_{0}^1 f^2(x)\, dx$ en el espacio vectorial de funciones continuas en el intervalo $[0,1]$?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las fromas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectorias. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Entradas relacionadas

Álgebra Lineal I: Ortogonalidad y transformación transpuesta

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya estudiamos la noción de espacio dual y la de ortogonalidad. También vimos cómo a partir de la ortogonalidad podemos definir subespacios como intersección de hiperplanos. Como veremos a continuación, la ortogonalidad también nos permite definir qué quiere decir que consideremos la «transformación transpuesta» de una transformación lineal.

Antes de comenzar, vale la pena recordar también que cada transformación lineal entre espacios de dimensión finita puede ser expresada mediante una matriz que depende de la elección de bases de los espacios vectoriales. Como tal vez te imaginarás, la transformación transpuesta tendrá como matriz a la matriz transpuesta de la transformación original.

Esta intuición nos dice que hay que tener cuidado. Supongamos que estamos trabajando sobre un campo $F$. Si tenemos espacios vectoriales $V$ de dimensión $n$, $W$ de dimensión $m$ y una tranformación lineal $T:V\to W$, recordemos que, tras elegir bases, $T$ está representada por una matriz $A$ en $M_{m,n}(F)$, es decir, con $m$ filas y $n$ columnas.

Pero la matriz transpuesta $^t A$ es de $n$ filas y $m$ columnas, así que típicamente no representará a una transformación de $V$ a $W$, pues las dimensiones no necesariamente coinciden. Podríamos intentar construir una transformación de $W$ a $V$ para que las dimensiones coincidan, pero resulta que esto no es «tan natural», por razones en las que no profundizaremos.

Lo que sí resulta muy natural y fácil de definir es una transformación de $W^\ast$ a $V^\ast$, lo cual tendrá sentido pues ya probamos que $\dim W^\ast = \dim W$ y $\dim V^\ast = \dim V$, así que será representada por una matriz en $M_{n,m}$. Es un poco más difícil conceptualmente, pero las consecuencias matemáticas son más bonitas y útiles. Sin decir más, comenzamos con la teoría.

Definición y ejemplo de transformación transpuesta

Para definir «transformación transpuesta», le hacemos como sigue.

Definición. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$ y sea $T:V\to W$ una transformación lineal. Definimos la transformación transpuesta de $T$, como la transformación $^tT:W^\ast \to V^\ast$ tal que a cada forma lineal $l$ en $W^\ast$ la manda a la forma lineal $^tT(l)$ en $V^\ast$ para la cual $$(^tT(l))(v)=l(T(v)).$$

Otra forma de escribir a la definición es mediante la notación de emparejamiento canónico: $$\langle ^tT(l),v\rangle=\langle l, T(v)\rangle.$$

Veamos un ejemplo para entender mejor la definición.

Ejemplo. Considera a $V=M_{2}(\mathbb{R})$ y $W=\mathbb{R}^2$. Considera la transformación lineal $T:V\to W$ dada por $$T\begin{pmatrix} a& b\\ c&d\end{pmatrix}=(a+b,c+d).$$

La transformación $^t T$ va a mandar a una forma lineal $l$ de $W$ a una forma lineal $^tT(l)$ de $V$. Las formas lineales $l$ en $W$ se ven de la siguiente forma $$l(x,y)=rx+sy.$$ La forma lineal $^tT(l)$ en $V$ debe satisfacer que $^tT(l)=l\circ T$. En otras palabras, para cualquier matriz $\begin{pmatrix} a& b\\ c&d\end{pmatrix}$ se debe tener
\begin{align*}
(^t T(l)) \begin{pmatrix} a& b\\ c&d\end{pmatrix} &= l(a+b,c+d)\\
&=r(a+b)+s(c+d)\\
&=ra+rb+sc+sd.
\end{align*}

Si tomamos la base canónica $E_{11}$, $E_{12}$, $E_{21}$, $E_{22}$ de $V$ y la base canónica $e_1,e_2$ de $W$, observa que la transformación $T$ tiene como matriz asociada a la matriz $$\begin{pmatrix} 1 & 1 & 0 & 0\\ 0 & 0 & 1 & 1\end{pmatrix}$$ (recuerda que se obtiene poniendo como columnas a los vectores coordenada de las imágenes de la base).

Por otro lado, los vectores de la base dual $e_1^\ast$ y $e_2^\ast$ «leen las coordenadas», de modo que $e_1^\ast(x,y)=x$ y $e_2^\ast(x,y)=y$. Por lo que vimos arriba, $(^t T)(e_1)$ es entonces la forma lineal $a+b$ y $(^t T)(e_2)$ es la forma lineal $c+d$. En términos de la base dual en $V^\ast$, estos son $E_{11}^\ast + E_{12}^\ast$ y $E_{21}^\ast+ E_{22}^\ast$ respectivamente. De esta forma, la transformación $^t T$ tiene matriz asociada $$\begin{pmatrix}1&0\\1&0\\0&1\\0&1\end{pmatrix}.$$

$\square$

Nota que en el ejemplo la transformación transpuesta tiene como matriz a la matriz transpuesta de la transformación original. Esto es algo que queremos que pase siempre, y más abajo lo demostramos.

Propiedades básicas de transformación transpuesta

Observa que la definición no necesita que $V$ y $W$ sean de dimensión finita. A continuación enunciamos y probamos algunos resultados que se valen también en el contexto de dimensión infinita.

Teorema 1. Tomemos $V$,$W$,$Z$ espacios vectoriales sobre un campo $F$ y $c$ en $F$. Sean $T_1,T_2: V \to W$ transformaciones lineales. Sea $T_3:W\to Z$ una transformación lineal. Se cumple todo lo siguiente:

  1. $^tT_1$ es una transformación lineal.
  2. $^t(T_1+cT_2)= {^tT_1} + c^tT_2$.
  3. $^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3$.
  4. Si $V=W$ y $T_1$ es invertible, entonces $^t T_1$ también lo es y $(^t T_1)^{-1}= {^t (T_1^{-1})}$.

Para tener un poco más de intuición, observa cómo estas propiedades son análogas a las de transposición para matrices.

Demostración. Las partes 1 y 2 se demuestran usando cuidadosamente las definiciones. Haremos la demostración de $1$ y la demostración de $2$ queda como tarea moral. Para probar $1$, necesitamos probar que $^tT_1:W^\ast \to V^\ast$ es lineal, así que tomemos $l_1$, $l_2$ en $W^\ast$ y $a$ un escalar en $F$. Tenemos que demostrar que $$ ^tT_1(l_1+a l_2)= {^tT_1(l_1)}+ a ^tT_1(l_2).$$

Ésta es una igualdad de formas lineales en $V^\ast$, y para mostrar su validez tenemos que mostrar que se vale en cada $v\in V$. Por un lado,
\begin{align*}
^tT_1(l_1+a l_2)(v) &= (l_1+a l_2)(T_1(v))\\
&=l_1(T_1(v))+a l_2(T_1(v)).
\end{align*}

Por otro lado,
\begin{align*}
(^tT_1(l_1)+ a ^tT_1(l_2))(v)&= {^tT_1(l_1)(v)}+ a ^tT_1(l_2)(v)\\
&= l_1(T_1(v)) + a l_2(T_1(v)).
\end{align*}

En ambos casos obtenemos el mismo resultado, así que $^tT_1(l_1+a l_2)$ y $^tT_1(l_1)+ a ^tT_1(l_2)$ son iguales, mostrando que $^t T_1$ es lineal.

Pasemos a la parte 3. La igualdad $^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3$ es una igualdad de transformaciones de $Z^\ast$ a $V^\ast$. Para verificar su veracidad, hay que ver que son iguales en cada elemento en su dominio. Tomemos entonces una forma lineal $l$ en $Z^\ast$. Queremos verificar la veracidad de $$ ^t(T_3\circ T_1)(l) = (^t T_1 \circ ^t T_3)(l),$$ que es una igualdad de formas lineales en $V^\ast$, de modo que tenemos que verificarla para cada $v$ en $V$. Por un lado,

\begin{align*}
^t(T_3\circ T_1)(l)(v)&=l((T_3\circ T_1)(v))\\&=l(T_3(T_1(v))),
\end{align*}

Por otro,
\begin{align*}
(^t T_1 \circ ^t T_3)(l)(v)&=(^tT_1(^t T_3 (l)))(v)\\&=(^t T_3 (l))(T_1(v))\\&=l(T_3(T_1(v))).
\end{align*}

En ambos casos obtenemos el mismo resultado.

Para la parte 4 basta notar que si $V=W$ y $T_1$ es invertible, entonces tiene una inversa $S:V\to V$, y por la parte $3$ tenemos que $$^t S\circ ^t T_1 = {^t(T_1\circ S)} = {^t \text{Id}_V} = \text{Id}_{V^\ast},$$

mostrando que $^t T_1$ tiene inversa $^tS$. Observa que estamos usando que la transpuesta de la transformación identidad es la identidad. Esto no lo hemos probado, pero lo puedes verificar como tarea moral.

$\square$

La matriz transpuesta es la matriz de la transformación transpuesta

Cuando estamos trabajando en espacios de dimensión finita, podemos mostrar que la matriz que le toca a la transformación transpuesta es precisamente la transpuesta de la matriz que le toca a la transformación original. Hacemos esto más preciso en el siguiente resultado.

Teorema 2. Sea $T:V\to W$ una transformación lineal entre espacios de dimensión finita y $B$ y $B’$ bases de $V$ y $W$ respectivamente. Si $A$ es la matriz de $T$ con respecto a $B$ y $B’$, entonces $^t A$ es la matriz de la transformación $^t T:W^\ast \to V^\ast$ con respecto a las bases duales $B’^\ast$ y $B^\ast$.

Demostración. Necesitamos definir algo de notación. Llamemos $n=\dim V$, $m=\dim W$, $B=\{b_1,\ldots, b_n\}$, $B’=\{c_1,\ldots, c_m\}$ y $A=[a_{ij}]$. Recordemos que la matriz $A$ está hecha por las coordenadas de las imágenes de la base $B$ en términos de la base $B’$, es decir, que por definición tenemos que para toda $j=1,\ldots, n$: \begin{equation}T(b_j)=\sum_{i=1}^{m} a_{ij} c_i.\end{equation}

La transformación $^t T:W^\ast \to V^\ast$ va de un espacio de dimensión $m$ a uno de dimensión $n$, así que en las bases $B’^\ast$ y $B^\ast$ se puede expresar como una matriz de $n$ filas y $m$ columnas. Afirmamos que ésta es la matriz $^t A$. Para ello, basta mostrar que las coordenadas de las imágenes de la base $B’^\ast$ en términos de la base $B^\ast$ están en las filas de $A$, es decir, que para todo $i=1, \ldots, m$ tenemos que $$^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast.$$

La anterior es una igualdad de formas lineales en $V^\ast$, de modo que para ser cierta tiene que ser cierta evaluada en todo $v$ en $V$. Pero por linealidad, basta que sea cierta para todo $b_j$ en la base $B$. Por un lado, usando (1),

\begin{align*}
^tT(c^\ast_i)(b_j)&=c^\ast_i(T(b_j))\\
&=c^\ast_i \left(\sum_{k=1}^{m} a_{kj} c_i\right)\\
&=\sum_{k=1}^{m} a_{kj} c^\ast_i(c_k)\\
&=a_{ij},
\end{align*}

en donde estamos usando que por definición de base dual $c_i^\ast (c_i)= 1$ y $c_j^\ast (c_i)=0$ si $i\neq j$. Por otro lado,

\begin{align*}
\left(\sum_{k=1}^{n} a_{ik} b_k^\ast\right)(b_j)&= \sum_{k=1}^{n} a_{ik} b_k^\ast(b_j)\\
&=a_{ij},
\end{align*}

en donde estamos usando linealidad y la definición de base dual para $B$.

Con esto concluimos la igualdad $$^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast,$$ que muestra que podemos leer las coordenadas de las evaluaciones de $^t T$ en $B’^\ast$ en términos de la base $B^\ast$ en las filas de $A$, por lo tanto podemos leerlas en las columnas de $^t A$. Esto muestra que $^t A$ es la matriz correspondiente a esta transformación en términos de las bases duales.

$\square$

Kernel e imagen de la transformación transpuesta

Finalmente, el siguiente resultado nos habla acerca de cómo están relacionadas las transformaciones transpuestas y la ortogonalidad.

Teorema 3. Sea $T:V\to W$ una transformación lineal entre espacios vectoriales de dimensión finita. Entonces

$$\ker (^t T) = (\Ima (T))^\bot,\quad \ker (T)=(\Ima (^t T))^\bot$$

y

$$\Ima (^t T) = (\ker(T))^\bot\,\quad \Ima (T)=(\ker(^t T))^\bot.$$

Demostración. Demostraremos la igualdad $\ker (^t T) = (\Ima (T))^\bot$. Notemos que $l \in \ker(^t T)$ si y sólo si $(^t T)(l)=0$, lo cual sucede si y sólo si $l\circ T = 0$. Pero esto último sucede si y sólo si para todo $v$ en $V$ se tiene que $l(T(v))=0$, que en otras palabras quiere decir que $l(w)=0$ para todo $w$ en $\Ima (T)$. En resumen, $l\in \ker(^t T)$ pasa si y sólo si $l$ se anula en todo $\Ima (T)$ es decir, si y sólo si está en $(\Ima (T))^\bot$.

El resto de las igualdades se demuestran de manera análoga, o alternativamente, usando la bidualidad canónica. Es un buen ejercicio hacerlo y se deja como tarea moral.

$\square$

Tarea moral

  • Muestra que la transpuesta de la transformación lineal $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T(x,y)=T(7x+8y,6x+7y)$ es invertible. Encuentra a su transpuesta y a la inversa de la transpuesta explícitamente.
  • Muestra la parte $2$ del Teorema 1.
  • Muestra que la transpuesta de la transformación identidad es la identidad.
  • Demuestra el resto de las igualdades del Teorema 3.
  • Encuentra la transpuesta de la transformación traza que va de $M_n(\mathbb{R})$ a los reales. Recuerda que esta transformación manda a una matriz $A=[a_{ij}]$ a la suma de sus entradas en la diagonal principal, es decir $$A\mapsto a_{11}+a_{22}+\ldots+a_{nn}.$$

Más adelante…

En esta entrada enunciamos un resultado muy importante: deda una transformación lineal $T$, su transformación transpuesta tiene como matriz asociada la matirz transpuesta de la matriz asociada de $T$. Este resultado nos permitirá calcular fácilmente la transpuesta de una transformación, como veremos en la entrada de problemas de este tema.

En la siguiente entrada del blog hablaremos por primera vez de formas bilineales: vamos a ver cómo nuestra discusión de transformaciones lineales facilitará mucho abordar este tema.

Entradas relacionadas