Álgebra lineal II: Isometrías reales

Introducción.

En entradas anteriores hemos estudiado transformaciones lineales que preservan las estructuras entre su dominio y contra dominio. El siguiente paso es estudiar las transformaciones lineales entre espacios euclidianos que preservan las distancias. Veremos que esta condición garantiza que la transformación en cuestión preserva el producto interior de un espacio a otro.

Definición. Sean $V_1,V_2$ espacios euclidianos con productos interiores $\langle , \rangle_1$ y $\langle , \rangle_2$, y con correspondientes normas $||\cdot||_1$ y $||\cdot||_2$. Una isometría entre $V_1$ y $V_2$ es un isomorfismo entre $\mathbb{R}$-espacios vectoriales $T:V_1\to V_2$ tal que para cualesquiera $x,y\in V_1$ $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$


Por lo tanto, una isometría es una transformación lineal biyectiva que preserva el producto interior. El siguiente problema nos d a una mejor idea de esta preservación:

Problema. Sean $V_1$ y $V_2$ espacios euclidianos, y $T:V_1\to V_2$ una transformación lineal. Demuestra que las siguientes afirmaciones son equivalentes:

  1. $\langle T(x),T(y) \rangle_2 = \langle x,y \rangle_1 $ para cualesquiera $x,y\in V_1$.
  2. $||T(x)||_2=||x||_1$.

Solución. Supongamos que 1. es cierto. Entonces tomando $y=x$ se obtiene
$$||T(x)||_2^2=||x||_1^2$$ y por lo tanto $||T(x)||_2=||x||_1$, lo cual muestra el inciso 2.

Si 2. es cierto, usando la identidad de polarización y la linealidad de $T$, podemos mostrar que
\begin{align*}
\langle T(x), T(y) \rangle_2 &=\frac{||T(x)+T(y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&= \frac{||T(x+y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&=\frac{||x+y||_2^2-||x||_2^2 – ||y||_2^2}{2}=\langle x,y \rangle_1,
\end{align*} lo cual muestra 1.

$\square$

Observación. Si $T$ es una transformación como la del problema anterior, entonces $T$ es automáticamente inyectiva: si $T(x)=0$, entonces $||T(x)||_2=0$, de donde $||x||_1=0$ y por lo tanto $x=0$.

Definición. a) Sea $V$ un espacio euclidiano. Diremos que una transformación lineal $T:V\to V$ es ortogonal si $T$ es una isometría de $V$ en $V$. En otras palabras, $T$ es ortogonal si $T$ es biyectiva y para cualesquiera $x,y\in V$ $$\langle T(x), T(y) \rangle = \langle x,y \rangle.$$
Nota que la biyectividad de $T$ es consecuencia de la relación anterior, gracias a la observación. Por lo tanto $T$ es ortogonal si y sólo si $T$ preserva el producto interior.

b) Diremos que una matriz $A\in M_n(\mathbb{R})$ es ortogonal si
$$A^tA=I_n.$$

Observación. a) Considera a $\mathbb{R}^n$ con su producto interior canónico, y una matriz $A\in M_n(\mathbb{R})$. $A$ es ortogonal si y sólo si la transformación lineal
\begin{align*}
\mathbb{R}^n &\to \mathbb{R}^n\\
x&\mapsto Ax
\end{align*} es ortogonal.

b) Una transformación lineal $T$ es ortogonal si y sólo si $$||T(x)||=||x||\hspace{1.5mm}\forall x\in V.$$ Por lo tanto, una matriz $A\in M_n(\mathbb{R})$ es ortogonal si y sólo si $$||Ax||=||x||\hspace{1.5mm} \forall x\in \mathbb{R}^n.$$

Un ejemplo importante

Una clase importante de transformaciones ortogonales es la de las simetrías ortogonales. Sea $V$ un espacio euclidiano y $W$ un subespacio de $V$. Entonces $V=W\oplus W^\bot$, por lo que podemos definir la simetría $s_W$ sobre $W^\bot$ con respecto a $W$. Recuerda que cualquier $v\in V$ se puede escribir como $v=w+w^\bot$, con $(w,w^\bot)\in W\times W^\bot$, entonces $$s_W(v)=w-w^\bot,$$ de manera que $s_W$ fija puntualmente a $W$ y $-s_W$ fija puntualmente a $W^\bot$.

Para garantizar que $s_W$ es una transformación ortogonal, bastará con verificar que $||s_W(v)||=||v||$ para todo $v\in V$, o equivalentemente
$$||w-w^\bot||=||w+w^\bot|| \hspace{1.5mm}\forall (w,w^\bot)\in W\times W^\bot.$$ Pero por el teorema de Pitágoras se tiene que si elevemos ambos lados a cuadrado se obtiene $||w||^2+||w^\bot||^2$ y se sigue el resultado deseado.

Las simetrías ortogonales se pueden distinguir fácilmente entre las transformaciones ortogonales, pues estas son precisamente las transformaciones ortogonales auto-adjuntas.

Equivalencias

Volviendo al contexto general de matrices ortogonales vemos que para una matriz $A\in M_n(\mathbb{R})$ ortogonal, si $R_1,\dots,R_n$ son las filas de $A$, la relación
$$A^tA=I_n$$ es equivalente a


$\langle R_i,R_j\rangle=0$ si $i\neq j$, $||R_i||^2=1$ para $1\leq i\leq n.$


Dicho de otra forma, $A$ es una matriz ortogonal su y solo si sus filas forman una base ortonormal de $\mathbb{R}^n$. También cabe mencionar que $A$ es ortogonal si y sólo si $^tA$ es ortogonal. Por lo tanto, hemos probado el siguiente teorema:

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz y considera a $\mathbb{R}^n$ con el producto interior canónico. Las siguientes afirmaciones son equivalentes:

  1. $A$ es ortogonal.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  4. Para cualquier $x\in\mathbb{R}^n$ se tiene $$||Ax||=||x||.$$

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  3. $||T(x)||=||x||$ para cualquier $x\in V$.
  4. $T^*\circ T=Id$.

Demostración.

Por definción 1. implica 2. que a su vez es equivalente a 3.
Si 2. se satisface, entonces
\begin{align*}
\langle T^*\circ T(x)-x,y \rangle&=\langle y, T^*(T(x)) \rangle-\langle x,y \rangle\\
&= \langle T(x),T(y) \rangle – \langle x,y \rangle=0
\end{align*} para cualesquiera $x,y \in V$ y por lo tanto $T^*(T(x))=x$, lo que prueba 4.
Sólo nos falta probar que 4. implica 1. Si 4. se satisface, entonces $T$ es biyectiva, con inversas $T^*$, por lo que bastará con verificar que 2. se satisface. Como 2. es equivalente a 3. bastará con verificar
$$||T(x)||^2=\langle T(x),T(x) \rangle =\langle x,T^*(T(x)) \rangle=\langle x,x \rangle=||x||^2$$ para cualquier $x\in V$. Se concluye el resultado deseado.

$\square$

Caracterización sobre bases ortonormales

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una tranformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. Para cualquier base ortonormal $e_1,\dots ,e_n$ de $V$, los vectores $T(e_1),\dots ,T(e_n)$ forman una base ortonormal de $V$.
  3. Existe una base ortonormal de $e_1,\dots ,e_n$ de $V$ tal que $T(e_1),\dots ,T(e_n)$ es una base ortonormal de $V$.

Solución. Supongamos que 1. es cierto y sea $e_1,\dots ,e_n$ una base ortonormal de $V$. Entonces para cada $i,j\in[1,n]$ tenemos
$$\langle T(e_i),T(e_j) \rangle =\langle e_i,e_j \rangle.$$
Se sigue que $T(e_1),\dots ,T(e_n)$ es una familia ortonormal, y como $dim V=n$, entonces es una base ortonormal de $V$. Entonces 1. implica 2. y claramente 2. implica 3.
Supongamos que 3. es cierto. Sea $x\in V$ y escribamos $x=x_1e_1+x_2e_2+\dots +x_ne_n$. Como $e_1,\dots ,e_n$ y $T(e_1),\dots ,T(e_n)$ son bases ortonormales de $V$, tenemos
$$||T(x)||^2=||x_1T(e_1)+\dots +x_nT(e_n)||^2=x_1^2+\dots +x_n^2=||x||^2.$$
Por lo tanto $||T(x)||=||x||$ para todo $x\in V$ y $T$ es ortogonal.

$\square$

Tarea moral

  • Demuestra que la matriz
    $$A=\begin{pmatrix}
    \frac{3}{5} & \frac{4}{5}\\
    -\frac{4}{5} & \frac{3}{5}
    \end{pmatrix}$$ es ortogonal.
  • Sea $e_1,\dots ,e_n$ una base ortnormal de un espacio euclidiano $V$ y sea $e_1′,\dots ,e_n’$ otra base de $V$. Sea $P$ la matriz de cambio de base de $e_1,\dots ,e_n$ a $e_1′,\dots ,e_n’$. Demuestra que $e_1′,\dots ,e_n’$ es ortonormal si y sólo si $P$ es ortogonal.
  • Demuestra que la composición de transfromaciones ortogonales es ortogonal.

3 comentarios en “Álgebra lineal II: Isometrías reales

    1. Ayax Calderón Autor

      Hola Rodrigo,

      Una transformación auto adjunta es una transformación que es su propia adjunta. La definicón formal la puedes encontrar en la entrada de transformaciones adjuntas.

      Responder
  1. Sebastian

    Hola, no estoy muy seguro del por que la inyectividad asegura la biyetividad. A mi parecer como T es inyectiva, si le damos de comer una base de V, esta base debe ir a un conjunto linealmente independiente, con tantos elementos como la dimensión de V, y como T va de V en V, entonces la base va a otra base (conjunto linealmente independiente y con dim (V) elementos, debe ser base según Steinitz), de modo que podemos generar a cualquier elemento de V usando T(e1), …,T(e_n) como base, asi T es suprayectiva, pero me parece que es un argumento muy largo, y podría tener algún error.

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.