Álgebra lineal II: El grupo ortogonal

Introducción

En la entrada anterior defimos las transformaciones ortogonales y probamos algunas propiedas de éstas, relacionadas con el producto interior, la norma y la transformación adjunta de una trasnformación ortogonal cualquiera. En esta ocasión no encargaremos, de manera más general, de estudiar al conjunto de todas las transformaciones lineales ortogonales definidas sobre un espacio euclidiano $V$, de clasificarlas y de estudiar el caso de dimensión $2$.

Teorema. El conjunto de las transformaciones ortogonalles sobre un espacio euclidiano $V$ forma un grupo bajo composición. En otras palabras, la composición de dos transformaciones ortogonales es una transformación ortogonal y la inversa de una transformación ortogonal es una transformación ortogonal.

Demostración. Sean $T_1,T_2$ transformaciones lineales ortogonales, entonces $T_1\circ T_2$ es lineal y además
$$||T_1\circ T_2(x)||=||T_1(T_2(x))||=||T_2(x)||=||x||$$
para todo $x\in V$ y por lo tanto $T_1\circ T_2$ es una transformación lineal ortogonal.

Análogamente tenemos que si $T$ es ortogonal, entonces
$$||x||=||T(T^{-1}(x))||=||T^{-1}(x)||$$
para todo $x\in V$.

$\square$

Definición. El grupo $O(V)$ es el grupo de transformaciones ortogonales (o isometrías) de $V$ y se conoce como el grupo ortogonal de $V$. Es el grupo de automorfimos de un espacio euclidiano $V$ y juega un papel muy importante al momento de entender al espacio $V$.

Problema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Demuestra que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Demuestra que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Ahora tomamos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T$ es estable bajo $T^{-1}$, entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$, que es lo que queríamos demostrar.

2. Sea $T_1:=T|_W$, entonces para todo $x\in W$ se tiene que
$$||T_1(x)||=||T(x)||=||x||,$$
lo que significa que $T_1\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

Clasificación

En esta sección nos encargaremos de clasificar las transformaciones ortogonales de un espacio euclidiano en términos de transformaciones simples. La demostración requiere dos lemas que daremos a continuación:

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta o un plano en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $P$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$. Ahora supongamos que $P$ no tiene raíces reales. Sea $z$ una raíz compeja de $P$, como $P$ teien coeficientes reales, entonces $\overline{z}$ también es raíz de $P$ y por lo tanto $Q=(x-z)(x-\overline{z})$ divide a $P$. Más aún, $Q(T)$ no es invertible, pues si lo fuera, entonces $\frac{P}{Q}$ sería un polinomio de grado menor que anula a $T$. Por lo tanto existe $x\in V$ no nulo tal que $Q(T)(x)=0$. Esto se puede escribir como $T^2(x)+aT(x)+bx=0$ para algunos reales $a,b$. se sigue que el subespacio generado por $x$ y $T(x)$ es un plano estable bajo $T$, lo cual termina con la demostración.

$\square$

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin valores propios reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $B=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2+||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$. El complemento ortogonal de $T(e_1)$ está dado por la recta $\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$. Como $\langle T(e_1),T(e_2) \rangle=\langle e_1,e_2 \rangle=0$, de donde $T(e_2)\in\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$ y por lo tanto
$$T(e_2)=c(-\sin\theta e_1 + \cos \theta e_2)$$ para algún número real $c$. Como $$||T(e_2)||=||e_2||=1, $$ se sigue que $|c|=1$ y así $c\in \{-1,1\}$. Veremos que $c$ no puede ser igual a $-1$, pues si $c=-1$, entonces la matriz de $T$ con respecto a a$B$ es
$$A=\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix}$$
cuyo polinomio caracterísitco es $x^2-1$, el cual tiene una raíz real, lo cual es absurdo.
Por lo tanto la matriz asociada a $T$ con respecto a la base $B$ es
$$A=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema. (De clasificación) Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $B$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $B$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$.
Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$. Supongamos que $\dim V\geq 2$ y que el resultado se satisface para $n-1$.
Supongamos que $T$ tiene un eigenvalor real $t$ con eigenvector $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W=\mathbb{R}e_1$, entonces $W$ es estable bajo $T$, por la tanto $W^\bot$ es estable bajo $T$ (pues $T$ es ortogonal). Más aún, la restricción de $T$ a $W^\bot$ es una transformación ortogonal ya que $||T(x)||=||x||$ para toda $x\in V$, por lo tanto también para cualquier $x\in W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ y posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales. El primer lema nos dice que podemos encontrar un subespacio de dimensión $2$ estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el segundo lema, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual conlcuimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$, como $\det R_{\theta_i}=1$ para $1\leq i\leq k$. Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Definición. Diremos que una isometría $T$ es una isometría positiva si $\det T=1$. Por otro lado, diremos que $T$ es una isometría negativa si $\det T=-1$ En términos geométricos, las isometrías positivas preservan la orientación del espacio, mientras que las isometrías negativas la invierten.

Definición. Sea $B=\{e_1,\dots,e_n\}$ una base ortonormal de un espacio euclidiano $V$. Si $B’=\{f_1,\dots,f_n\}$ es otra base ortonormal de $V$, entonces la matriz de cambio de base de $B$ a $B’$ es ortogonal y por lo tanto $\det P\in\{-1,1\}$. Diremos que $B’$ está orientada positivamente con respecto a $B$ si $\det P=1$ y conversamente diremos que $B’$ está orientada negativamente con respecto a $B$ si $\det P=-1$.

Si $V=\mathbb{R}^n$ está equipado con el producto interior usual, entonces siempre tomamos como $B$ a la base canónica y sólo decimos que una base ortonormal es positiva o negativa.

Observación. El polinomio característo de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es
$$(x-1)^p(x+1)^q\cdot\displaystyle\prod_{i=1}^k (x^2-2\cos\theta_i x+1).$$
Las raíces complejas del polinomio $x^2-2\cos\theta_i x+1$ son $e^{i\theta}$ y $e^{-i\theta}$, y tienen modulo $1$. Por lo tanto, todos los eigenvalores complejos de una matriz ortogonal tienen módulo $1$.

Estudiando el grupo ortogonal en dimensiones pequeñas

Empezamos analizando el caso de dimensión $2$. Sea $A\in M_2(\mathbb{R})$ una matriz dada por
$$A=\begin{pmatrix}
a & b\\
c & d\end{pmatrix}$$ que satisface $A^tA=I_2$. Sabemos que $\det A\in\{-1,1\}$, así que consideramos ambos casos.

Si $\det A=1$, entonces la inversa de $A$ simplemente es
$$A^{-1}=\begin{pmatrix}
d & -b\\
-c & a\end{pmatrix}$$
y como $A$ es ortogonal, entonces $A^{-1}=\hspace{.5mm}^tA$, por lo que $a=d$ y $b=-c$, lo que nos dice que $A$ es de la forma
$$A=\begin{pmatrix}
a & -c\\
c & a\end{pmatrix}.$$
Más aún, tenemos que $a^2+c^2=1$, por lo que existe un único $\theta\in(-\pi,\pi]$ tal que $A=\cos\theta$ y $c=\sin\theta$. Por lo tanto
$$A=R_{\theta}=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta \end{pmatrix}.$$
La transformación lineal correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (\cos\theta x – \sin\theta y, \sin\theta x+ \cos\theta y)
\end{align*}
y geométricamente corresponde a una rotación de ángulo $\theta$. Además
\begin{equation}\label{rot}
R_{\theta_1}\cdot R_{\theta_2}=R_{\theta_1+\theta_2}=R_{\theta_2}\cdot R_{\theta_1}.
\end{equation}
Una consecuencia importante es que la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ aún es $R_\theta$, pues la matriz de cambio de base de la base canónica a la nueva base ortonormal positiva sigue siendo una rotación. Análogamente, si en el argumento anterior tomamos una base ortonormal negativa, entonces la matriz asociada a $T$ es $R_{-\theta}$. La relación \eqref{rot} también muestra que para calcular el ángulo de la composición de dos rotaciones basta con tomar la suma de los ángulos y restar un múltiplo adecuado de $2\pi$ tal que el ángulo obtenido quede en el intervalo $(-\pi,\pi]$.

Si $\det A=-1$. Entonces
$$A^{-1}=\begin{pmatrix}
-d & b\\
c & -a\end{pmatrix}$$ y como $A$ es ortogonal, entonces $d=-a$ y $b=c$. También tenemos que $a^2+b^2=1$, por lo que existe un único número real $\theta\in(-\pi,\pi]$ tal que $a=\cos\theta$ y $b=\sin\theta$. Entonces
$$A=S_\theta:=\begin{pmatrix}
\cos\theta & \sin\theta\\
\sin\theta & -\cos\theta \end{pmatrix}.$$
Notemos que $S_\theta$ es simétrica y ortogonal, por lo tanto $S_\theta^2=I_2$ y que la transformación correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (cos\theta x+\sin\theta y, \sin \theta x-\cos\theta y)
\end{align*}
es una simetría ortogonal. Para encontrar la recta con respecto a la cual $T$ es una simetría ortogonal, bastará con resolver el sistema $AX=X$. El sistema es equivalente a
$$\sin\left(\frac{\theta}{2}\right)\cdot x=\cos \left(\frac{\theta}{2}\right)\cdot y$$ y por lo tanto la recta $AX=X$ está generada por el vector
$$e_1=\left( \cos\left(\frac{\theta}{2}\right), \sin\left(\frac{\theta}{2}\right) \right)$$ y la correspondiente recta ortogonal está generada por el vector
$$e_2=\left(-\sin\left(\frac{\theta}{2}\right),\cos\left(\frac{\theta}{2}\right)\right),$$
y los vectores $e_1,e_2$ forman una base ortonormal de $\mathbb{R}^2$ para la cual la matriz asociada a $T$ es
$$\begin{pmatrix}
1 & 0\\
0 & -1\end{pmatrix}$$
y además $$S_{\theta_1}\cdot S_{\theta_2}=R_{\theta_1-\theta_2}$$
lo que significa que la composición de dos simetrías ortogonales es una rotación. Similarmente tenemos que
$$S_{\theta_1}R_{\theta_2}\hspace{3mm} R_{\theta_1}S_{\theta_2}=S_{\theta_1+\theta_2},$$
por lo que la composición de una rotación y una simetría ortogonal es una simetría ortogonal.

Gracias a todo lo anterior, estamos listos para enunciar el siguiente teorema:

Teorema. Sea $A\in M_2(\mathbb{R})$ una matriz ortogonal.

  1. Si $\det A=1$, entonces
    $$A=R_\theta=\begin{pmatrix}
    \cos\theta & -\sin\theta\\
    \sin\theta &\cos\theta\end{pmatrix}$$
    para único número real $\theta\in(-\pi,\pi]$, y la correspondiente transformación lineal $T$ sobre $\mathbb{R}^2$ es una rotación de ángulo $\theta$. Cualesquiera dos matrices de esa forma conmutan y la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ es $R_\theta$.
  2. Si $\det A=-1$, entonces
    $$A=S_\theta=\begin{pmatrix}
    \cos\theta & \sin\theta\\
    \sin\theta &-\cos\theta\end{pmatrix}$$
    para un único número real $\theta\in(-\pi,\pi]$. La matriz $A$ es simétrica y la correspondiente transformación lineal sobre $\mathbb{R}^2$ es la simetría ortogonal con respecto a la recta generada por el vector $\left(\cos\left(\frac{\theta}{2}\right),\sin\left(\frac{\theta}{2}\right)\right)$.


Tarea moral

  • Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ siempre que $||x||=1$.
  • Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  • Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.

8 comentarios en “Álgebra lineal II: El grupo ortogonal

  1. Rodrigo Seels

    Hola:

    En ´la demostración del lema que va sobre la matriz rotación, ¿no habría que verificar que c=1?Pregunto porque, si no me equivoco, si c=-1 entonces los signos de la segunda columna de la matriz R serían los contrarios.

    Gracias.

    Responder
  2. Rodrigo Seels

    Buen día:

    En el caso «detA=-1» de la parte de «Estudiando el grupo ortogonal en dimensiones pequeñas», ¿cómo sabemos que T es simétrica?

    Gracias.

    Responder
    1. Ayax Calderón Autor

      Porque su matriz asociada es
      $$\begin{pmatrix}
      \cos\theta & \sin\theta\\
      \sin\theta & -\cos\theta\end{pmatrix},$$ que es simétrica.

      Responder
    2. Ayax Calderón Autor

      Otra forma de convencerte de que T es simétrica es verificar que la igualdad
      $$\langle T(x,y),(a,b)\rangle=\langle (x,y),T(a,b) \rangle$$ es cierta.

      Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.