Archivo de la etiqueta: grupo ortogonal

Álgebra Lineal II: Problemas de isometrías y grupo ortogonal

Introducción

Un ejemplo importante de transformaciones ortogonales

Una clase importante de transformaciones ortogonales es la de las simetrías ortogonales. Sea $V$ un espacio euclidiano y $W$ un subespacio de $V$. Entonces $V=W\oplus W^\bot$, por lo que podemos definir la simetría $s_W$ sobre $W^\bot$ con respecto a $W$. Recuerda que cualquier $v\in V$ se puede escribir como $v=w+w^\bot$, con $(w,w^\bot)\in W\times W^\bot$, entonces $$s_W(v)=w-w^\bot,$$ de manera que $s_W$ fija puntualmente a $W$ y $-s_W$ fija puntualmente a $W^\bot$.

Para garantizar que $s_W$ es una transformación ortogonal, bastará con verificar que $||s_W(v)||=||v||$ para todo $v\in V$, o equivalentemente
$$||w-w^\bot||=||w+w^\bot|| \hspace{1.5mm}\forall (w,w^\bot)\in W\times W^\bot.$$ Pero por el teorema de Pitágoras se tiene que si elevemos ambos lados a cuadrado se obtiene $||w||^2+||w^\bot||^2$ y se sigue el resultado deseado.

Las simetrías ortogonales se pueden distinguir fácilmente entre las transformaciones ortogonales, pues estas son precisamente las transformaciones ortogonales auto-adjuntas.

Caracterización sobre bases ortonormales

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una tranformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. Para cualquier base ortonormal $e_1,\dots ,e_n$ de $V$, los vectores $T(e_1),\dots ,T(e_n)$ forman una base ortonormal de $V$.
  3. Existe una base ortonormal de $e_1,\dots ,e_n$ de $V$ tal que $T(e_1),\dots ,T(e_n)$ es una base ortonormal de $V$.

Solución. Supongamos que 1. es cierto y sea $e_1,\dots ,e_n$ una base ortonormal de $V$. Entonces para cada $i,j\in[1,n]$ tenemos
$$\langle T(e_i),T(e_j) \rangle =\langle e_i,e_j \rangle.$$
Se sigue que $T(e_1),\dots ,T(e_n)$ es una familia ortonormal, y como $dim V=n$, entonces es una base ortonormal de $V$. Entonces 1. implica 2. y claramente 2. implica 3.
Supongamos que 3. es cierto. Sea $x\in V$ y escribamos $x=x_1e_1+x_2e_2+\dots +x_ne_n$. Como $e_1,\dots ,e_n$ y $T(e_1),\dots ,T(e_n)$ son bases ortonormales de $V$, tenemos
$$||T(x)||^2=||x_1T(e_1)+\dots +x_nT(e_n)||^2=x_1^2+\dots +x_n^2=||x||^2.$$
Por lo tanto $||T(x)||=||x||$ para todo $x\in V$ y $T$ es ortogonal.

$\square$

El grupo de transformaciones ortogonales en el plano

Definición. Diremos que una isometría $T$ es una isometría positiva si $\det T=1$. Por otro lado, diremos que $T$ es una isometría negativa si $\det T=-1$ En términos geométricos, las isometrías positivas preservan la orientación del espacio, mientras que las isometrías negativas la invierten.

Definición. Sea $B=\{e_1,\dots,e_n\}$ una base ortonormal de un espacio euclidiano $V$. Si $B’=\{f_1,\dots,f_n\}$ es otra base ortonormal de $V$, entonces la matriz de cambio de base de $B$ a $B’$ es ortogonal y por lo tanto $\det P\in\{-1,1\}$. Diremos que $B’$ está orientada positivamente con respecto a $B$ si $\det P=1$ y conversamente diremos que $B’$ está orientada negativamente con respecto a $B$ si $\det P=-1$.

Si $V=\mathbb{R}^n$ está equipado con el producto interior usual, entonces siempre tomamos como $B$ a la base canónica y sólo decimos que una base ortonormal es positiva o negativa.

Observación. El polinomio característo de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es
$$(x-1)^p(x+1)^q\cdot\displaystyle\prod_{i=1}^k (x^2-2\cos\theta_i x+1).$$
Las raíces complejas del polinomio $x^2-2\cos\theta_i x+1$ son $e^{i\theta}$ y $e^{-i\theta}$, y tienen modulo $1$. Por lo tanto, todos los eigenvalores complejos de una matriz ortogonal tienen módulo $1$.

Estudiando el grupo ortogonal en dimensiones pequeñas

Empezamos analizando el caso de dimensión $2$. Sea $A\in M_2(\mathbb{R})$ una matriz dada por
$$A=\begin{pmatrix}
a & b\\
c & d\end{pmatrix}$$ que satisface $A^tA=I_2$. Sabemos que $\det A\in\{-1,1\}$, así que consideramos ambos casos.

Si $\det A=1$, entonces la inversa de $A$ simplemente es
$$A^{-1}=\begin{pmatrix}
d & -b\\
-c & a\end{pmatrix}$$
y como $A$ es ortogonal, entonces $A^{-1}=\hspace{.5mm}^tA$, por lo que $a=d$ y $b=-c$, lo que nos dice que $A$ es de la forma
$$A=\begin{pmatrix}
a & -c\\
c & a\end{pmatrix}.$$
Más aún, tenemos que $a^2+c^2=1$, por lo que existe un único $\theta\in(-\pi,\pi]$ tal que $A=\cos\theta$ y $c=\sin\theta$. Por lo tanto
$$A=R_{\theta}=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta \end{pmatrix}.$$
La transformación lineal correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (\cos\theta x – \sin\theta y, \sin\theta x+ \cos\theta y)
\end{align*}
y geométricamente corresponde a una rotación de ángulo $\theta$. Además
\begin{equation}\label{rot}
R_{\theta_1}\cdot R_{\theta_2}=R_{\theta_1+\theta_2}=R_{\theta_2}\cdot R_{\theta_1}.
\end{equation}
Una consecuencia importante es que la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ aún es $R_\theta$, pues la matriz de cambio de base de la base canónica a la nueva base ortonormal positiva sigue siendo una rotación. Análogamente, si en el argumento anterior tomamos una base ortonormal negativa, entonces la matriz asociada a $T$ es $R_{-\theta}$. La relación \eqref{rot} también muestra que para calcular el ángulo de la composición de dos rotaciones basta con tomar la suma de los ángulos y restar un múltiplo adecuado de $2\pi$ tal que el ángulo obtenido quede en el intervalo $(-\pi,\pi]$.

Si $\det A=-1$. Entonces
$$A^{-1}=\begin{pmatrix}
-d & b\\
c & -a\end{pmatrix}$$ y como $A$ es ortogonal, entonces $d=-a$ y $b=c$. También tenemos que $a^2+b^2=1$, por lo que existe un único número real $\theta\in(-\pi,\pi]$ tal que $a=\cos\theta$ y $b=\sin\theta$. Entonces
$$A=S_\theta:=\begin{pmatrix}
\cos\theta & \sin\theta\\
\sin\theta & -\cos\theta \end{pmatrix}.$$
Notemos que $S_\theta$ es simétrica y ortogonal, por lo tanto $S_\theta^2=I_2$ y que la transformación correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (cos\theta x+\sin\theta y, \sin \theta x-\cos\theta y)
\end{align*}
es una simetría ortogonal. Para encontrar la recta con respecto a la cual $T$ es una simetría ortogonal, bastará con resolver el sistema $AX=X$. El sistema es equivalente a
$$\sin\left(\frac{\theta}{2}\right)\cdot x=\cos \left(\frac{\theta}{2}\right)\cdot y$$ y por lo tanto la recta $AX=X$ está generada por el vector
$$e_1=\left( \cos\left(\frac{\theta}{2}\right), \sin\left(\frac{\theta}{2}\right) \right)$$ y la correspondiente recta ortogonal está generada por el vector
$$e_2=\left(-\sin\left(\frac{\theta}{2}\right),\cos\left(\frac{\theta}{2}\right)\right),$$
y los vectores $e_1,e_2$ forman una base ortonormal de $\mathbb{R}^2$ para la cual la matriz asociada a $T$ es
$$\begin{pmatrix}
1 & 0\\
0 & -1\end{pmatrix}$$
y además $$S_{\theta_1}\cdot S_{\theta_2}=R_{\theta_1-\theta_2}$$
lo que significa que la composición de dos simetrías ortogonales es una rotación. Similarmente tenemos que
$$S_{\theta_1}R_{\theta_2}\hspace{3mm} R_{\theta_1}S_{\theta_2}=S_{\theta_1+\theta_2},$$
por lo que la composición de una rotación y una simetría ortogonal es una simetría ortogonal.

Gracias a todo lo anterior, estamos listos para enunciar el siguiente teorema:

Teorema. Sea $A\in M_2(\mathbb{R})$ una matriz ortogonal.

  1. Si $\det A=1$, entonces
    $$A=R_\theta=\begin{pmatrix}
    \cos\theta & -\sin\theta\\
    \sin\theta &\cos\theta\end{pmatrix}$$
    para único número real $\theta\in(-\pi,\pi]$, y la correspondiente transformación lineal $T$ sobre $\mathbb{R}^2$ es una rotación de ángulo $\theta$. Cualesquiera dos matrices de esa forma conmutan y la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ es $R_\theta$.
  2. Si $\det A=-1$, entonces
    $$A=S_\theta=\begin{pmatrix}
    \cos\theta & \sin\theta\\
    \sin\theta &-\cos\theta\end{pmatrix}$$
    para un único número real $\theta\in(-\pi,\pi]$. La matriz $A$ es simétrica y la correspondiente transformación lineal sobre $\mathbb{R}^2$ es la simetría ortogonal con respecto a la recta generada por el vector $\left(\cos\left(\frac{\theta}{2}\right),\sin\left(\frac{\theta}{2}\right)\right)$.

El grupo de transformaciones ortogonales en el espacio

En la entrada anterior estudiamos el grupo de transformaciones ortogonales en dimensión $2$.

Ahora estudiaremos el caso $\dim V=3$, para esto haremos uso del teorema de clasificación de la entrada anterior, así como el estudio que hicimos para el caso de dimensión $2$. Siguendo la misma idea que desarrollamos en el teorema de clasificiación, consideramos enteros $p,q,k$ tales que $$p+q+2k=3,$$ por lo que necesariamente $p\neq 0$ o $q\neq 0$. También podemos probar esto de manera máss directa, observando que el polinomio caracterísitico de $T$ es de grado $3$, por lo que debe tener una raíz real, y por ende un eigenvalor real, el cual será igual a $1$ o $-1$, pues tiene módulo $1$.

Intercambiando $T$ con $-T$ se tiene que simplemente se intercambian los papeles de $p$ y $q$. Supongamos que $p\geq 1$, esto significa que $T$ tiene al menos un punto fijo $v$. Entonces $T$ fija la recta $D=span (v)$ e induce una isometría sobre el plano ortogonal a $D$. Esta isometría se puede clasificar con el último teorema de la entrada anterior. Por lor tanto, hemos reducido el caso de dimensión $3$ al caso de dimensión $2$. Podemos ser más explicitos si consideramos los siguientes casos.

  • $id\in\{T,-T\}$.
  • Tenemos que $\dim \ker (T-id)=2$. Si $e_2,e_1$ es una base ortonormal del plano $\ker (T-id)=2$ y completamos a una base ortonormal de $V$ $\{e_1,e_2,e_3\}$, entonces $T$ fija puntualmente al subespacio generado por $e_2,e_3$ y deja invariante a la recta generada por $e_1$. Por lo tanto la matriz asociada a $T$ con respecto a la base ortonormal es
    $$ \begin{pmatrix}
    t & 0 & 0\\
    0 & 1 & 0\\
    0 & 0 & 1
    \end{pmatrix}$$
    para algun número real $t$, el cual forzosamente es $-1$, pues sabemos que debe ser $1$ o $-1$, pero si fuera $1$, entonces $T$ sería la indentidad. Por lo tanto $T$ es una simetría ortogonal con respecto al plano $\ker (T-id)$. Además, $\det T=-1$, por lo que $T$ es una isometría negativa.
  • Tenemos que $\dim\ker (T-id)$ es la recta generado por algún vector $e_1$ de norma $1$. Completamos $e_1$ a una base ortonormal $\{e_1,e_2,e_3\}$ . Entonces la isometría $T$ inducida sobre es subespacio generado por $\{e_2,e_3\}$ no tiene puntos fijos, ya que todos los puntos fijos de $T$ están sobre $span(e_1)$, por lo tanto $T$ es una rotación de ángulo $\theta$, para un único $\theta\in(-\pi,\pi]$. Además, la matriz asociada a $T$ con respecto a la base ortonormal es
    $$ \begin{pmatrix}
    1 & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}.$$
    Diremos que $T$ es la rotación de ángulo $\theta$ alrededor del eje $\mathbb{R}e_1$. Notemos que $\det T=1$, por lo que $T$ es una isometría positiva. Además, el ángulo $\theta$ satisface $$1+2\cos\theta=Tr(A),$$,aunque, al ser el coseno una función par, $-\theta$ también satisface la ecuación anterior. Para encontrar a $\theta$ necesitamos hallar a $\sin\theta$. Para ello verificamos que
    $$\det_{(e_1,e_2,e_3)}(e_1,e_2,T(e_2))=\begin{vmatrix}
    1 & 0 & 0\\
    0 & 1 & \cos\theta\\
    0 & 0 & \sin\theta
    \end{vmatrix}=\sin\theta.$$
  • Supongamos que $\ker(T-id)=\{0\}$. Una posibilidad es que $T=-id$. Supongamos que $T\neq id $. Como $T$ o $-T$ tienen un punto fijo y $T$ tiene puntos fijos, entonces necesariamente $-T$ tiene un punto fijo. Sea $e_1$ un vector de norma $1$ fijado por $-T$, por lo tanto $T(e_1)=-e_1$. Completando $e_1$ a una base ortonormal de $V$ dando un argumento similar al del caso anterior, obtenemos que la matriz asociada a $T$ con respecto a la base ortonormal es
    $$\begin{pmatrix}1- & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}=R_\theta \cdot \begin{pmatrix}
    1 & 0 & 0\\
    0 & \cos\theta & -\sin\theta\\
    0 & \sin\theta & \cos\theta
    \end{pmatrix}$$
    para algún $\theta \in (-\pi,\pi]$. Por lo tanto $T$ es la composición de una rotación de ángulo $\theta$ y una simetría ortogonal con respecto al eje de rotación. También notemos que $\det T=-1$, por lo que $T$ es una isometría negativa.
    También podemos mirarlo desde el punto de vista de las matrices. Consideremos una matriz ortogonal $A\in M_3(\mathbb{R})$ y la transformación lineal asociada
    \begin{align*}
    T:V&\to V\\
    X&\mapsto AX
    \end{align*}, donde $V=\mathbb{R}^3$ está equipado con el producto interior usual. Excluiremos los casos triviales $A=\pm I_3$. Para estudiar la isometría $T$, primero revisamos si esta es positiva o negativa, calculando el determinante.
    Supongamos que $T$ es positiva. Ahora veremos si $A$ es simétrica. Para ellos consideremos los siguentes dos casos:
  • Si $A$ es simétrica, entonces $A^2=I_3$ (pues $A$ es ortogonal y simétrica) y por lo tanto $T$ es una simetría ortogonal. Afirmamos que $T$ es una simetría ortogonal con respecto a una recta. En efecto, como $A^2=I_3$, todos los eigenvalores de $A$ son $1$ o $-1$. Más aún, los eigenvalores no son iguales, ya que estamos excluendo los casos $A=\pm I_3$, y el producto de ellos es 1, pues $\det A=1$. Por lo tanto, un eigenvalor es igual a $1$ y los otros dos son iguales a $-1$. Se sigue que la matriz asociada a $T$ con respecto a la base ortonormal $\{e_1,e_2,e_3\}$ es
    $$\begin{pmatrix}
    1 & 0 & 0\\
    0 & -1 & 0\\
    0 & 0 & -1
    \end{pmatrix}$$ y $T$ es la simetría ortogonal con respecto a la recta generado por $e_1$. Para encontrar esta recta de manera explícita, necesitamos calcular $\ker(A-I_3)$ resolviendo el sistema $AX=X$.
  • Si $A$ no es simétrica, entonces $A$ es una rotación de ángulo $\theta$ ara un único $\theta\in(-\pi,\pi]$. Podemos encontrar el eje de rotación resolviendo el sistema $AX=X$: si $Ae_1=e_1$ para algún vector $e_1$, entonces el eje de rotación está generado por $e_1$. Para encontrar el ángulo de rotación usamos la siguiente ecuación
    \begin{equation}\label{angulo}
    1+2\cos\theta=Tr(A),
    \end{equation}
    la cual determina a $\theta$ en valor absoluto (pues $\theta$ y $-\theta$ son soluciones por la paridad del coseno). Ahora escogemos un vector $e_2$ ortogonal a $e_1$ y de norma $1$ y definimos $e_3=(u_2v_3-u_3v_2,u_3v_1-u_1v_3,u_1v_2-u_2v_1)$, donde $e_1=(u_1,u_2,u_3)$ y $e_2=(v_1,v_2,v_3)$. Entonces $e_1,e_2,e_3$ es una base ortonormal positiva de $\mathbb{R}^3$ y $\det_{(e_1,e_2,e_3)}(e_1,e_2,Ae_2)$ nos da el valor de $\sin\theta$, con lo cual podremos determinar a $\theta$ de manera única. En la práctica bastará con encontrar el signo de $\det_{(e_1,e_2,e_3)}(e_1,e_2,Ae_2)$, ya que esto nos dará el signo de $\sin\theta$, lo cual determina $\theta$ de manera única gracias a la ecuación \eqref{angulo}.

Finalmente, si se supone que $T$ es negativa, entoces $-T$ es positiva y por lo tanto todo el estudio que acabamos de hacer se puede aplicar a $-T$.

Para finalizar, veremos un ejemplo concreto.

Ejemplo. Demuestra que a matriz
$$A=\frac{1}{3}\begin{pmatrix}
2 & 2 & 1\\
-2 & 1 & 2\\
1 & -2 & 2
\end{pmatrix}$$ es ortogonal y estudia su isometría correspondiente en $\mathbb{R}^3$.

Solución. El cálculo para verificar que $A$ es ortogonal es muy sencillo y se deja como tarea moral. Luego vemos que $\det A=1$, por lo que la isometría asociada es positiva. Como $A$ no es simétrica, se sigue que $T$ es una rotación. Para encontrar el eje necesitamos resolver el sistema $AX=X$, el cual es equivalente a
\begin{align*}
\begin{cases}
2x+2y+z &= 3x\\
-2x+y+2z &=3y\\
x-2y+2z &=3z
\end{cases}
\end{align*} y entonces $x=z$ y $y=0$. Por lo tanto, el eje de rotación está generado por el vector $(1,0,1)$. Normalizandolo obtenemos el vector
$$e_1=\frac{1}{\sqrt{2}}(1,0,1),$$ que genera al eje de $T$.
sea $\theta$ el ángulo de rotación, tal que
$$1+2\cos\theta=Tr(A)=\frac{5}{3},$$ y por lo tanto
$$cos\theta=\frac{1}{3}.$$
Falta determinar el signo de $\sin \theta$. Para ello, escogemos un vector ortogonal a $e_1$, digamos $$e_2=(0,1,0)$$ y calculamos el signo de
$$\det (e_1,e_2,Ae_2)=\frac{1}{3\sqrt{2}}\begin{vmatrix}
1 & 0 & 2\\
0 & 1 & 0\\
1 & 0 & -2
\end{vmatrix}=-\frac{4}{3\sqrt{2}}<0,$$ por lo que $\sin\theta<0$ y finalmente $\theta=-\arccos\frac{1}{3}$.

$\square$

Más adelante…

Tarea moral

  1. Verifica que la matriz $A$ del ejemplo anterior es ortogonal.
  2. Encuentra la matriz asociada a la simetría ortogonal en $\mathbb{R}^3$ con respecto a la recta generada por el vector $(1,2,3)$.
  3. Encuentra la matriz asociada a la simetría ortogonal en $\mathbb{R}^3$ con respecto al plano generad por los vectores $(1,1,1)$ y $(0,1,0)$.
  4. Sea $V=\mathbb{R}^3$.¿En qué casos una rotación sobre $V$ conmuta con una simetríai ortogonal?

Entradas relacionadas

Álgebra Lineal II: El teorema de clasificación de transformaciones ortogonales

Introducción

En la entrada anterior defimos las transformaciones ortogonales y probamos algunas propiedas de éstas, relacionadas con el producto interior, la norma y la transformación adjunta de una trasnformación ortogonal cualquiera. En esta ocasión no encargaremos, de manera más general, de estudiar al conjunto de todas las transformaciones lineales ortogonales definidas sobre un espacio euclidiano $V$, de clasificarlas y de estudiar el caso de dimensión $2$.

El lema de los subespacios estables

Lema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Demuestra que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Demuestra que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Ahora tomamos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T$ es estable bajo $T^{-1}$, entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$, que es lo que queríamos demostrar.

2. Sea $T_1:=T|_W$, entonces para todo $x\in W$ se tiene que
$$||T_1(x)||=||T(x)||=||x||,$$
lo que significa que $T_1\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

El lema de la invarianza de una recta o un plano

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta o un plano en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $P$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$. Ahora supongamos que $P$ no tiene raíces reales. Sea $z$ una raíz compeja de $P$, como $P$ teien coeficientes reales, entonces $\overline{z}$ también es raíz de $P$ y por lo tanto $Q=(x-z)(x-\overline{z})$ divide a $P$. Más aún, $Q(T)$ no es invertible, pues si lo fuera, entonces $\frac{P}{Q}$ sería un polinomio de grado menor que anula a $T$. Por lo tanto existe $x\in V$ no nulo tal que $Q(T)(x)=0$. Esto se puede escribir como $T^2(x)+aT(x)+bx=0$ para algunos reales $a,b$. se sigue que el subespacio generado por $x$ y $T(x)$ es un plano estable bajo $T$, lo cual termina con la demostración.

$\square$

El lema de las ortogonales sin eigenvectores en el plano

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin valores propios reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $B=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2+||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$. El complemento ortogonal de $T(e_1)$ está dado por la recta $\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$. Como $\langle T(e_1),T(e_2) \rangle=\langle e_1,e_2 \rangle=0$, de donde $T(e_2)\in\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$ y por lo tanto
$$T(e_2)=c(-\sin\theta e_1 + \cos \theta e_2)$$ para algún número real $c$. Como $$||T(e_2)||=||e_2||=1, $$ se sigue que $|c|=1$ y así $c\in \{-1,1\}$. Veremos que $c$ no puede ser igual a $-1$, pues si $c=-1$, entonces la matriz de $T$ con respecto a a$B$ es
$$A=\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix}$$
cuyo polinomio caracterísitco es $x^2-1$, el cual tiene una raíz real, lo cual es absurdo.
Por lo tanto la matriz asociada a $T$ con respecto a la base $B$ es
$$A=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

El teorema de clasificación

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema (clasificación de ortogonales). (De clasificación) Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $B$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $B$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$.
Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$. Supongamos que $\dim V\geq 2$ y que el resultado se satisface para $n-1$.
Supongamos que $T$ tiene un eigenvalor real $t$ con eigenvector $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W=\mathbb{R}e_1$, entonces $W$ es estable bajo $T$, por la tanto $W^\bot$ es estable bajo $T$ (pues $T$ es ortogonal). Más aún, la restricción de $T$ a $W^\bot$ es una transformación ortogonal ya que $||T(x)||=||x||$ para toda $x\in V$, por lo tanto también para cualquier $x\in W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ y posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales. El primer lema nos dice que podemos encontrar un subespacio de dimensión $2$ estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el segundo lema, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual conlcuimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$, como $\det R_{\theta_i}=1$ para $1\leq i\leq k$. Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Más adelante…

Tarea moral

  1. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ siempre que $||x||=1$.
  2. Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  3. Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.

Entradas relacionadas

Álgebra Moderna I: Definición de Grupos

Introducción

Ahora sí, comenzaremos con el tema de este curso. Después de estudiar las operaciones binarias por fin veremos para qué nos sirven. Los grupos son una estructura algebraica. Están constituidos por dos partes, un conjunto y una operación ¿Puedes imaginarte de qué tipo de operación estamos hablando?

Para motivarlo, veamos cómo resolvemos esta ecuación:

$x + 8 = 5$
$(x + 8) + (-8) = 5 + (-8)$
$x + 0 = -3$
$x = -3$

Al resolver la ecuación, formalmente estamos usando las siguientes propiedades:

  • Asociatividad
  • Inverso aditivo
  • Neutro

En ese mismo orden.

En esta entrada definiremos formalmente a los grupos y daremos muchos ejemplos para que te empapes de la definición. Revisaremos los ejemplos que vimos en entradas anteriores y determinaremos cuáles son un grupo y cuáles no.

¿Qué es un grupo?

Definición. Sea $G$ un conjunto con una operación binaria $*$. Decimos que $(G,*)$ es un grupo si

  1. La operación $*$ es asociativa, es decir, $(a * b)*c = a*(b*c) \quad \forall a,b,c \in G$
  2. Existe $e \in G$ tal que $e*a = a*e = a \quad \forall a \in G$.
    A $e$ se le llama neutro en $G$.
  3. Para toda $a \in G$ existe $\tilde{a} \in G$ tal que $a*\tilde{a} = \tilde{a}*a=e$.
    En este caso, $\tilde{a}$ se llama inverso de a.

Si además * es conmutativa, es decir $a*b = b*a \quad \forall a,b \in G$, decimos que $(G,*)$ es un grupo abeliano.

Nota. Sea $G$ conjunto con una operación binaria $*$:

  • Si $G \neq \emptyset$, $(G,*)$ se llama magma.
  • Si $G\neq \emptyset$ y se cumple 1, $(G,*)$ se llama semigrupo.
  • Si se cumplen 1 y 2, $(G,*)$ se llama monoide.

Repaso de ejemplos anteriores

Veamos de nuevo algunos ejemplos de las entradas anteriores y comprobemos si cumplen con la definición de grupo.

  • $G : = \z^+$, $a*b = \text{máx}\{a,b\}$.
    • En la entrada anterior vimos que $*$ es asociativa y conmutativa.
    • $1$ es el neutro.
      Demostración. $1*a = a*1 = \text{máx}\{1,a\} = a \quad \forall a \in \z^+$. $\square$
    • $2$ no tiene inverso.
      Demostración. $2*a = \text{máx}\{2,a\} \geq 2 \quad \forall a \in \z^+$, por lo que $2 * a \neq 1 \quad a \in \z^+$.

$\therefore (\z^+,*)$ NO es un grupo. $\square$

  • $G:= \z^+$, $a*b = a$.
    • No tiene neutro, si existiera $e \in \z^+$ neutro, entonces para toda $a\in\z^+$, por la definción de la operación $e*a = e$, pero la definición de neutro requiere que $e*a = a$. Entonces, esto implica que $e = a$ y como esto no es necesariamente cierto, pues $a$ es un entero positivo cualquiera, obtenemos una contradicción.

$\therefore (\z^+,*)$ NO es un grupo. $\square$

  • $(\cM_{2\times 2}(\z), +)$ es un grupo abeliano, la demostración queda como ejercicio.
  • $(\{ f \; | \; f:\r \to \r\}, \circ)$ no es un grupo, pues aunque $\mathrm{id}_{\r}$ es neutro, no todo elemento tiene inverso, como se ve en Álgebra Superior I.
  • $(S_3, \circ)$ es un grupo no abeliano. Generalizaremos este ejemplo más adelante y le llameremos grupo simétrico.
  • $\cS = \{2,4,6\}$ con la operación
$*$$2$$4$$6$
$2$$2$$4$$6$
$4$$4$$4$$6$
$6$$6$$6$$6$

Si observamos la tabla, podemos concluir que:

  • $2$ es neutro.
  • $4$ y $6$ no tienen inversos.

Por lo tanto, NO es un grupo.

$\square$

  • $\cS = \{2,4,6\}$ con la operación
$*$$2$$4$$6$
$2$$2$$2$$2$
$4$$4$$4$$4$
$6$$6$$6$$6$
  • No hay un neutro.

Como no hay neutro, ni siquiera tiene sentido pensar en la existencia de inversos. Por lo tanto, NO es un grupo.

$\square$

  • $\cS = \{1,-1\}$
$*$$1$$-1$
$1$$1$$-1$
$-1$$-1$$1$
  • El $1$ es el neutro.
  • La operación es asociativa.
  • $1$, $-1$ son sus propios inversos.
  • Además, la operación conmuta, porque la operación es el producto usual.

Por lo tanto es un grupo abeliano.

$\square$

  • $(\z, +)$ es un grupo.
  • Sea $K$ un campo y $K^* = K \setminus \{0_K\}$. Si consideramos $(K^*, \cdot)$ tenemos un grupo abeliano. Le quitamos el $0_K$ pues es el único número que no tiene inverso multiplicativo.
  • $\mathbb{S}’ = \{z \in \mathbb{C} \; |\; |z|= 1\}$. Es decir, los complejos con norma igual a $1$. Es un grupo abeliano con el producto.
Representación geométrica del conjunto.
  • Dentro de los complejos podemos considerar $$\Gamma_n = \left\{ \xi^k \; | \; 0 \leq k < n \right\},$$ con $\xi = e^{\frac{2\pi i}{n}}$. Geométricamente corresponden a los vértices de un polígono regular de $n$ lados y algebraicamente son las raíces $n$-ésimas de la unidad. Forman un grupo abeliano con el producto.

Representación geográfica del conjunto cuando $n= 6$.

Ejemplos importantes de matrices

Los siguientes son ejemplos de algunos grupos importantes. Recuérdalos porque son ejemplos que serán recurrentes en futuras entradas. Recuerda que no todas las matrices tienen inverso multiplicativo y que el producto de matrices no es conmutativo. Para refrescar tu memoria, puedes consultar las entradas de matrices inversas y operación de matrices.

  1. $$GL(n,\r) = \{A \in \cM_{n\times n}(\r) \;|\; \det A \neq 0\},$$ con el producto usual es un grupo no abeliano. Este par ordenado $(GL(n,r), \cdot)$ es conocido como el grupo lineal general.
  2. $$SL(n,\r) = \{A \in \cM_{n\times n}(\r) \;|\; \det A = 1\},$$ con el producto usual es un grupo no abeliano. Este es el grupo lineal especial.
  3. $$SO(n,\r) = \{A \in \cM_{n\times n}(\r) \; | \; AA^t = I_n, \; \det A = 1\},$$ con el producto usual es un grupo no abeliano. A éste se le conoce como grupo ortogonal especial.
  4. $$O(n, \r) = \{A \in \cM_{n\times n}(\r) \; |\; AA^t = I_n\},$$ con el producto usual es un grupo no abeliano. Este es conocido como el grupo ortogonal.

Tarea moral

  1. Determina, en cada uno de los siguientes casos, si el sistema descrito es grupo o no. En caso negativo, señala cuál o cuáles de los axiomas de grupo no se verifican. En caso afirmativo demuestra que es un grupo:
    • $G = \r \setminus \{-1\}$, $a*b := a+b+ab$.
    • $G = \r^*$, $a*b = |a|b$.
    • $G = \{r \in \mathbb{Q} \;|r\text{ se puede expresar como }\; r = \frac{p}{q} \text{ con } (p,q)= 1 \text{ y } q \text{ impar}\}$, $a*b = a+b$ (la adición usual).
    • Sea $X$ un conjunto. Considera $G = \mathcal{P}(X)$ el conjunto potencia de $X$ con la operación binaria $A \triangle B = (A \cup B)\setminus (A \cap B)$ para todo $A,B \in \mathcal{P}(X)$.
  2. Demuestra la siguientes afirmaciones referentes a grupos, dadas en los ejemplos anteriores:
    • $(\cM_{2\times 2}(\z), +)$ es un grupo abeliano.
    • $(S_3, \circ)$ es un grupo no abeliano.
    • $(\z, +)$ es un grupo.
    • $(K^*, \cdot)$ con $K$ un campo, es un grupo abeliano.
    • $(\Gamma_n, \cdot)$ es un grupo abeliano, con $\cdot$ el producto.
  3. Demuestrá por qué los ejemplos importantes de matrices son grupos no abelianos.

Más adelante…

Después de tantas definiciones y ejemplos, comenzaremos a ver más teoremas y demostraciones. En la siguiente entrada profundizaremos en las propiedades de grupos derivadas de su definición. Además, veremos un teorema conocido como la «Definición débil de Grupo».

Entradas relacionadas