Archivo de la etiqueta: reflexiones

Geometría Analítica I: Repaso de conceptos geométricos elementales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada empezamos a hacer un repaso de algunos conceptos geométricos elementales que probablemente has encontrado a lo largo de tu formación. Por un lado, esto puede ayudarte a recordar objetos geométricos específicos y resultados con los que ya te has encontrado. Además, es importante revisar nuevamente estos conceptos pues a partir de ahora necesitamos ser muy precisos con el lenguaje. Por ejemplo, será necesario que distingamos apropiadamente los segmentos, rectas y rayos entre ellos. Finalmente, esta entrada te ayudará a acostumbrarte a la notación que usamos en geometría, es decir, qué tipos de etiquetas le ponemos a cada tipo de objeto geométrico.

Antes de comenzar, hay una aclaración importante por hacer. El repaso que haremos de geometría es un repaso intuitivo. Más adelante, cuando asignemos coordenadas al plano y comencemos a hablar de vectores, entonces ahora sí ya estaremos definiendo nuestros conceptos geométricos de manera formal y tendremos que ser más cuidadosos con la argumentación lógica.

Objetos geométricos básicos

Puedes pensar a un punto como lo que obtienes al colocar la punta del lapiz sobre el papel. Es una figura que tiene una única posición. A los puntos usualmente los denotaremos con letras mayúsculas: $A$, $B$, $C$, $P$, $Q$, $R$, etc.

Un segmento es lo que se obtiene al unir dos puntos directamente el uno al otro. Otra manera de pensarlo es que se tiene que ir de un punto al otro de la manera «más rápida» o «más derecha» posible. A los dos puntos les llamamos los extremos del segmento. Si los nombres de los extremos de un segmento son $A$ y $B$, entonces al segmento lo nombramos $\overline{AB}$. En caso de tener que referirnos al segmento sin usar sus extremos, le podemos dar nombre con letra minúscula, por ejemplo $r, s, t$, etc.

Cuando extendemos un segmento indefinidamente más allá de los dos puntos que lo definen, obtenemos una recta. Una recta queda definida por cualesquiera dos puntos distintos en ella. Si una recta tiene a los puntos distintos $A$ y $B$, entonces llamamos $AB$ a la recta. Aunque sea imposible de apreciarlo en el papel, en pizarrón o en la pantalla de una computadora, las rectas se extienden indefinidamente. Cuando no queremos usar puntos para referirnos a las rectas, las podemos llamar con letras minúsculas como $a,b,c,\ell$, etc.

Si sólo extendemos el segmento más allá de sólo uno de los puntos que lo definen, entonces a la figura que obtenemos le llamamos un rayo. Observa que si tenemos dos puntos $A$ y $B$, entonces es distinto el rayo que extiende al segmento más allá de $B$, que el que extiende al segmento más allá de $A$. Al primero le llamamos el rayo desde $A$ por $B$ (como el que se muestra en la figura). Al segundo le llamamos el rayo desde $B$ por $A$. A los rayos, como a los segmentos, los podemos llamar con letras minúsculas como $r,s,t$,etc.

Cuando dos rectas, segmentos o rayos pasan por un mismo punto, decimos que se intersectan en dicho punto. En la siguiente figura, las rectas $\ell$ y $m$ se intersectan en el punto $P$.

Si $P$ es un punto de intersección de dos rectas distintas $\ell$ y $m$, entonces alrededor de $P$ se forman cuatro regiones. A cada una de las $4$ aperturas entre ambas rectas les llamamos un ángulo entre ellas. De manera similar podemos definir ángulos entre segmentos o rayos que se intersecten, o cualquier mezcla de estos objetos. Los ángulos usualmente los denotamos con letras griegas, como $\alpha, \beta, \gamma, \theta$, etc. (alpha, beta, gamma, theta, etc.).

También podemos referirnos a ellos mediante un punto $A$ en $\ell$, el punto $B$ de intersección y un punto $C$ en $m$, en cuyo caso nos referiremos al ángulo como $\angle ABC$.

Triángulos

Es sumamente inusual que al colocar tres puntos $A$, $B$ y $C$ suceda que haya una misma recta que pase por los tres. Cuando esto pasa, decimos que los puntos están alineados o que son colineales.

Si tomamos tres puntos no alineados $A$, $B$ y $C$, entonces podemos dibujar tres segmentos $BC$, $CA$ y $AB$. A la figura conformada por los tres puntos y los tres segmentos le llamamos un triángulo y usualmente lo denotamos por $\triangle ABC$. A $A$, $B$ y $C$ les llamamos los vértices del triángulo. A los segmentos $BC$, $CA$ y $AB$ les llamamos los lados del triángulo. Usualmente nombramos a estos lados $a,b,c$ para que cada lado use la misma letra que el vértice opuesto (pero en minúscula). A los ángulos dentro del triángulo en $A$, $B$ y $C$ les llamamos usualmente $\alpha, \beta, \gamma$.

Si quisiéramos insistir en llamar triángulo al caso en el que $A$, $B$ y $C$ están una misma recta, insistiremos en llamarlo un triángulo degenerado. En este caso, el triángulo está «apachurrado» y los segmentos que definen los puntos se enciman entre sí.

Mediciones

Parte de la raiz etimológica de la palabra geometría está relacionada con medir. En geometría, nos interesan ciertas magnitudes geométricas asociadas a objetos geométricos. Por el momento, apelaremos a la intuición que has desarrollado con anterioridad para definir estos conceptos pero, como mencionamos arriba, más adelante los formalizaremos.

La distancia entre dos puntos $A$ y $B$ es una magnitud que mide qué tan alejados están los puntos entre sí. Mientras más alejados, mayor distancia entre ellos. Un punto $A$ está a distancia $0$ de sí mismo. Es lo que solías medir con una regla: si colocas un punto en el $0$ de la regla y el otro cae en el número $d$ de la regla, entonces la distancia entre ambos puntos será $d$. Podemos referirnos a la distancia con la letra $d$ y haciendo referencia a los puntos así: $d(A,B)$.

Una magnitud estrechamente relacionada con la distancia es la longitud de un segmento, y se puede pensar exactamente como la distancia entre sus extremos. Mientras más largo sea un segmento (intuitivamente, mientras más tengamos que dibujar para hacerlo), mayor será su longitud. Nos referiremos a la longitud de un segmento $AB$ con la expresión $|AB|$.

Otra medida importante es la de ángulo, que nos indica qué tan abierta la región del msimo nombre definida por dos rectas (o segmentos, o rayos), como la definimos arriba. A mayor apertura en el vértice del ángulo, mayor será la magnitud que le asociamos. Así, típicamente no hacemos distinción entre la región y su apertura, ni en nombre, ni en notación.

Finalmente, también nos interesa una medida de qué tan grande es la región contenida en una figura geométrica en el plano. A esta medida le llamamos el área de la región.

Transformaciones geométricas

Otra noción muy importante en la geometría analítica es la de «transformación». Esto se refiere a alterar nuestros objetos geométricos de alguna manera. Típicamente, esta manera es «amigable» en algún sentido, por ejemplo, respeta distancias o proporciones. Las siguientes son las transformaciones geométricas con las que debes estar más familiarizado de manera intuitiva.

Las traslaciones consisten en mover un objeto de lugar, pero simplemente desplazándolo, sin girarlo.

Las rotaciones consisten en girar un objeto geométrico alrededor de un punto que llamamos el centro de rotación. Para saber cuánto rotamos, usamos un ángulo de rotación. En la siguiente figura puedes ver una rotación con centro $O$ y ángulo $\alpha$.

Las reflexiones consisten en tomar una recta $\ell$ y usarla como espejo, para reflejar en él el objeto que nos interesa.

También consideraremos los reescalamientos, que pueden ser expansiones o contracciones. Tras aplicarlas, obtenemos un objeto geométrico más grande o más pequeño, pero que preserva las proporciones. Para definirlas, usualmente necesitamos un centro de reescalamiento $O$ y un factor de reescalamiento $r$. A continuación se muestran algunos ejemplos con con reescalamientos $2$, $1/2$ y $-1$, con la figura de sombreado claro como el objeto original. ¡El reescalamiento de $-1$ voltea la figura alrededor de $O$!

Hay más transformaciones geométricas, como las proyecciones o cizallamientos. Sin embargo, por ahora no hablaremos de ellas.

Aunque ahora hemos platicado lo que le hace una transformación a un objeto geométrico particular, usualmente nos interesará lo que le hace a todo el plano.

Más adelante…

En esta entrada repasamos varias nociones básicas de la geometría de una manera intuitiva. Es importante que tengas esta entrada como referencia, pues los nombres que usamos ahora para objetos geométricos, propiedades geométricas y transformaciones, serán los que usaremos más adelante. En las siguientes entradas continuaremos con un repaso de los resultados geométricos principales. Este repaso seguirá siendo intuitivo. Más adelante introduciremos formalidad en nuestro estudio de la geometría analítica.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Repasa la diferencia entre rectas, segmentos y rayos.
  2. Explora la interfaz de GeoGebra para asegurarte de que sepas trazar todo lo que hemos platicado. En caso de que no encuentres la funcionalidad, averigua cómo hacerlo mediante una búsqueda en línea o mediante algún video explicativo.
  3. Copia la siguiente figura en una hoja de papel. Luego, realiza manualmente una rotación de 90 grados alrededor del punto $O$.
  1. Copia la siguiente figura en una hoja de papel. Luego, realiza manualmente una reflexión de la figura con respecto a la recta $\ell$.
  1. Ahora vamos a trasladar al gato y a la casa. Pero tienes que hacerlo repetidamente. Haz la figura en tu cuaderno de modo que quede dentro de un cuadrado de 4cm de lado. Luego, repetidamente traslada ese cuadrado 5cm a la derecha para poner todas las copias que puedas de la figura hasta que se te acabe la hoja. Entonces, las transformaciones geométricas las podemos aplicar una y otra vez.

Entradas relacionadas

Geometría Analítica I: Reflexiones y pasos

Por Paola Lizeth Rojas Salazar

Introducción

En entradas anteriores, ya estudiamos algunas isometrías, en esta ocasión, dedicaremos esta sección al estudio de las isometrías que cambian de orientación, es decir, de las que son de la forma $f(x)= E_\theta x+b$ con $E_\theta$ una matriz de reflexión.

Algunas definiciones informales

Antes de empezar con este capítulo, es importante entender a qué nos referimos con reflexiones y «pasos».

  • Reflexiones: Como ya hemos estado estudiando en otras entradas, se tiene una reflexión cuando hay un comportamiento similar a un espejo, es decir, que se tiene exactamente lo mismo y a la misma altura, pero de forma «reflejada».
  • Pasos: Entenderemos por «pasos» a la acción que realizamos al caminar y avanzar. Y, a los pasos con traslación trivial, a los que damos reflejando nuestros pasos con una línea recta.

Un teorema importante

Teorema 3.24: Una isometría que invierte orientación es un paso (con traslación trivial) o una reflexión.

Demostración

La isometría que invierte orientación, como ya mencionamos al inicio, es de la forma $f(x)= E_\theta x+b$ con $E_\theta$ matriz de reflexión.

  • Puntos fijos

Primero vamos a ver si hay puntos fijos, para esto, debemos analizar el siguiente determinante:

\begin{equation}det(I-E_\theta)=det\begin{pmatrix} 1-\cos(2\theta) & – \sin(2\theta) \\
– \sin(2\theta) & 1+\cos(2\theta)\end{pmatrix}\end{equation}

De donde obtenemos:

\begin{equation}det(I-E_\theta)=1-\cos^2(2\theta)-\sin^2(2\theta)=1-1=0\end{equation}

Esto significa que no hay una solución única, es decir, que no tiene solución o tiene muchas soluciones.

  • Análisis de soluciones

Si $b=0$, entonces $f$ es una reflexión y las soluciones son los puntos de la recta espejo: l.

Veamos cuáles son los puntos de la recta l satisfacen la ecuación anterior que encontramos. Si $u=(\cos(\theta),\sin(\theta))$ es el vector unitario que genera a l, entonces:

\begin{equation}E_\theta u=\begin{pmatrix} \cos(2\theta) & \sin(2\theta) \\
\sin(2\theta) & -\cos(2\theta)\end{pmatrix}\begin{pmatrix} \cos(\theta)\\
\sin(\theta) \end{pmatrix}\end{equation}

Donde, después de aplicar las funciones trigonométricas, llegamos a:

\begin{equation}E_\theta u=\begin{pmatrix} \cos(2\theta-\theta)\\
\sin(2\theta-\theta) \end{pmatrix}=u\end{equation}

Esto implica que $E_\theta(tu)=t(E_\theta u)=tu$ son todos los puntos de la recta l que satisfacen que $(I-E_\theta) x=0$.

Si para alguna $b$, el sistema $(I-E_\theta)x=b tiene una solución en particular, $c$, entonces toda la recta l$+c$ tiene soluciones para el sistema y se trata de una reflexión con espejo l$+c$, es decir, se trata de un «paso».

Pero, ¿cuáles son estas $b$ para las que hay solución?

Encontremos estas $b$ pensando de forma geométrica.

Observemos que, para cualquier $x \in \mathbb R^2$, la expresión $(I-E_\theta)x=x-E_\theta x$ indica el vector que va de $E_\theta x$ a $x$ y que es perpendicular al «espejo».

Si vemos a $(I-E_\theta)$ como función, encontraremos que es la proyección ortogonal a $l^T$, lo que implica que su imagen sea $l^T$.

De lo anterior, podemos concluir que la isometría $f(x)=E_\theta x+b$ solo tiene puntos fijos si $b\in l^T$

  • Otra forma de escribir la isometría

Finalmente, observemos que, cualquier $b \in \mathbb R^2$ puede ser escrito como suma de sus componentes respecto a la base normal $u, u^T$, es decir, como: $b-b1+b2$

Entonces podemos escribir la la isometría como:

\begin{equation}f(x)=(E_\theta x+b_2)+b_1\end{equation}

Con lo que concluimos la demostración.

Tarea moral

  1. Demuestra que si $f$ es una isometría que invierte orientación, entonces $f^2=f\circ f$ es una traslación.
  2. Con la notación usada en esta sección, demuestra usando coordenadas e identidades trigonométricas, que $(I-E_\theta) u^T=2u^T$
  3. Si $f(x)=E_\theta x+b$. Encuentra y argumenta geométricamente una expresión para $f^{-1}$.

Más adelante…

No te pierdas la siguiente sección de estudio en la que analizaremos las homotecias y semejanzas.

Álgebra Lineal II: El teorema de clasificación de transformaciones ortogonales

Por Ayax Calderón

Introducción

En la entrada anterior definimos las transformaciones ortogonales y probamos algunas de sus propiedades relacionadas con el producto interior, norma y la transformación adjunta. Vimos también que el conjunto de todas las transformaciones ortogonales de un espacio euclideano $V$ forma un grupo $O(V)$ bajo composición.

En esta entrada queremos entender mucho mejor dicho grupo. El resultado principal que probaremos nos dirá exactamente cómo son todas las posibles transformaciones ortogonales en un espacio euclideano (que podemos pensar que es $\mathbb{R}^n$). Para llegar a este punto, comenzaremos con algunos resultados auxiliares y luego con un lema que nos ayudará a entender a las transformaciones ortogonales en dimensión $2$. Aprovecharemos este lema para probar el resultado para cualquier dimensión.

El lema de los subespacios estables

Lo primero que veremos es que las transformaciones ortogonales preservan completamente los subespacios estables, así como sus espacios ortogonales. Este es el resultado que nos permitirá un poco más adelante trabajar inductivamente.

Lema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Se tiene que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Se tiene que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Veamos ahora que $W^\bot$ también es estable bajo $T$. Tomemos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $T(x)\in W^\bot$, es decir, que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T|_W:W\to W$ es biyectiva, se tiene que $W$ es estable bajo $T^{-1}$. Entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$. Esto muestra que $W^\bot$ es estable bajo $T$ y por la primer parte de este inciso, llegamos a $T(W^\bot)=W^\bot$.

2. Para todo $x\in W$ se tiene que
$$||T|_W(x)||=||T(x)||=||x||,$$
lo que significa que $T|_W\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

El lema de la invarianza de una recta o un plano

Para poder aplicar el lema de la sección anterior, tendremos que poder encontrar subespacios estables. El siguiente lema nos dice que siempre podemos encontrar subespacios estables en espacios euclideanos.

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta (subespacio de dimensión $1$) o un plano (subespacio de dimensión $2$) en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $\mu_T(x)$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$.

Ahora supongamos que $\mu_T(x)$ no tiene raíces reales. Sea $z$ una raíz compeja de $\mu_T(x)$, que existe por el teorema fundamental del álgebra. Como $\mu_T(x)$ tiene coeficientes reales, entonces $\overline{z}$ también es raíz de $\mu_T(x)$.Por lo tanto, $Q(x)=(x-z)(x-\overline{z})$ divide a $\mu_T(x)$.

Es imposible que $Q(T)$ sea una matriz invertible, pues de serlo, tendríamos que $\frac{\mu_T}{Q}(x)$ sería un polinomio de grado más chico que $\mu_T(x)$ y anularía a $T$. Esto nos dice que existe $x\in V$ distinto de $0$ tal que $Q(T)(x)=0$. Si $Q(x)=x^2+ax+b$, esto se traduce a $T^2(x)+aT(x)+bx=0$. De aquí, se tiene que $x$ y $T(x)$ generan un plano estable bajo $T$.

$\square$

Las transformaciones ortogonales en dimensión $2$

Los lemas de las secciones anteriores nos permitirán ir partiendo a un espacio euclideano $T$ en «cachitos estables» ya sea de dimensión $1$ o de dimensión $2$. En los de dimensión $1$ ya sabemos cómo debe verse una matriz que represente a $T$: simplemente corresponden a eigenvectores y entonces consistirán en reescalamientos (que deben de ser por factor $1$ ó $-1$ para tener ortogonalidad). Pero, ¿cómo se verá matricialmente la transformación $T$ en subespacios estables de dimensión $2$ que no se puedan descomponer más? Esto es lo que nos responde el siguiente lema.

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin eigenvalores reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $\beta=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2=||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$.

Para que $\langle T(e_1), T(e_2)\rangle = 0$, necesitamos que exista un $c$ tal que $T(e_2)=c(-\sin\theta e_1+\cos \theta e_2)$. Finalmente, ya que $$||T(e_2)||=||e_2||=1, $$ debemos tener $|c|=1$ y así $c\in \{-1,1\}$.

El caso $c=-1$ podemos descartarlo pues la matriz que representa a $T$ en la base $\beta$ sería
$$\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix},$$
cuyo polinomio caracterísitco es $x^2-1$ y por lo tanto tiene a $1$ como eigenvalor, lo cual no entra en nuestras hipótesis. Así, $c=1$ y por lo tanto la matriz que representa a $T$ en la base $\beta$ es
$$\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix},$$

como queríamos.

$\square$

El teorema de clasificación

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema (clasificación de ortogonales). Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $\beta$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $\beta$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$. Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$ (esto quedó de tarea moral en la entrada anterior).

Supongamos que el resultado se satisface para todos los espacios euclideanos de dimensión a lo más $n-1$. Tomemos $V$ un espacio euclideano de dimensión $n$ y $T$ una transformación ortogonal de $V$. Por el lema de la invarianza de una recta o un plano, o bien $V$ tiene una recta estable bajo $T$, o bien un plano estable bajo $T$.

El caso en que $T$ tiene una recta estable bajo $T$ corresponde a que $T$ tiene un eigenvalor real $t$ con eigenvector, digamos, $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W$ la recta generada por $e_1$.

Tenemos que $V=W\oplus W^\bot$. Por el lema de subespacios estables, $T(W)=W$ y $T|_{W^\bot}$ es ortogonal de $W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ se añade un $1$ o $-1$ en la diagonal, así que, posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales, es decir, que estamos en el caso de tener un plano estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el lema de transformaciones ortogonales en dimensión $2$, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Como $V=W\oplus W^\bot$, entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual concluimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$ (estamos usando $\det R_{\theta_i}=1$ para $1\leq i\leq k$). Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Más adelante…

Por lo platicado en esta entrada, ya podemos decir cómo es cualquier transformación ortogonal, y no es tan complicado: simplemente en alguna base apropiada, se rota en pares de coordenadas, o bien se refleja en coordenadas, o bien no se hace nada en alguna coordenada (o una combinación de estas cosas). Todo esto intuitivamente deja fijas las normas y el teorema de clasificación nos dice que si se fijan normas entonces debe ser así. Por ello, podemos pensar a las transformaciones ortonormales como «sencillas» o por lo menos «entendibles».

Aprovecharemos esto en el siguiente tema, pues enunciaremos el teorema espectral real, que nos dice que las transformaciones simétricas se entienden muy bien a partir de las ortogonales y de las diagonales. Así, las transformaciones simétricas también serán «entendibles». Finalmente, con el teorema de descomposición polar llevaremos este entendimiento a todas, todas las matrices.

Tarea moral

  1. Verifica que, en efecto, las matrices $R_\theta$ de la entrada tienen determinante igual a $1$.
  2. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ para los vectores $x$ de norma $1$.
  3. Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  4. Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.
  5. Describe todas las matrices en $M_3(\mathbb{R})$ que sean simultáneamente ortogonales y triangulares superiores.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»