Archivo del Autor: Ayax Calderón

Álgebra lineal II: El grupo ortogonal

Introducción

En la entrada anterior defimos las transformaciones ortogonales y probamos algunas propiedas de éstas, relacionadas con el producto interior, la norma y la transformación adjunta de una trasnformación ortogonal cualquiera. En esta ocasión no encargaremos, de manera más general, de estudiar al conjunto de todas las transformaciones lineales ortogonales definidas sobre un espacio euclidiano $V$, de clasificarlas y de estudiar el caso de dimensión $2$.

Teorema. El conjunto de las transformaciones ortogonalles sobre un espacio euclidiano $V$ forma un grupo bajo composición. En otras palabras, la composición de dos transformaciones ortogonales es una transformación ortogonal y la inversa de una transformación ortogonal es una transformación ortogonal.

Demostración. Sean $T_1,T_2$ transformaciones lineales ortogonales, entonces $T_1\circ T_2$ es lineal y además
$$||T_1\circ T_2(x)||=||T_1(T_2(x))||=||T_2(x)||=||x||$$
para todo $x\in V$ y por lo tanto $T_1\circ T_2$ es una transformación lineal ortogonal.

Análogamente tenemos que si $T$ es ortogonal, entonces
$$||x||=||T(T^{-1}(x))||=||T^{-1}(x)||$$
para todo $x\in V$.

$\square$

Definición. El grupo $O(V)$ es el grupo de transformaciones ortogonales (o isometrías) de $V$ y se conoce como el grupo ortogonal de $V$. Es el grupo de automorfimos de un espacio euclidiano $V$ y juega un papel muy importante al momento de entender al espacio $V$.

Problema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Demuestra que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Demuestra que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Ahora tomamos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T$ es estable bajo $T^{-1}$, entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$, que es lo que queríamos demostrar.

2. Sea $T_1:=T|_W$, entonces para todo $x\in W$ se tiene que
$$||T_1(x)||=||T(x)||=||x||,$$
lo que significa que $T_1\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

Clasificación

En esta sección nos encargaremos de clasificar las transformaciones ortogonales de un espacio euclidiano en términos de transformaciones simples. La demostración requiere dos lemas que daremos a continuación:

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta o un plano en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $P$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$. Ahora supongamos que $P$ no tiene raíces reales. Sea $z$ una raíz compeja de $P$, como $P$ teien coeficientes reales, entonces $\overline{z}$ también es raíz de $P$ y por lo tanto $Q=(x-z)(x-\overline{z})$ divide a $P$. Más aún, $Q(T)$ no es invertible, pues si lo fuera, entonces $\frac{P}{Q}$ sería un polinomio de grado menor que anula a $T$. Por lo tanto existe $x\in V$ no nulo tal que $Q(T)(x)=0$. Esto se puede escribir como $T^2(x)+aT(x)+bx=0$ para algunos reales $a,b$. se sigue que el subespacio generado por $x$ y $T(x)$ es un plano estable bajo $T$, lo cual termina con la demostración.

$\square$

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin valores propios reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $B=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2+||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$. El complemento ortogonal de $T(e_1)$ está dado por la recta $\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$. Como $\langle T(e_1),T(e_2) \rangle=\langle e_1,e_2 \rangle=0$, de donde $T(e_2)\in\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$ y por lo tanto
$$T(e_2)=c(-\sin\theta e_1 + \cos \theta e_2)$$ para algún número real $c$. Como $$||T(e_2)||=||e_2||=1, $$ se sigue que $|c|=1$ y por lo tanto la matriz asociada a $T$ con respecto a la base $B$ es
$$A=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema. Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $B$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $B$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$.
Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$. Supongamos que $\dim V\geq 2$ y que el resultado se satisface para $n-1$.
Supongamos que $T$ tiene un eigenvalor real $t$ con eigenvector $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W=\mathbb{R}e_1$, entonces $W$ es estable bajo $T$, por la tanto $W^\bot$ es estable bajo $T$ (pues $T$ es ortogonal). Más aún, la restricción de $T$ a $W^\bot$ es una transformación ortogonal ya que $||T(x)||=||x||$ para toda $x\in V$, por lo tanto también para cualquier $x\in W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ y posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales. El primer lema nos dice que podemos encontrar un subespacio de dimensión $2$ estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el segundo lema, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual conlcuimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$, como $\det R_{\theta_i}=1$ para $1\leq i\leq k$. Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Definición. Diremos que una isometría $T$ es una isometría positiva si $\det T=1$. Por otro lado, diremos que $T$ es una isometría negativa si $\det T=-1$ En términos geométricos, las isometrías positivas preservan la orientación del espacio, mientras que las isometrías negativas la invierten.

Definición. Sea $B=\{e_1,\dots,e_n\}$ una base ortonormal de un espacio euclidiano $V$. Si $B’=\{f_1,\dots,f_n\}$ es otra base ortonormal de $V$, entonces la matriz de cambio de base de $B$ a $B’$ es ortogonal y por lo tanto $\det P\in\{-1,1\}$. Diremos que $B’$ está orientada positivamente con respecto a $B$ si $\det P=1$ y conversamente diremos que $B’$ está orientada negativamente con respecto a $B$ si $\det P=-1$.

Si $V=\mathbb{R}^n$ está equipado con el producto interior usual, entonces siempre tomamos como $B$ a la base canónica y sólo decimos que una base ortonormal es positiva o negativa.

Observación. El polinomio característo de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es
$$(x-1)^p(x+1)^q\cdot\displaystyle\prod_{i=1}^k (x^2-2\cos\theta_i x+1).$$
Las raíces complejas del polinomio $x^2-2\cos\theta_i x+1$ son $e^{i\theta}$ y $e^{-i\theta}$, y tienen modulo $1$. Por lo tanto, todos los eigenvalores complejos de una matriz ortogonal tienen módulo $1$.

Estudiando el grupo ortogonal en dimensiones pequeñas

Empezamos analizando el caso de dimensión $2$. Sea $A\in M_2(\mathbb{R})$ una matriz dada por
$$A=\begin{pmatrix}
a & b\\
c & d\end{pmatrix}$$ que satisface $A^tA=I_2$. Sabemos que $\det A\in\{-1,1\}$, así que consideramos ambos casos.

Si $\det A=1$, entonces la inversa de $A$ simplemente es
$$A^{-1}=\begin{pmatrix}
d & -b\\
-c & a\end{pmatrix}$$
y como $A$ es ortogonal, entonces $A^-1=^tA$, por lo que $a=d$ y $b=-c$, lo que nos dice que $A$ es de la forma
$$A=\begin{pmatrix}
a & -c\\
c & a\end{pmatrix}.$$
Más aún, tenemos que $a^2+c^2=1$, por lo que existe un único $\theta\in(-\pi,\pi]$ tal que $A=\cos\theta$ y $c=\sin\theta$. Por lo tanto
$$A=R_{\theta}=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta \end{pmatrix}.$$
La transformación lineal correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (\cos\theta x – \sin\theta y, \sin\theta x+ \cos\theta y)
\end{align*}
y geométricamente corresponde a una rotación de ángulo $\theta$. Además
\begin{equation}\label{rot}
R_{\theta_1}\cdot R_{\theta_2}=R_{\theta_1+\theta_2}=R_{\theta_2}\cdot R_{\theta_1}.
\end{equation}
Una consecuencia importante es que la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ aún es $R_\theta$, pues la matriz de cambio de base de la base canónica a la nueva base ortonormal positiva sigue siendo una rotación. Análogamente, si en el argumento anterior tomamos una base ortonormal negativa, entonces la matriz asociada a $T$ es $R_{-\theta}$. La relación \eqref{rot} también muestra que para calcular el ángulo de la composición de dos rotaciones basta con tomar la suma de los ángulos y restar un múltiplo adecuado de $2\pi$ tal que el ángulo obtenido quede en el intervalo $(-\pi,\pi]$.

Si $\det A=-1$. Entonces
$$A^{-1}=\begin{pmatrix}
-d & b\\
c & -a\end{pmatrix}$$ y como $A$ es ortogonal, entonces $d=-a$ y $b=c$. También tenemos que $a^2+b^2=1$, por lo que existe un único número real $\theta\in(-\pi,\pi]$ tal que $a=\cos\theta$ y $b=\sin\theta$. Entonces
$$A=S_\theta:=\begin{pmatrix}
\cos\theta & \sin\theta\\
\sin\theta & -\cos\theta \end{pmatrix}.$$
Notemos que $S_\theta$ es simétrica y ortogonal, por lo tanto $S_\theta^2=I_2$ y que la transformación correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (cos\theta x+\sin\theta y, \sin \theta x-\cos\theta y)
\end{align*}
es una simetría ortogonal. Para encontrar la recta con respecto a la cual $T$ es una simetría ortogonal, bastará con resolver el sistema $AX=X$. El sistema es equivalente a
$$\sin\left(\frac{\theta}{2}\right)\cdot x=\cos \left(\frac{\theta}{2}\right)\cdot y$$ y por lo tanto la recta $AX=X$ está generada por el vector
$$e_1=\left( \cos\left(\frac{\theta}{2}\right), \sin\left(\frac{\theta}{2}\right) \right)$$ y la correspondiente recta ortogonal está generada por el vector
$$e_2=\left(-\sin\left(\frac{\theta}{2}\right),\cos\left(\frac{\theta}{2}\right)\right),$$
y los vectores $e_1,e_2$ forman una base ortonormal de $\mathbb{R}^2$ para la cual la matriz asociada a $T$ es
$$\begin{pmatrix}
1 & 0\\
0 & -1\end{pmatrix}$$
y además $$S_{\theta_1}\cdot S_{\theta_2}=R_{\theta_1-\theta_2}$$
lo que significa que la composición de dos simetrías ortogonales es una rotación. Similarmente tenemos que
$$S_{\theta_1}R_{\theta_2}\hspace{3mm} R_{\theta_1}S_{\theta_2}=S_{\theta_1+\theta_2},$$
por lo que la composición de una rotación y una simetría ortogonal es una simetría ortogonal.

Tarea moral

  • Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ siempre que $||x||=1$.
  • Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  • Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.

Álgebra lineal II: Isometrías reales

Introducción.

En entradas anteriores hemos estudiado transformaciones lineales que preservan las estructuras entre su dominio y contra dominio. El siguiente paso es estudiar las transformaciones lineales entre espacios euclidianos que preservan las distancias. Veremos que esta condición garantiza que la transformación en cuestión preserva el producto interior de un espacio a otro.

Definición. Sean $V_1,V_2$ espacios euclidianos con productos interiores $\langle , \rangle_1$ y $\langle , \rangle_2$, y con correspondientes normas $||\cdot||_1$ y $||\cdot||_2$. Una isometría entre $V_1$ y $V_2$ es un isomorfismo entre $\mathbb{R}$-espacios vectoriales $T:V_1\to V_2$ tal que para cualesquiera $x,y\in V_1$ $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$


Por lo tanto, una isometría es una transformación lineal biyectiva que preserva el producto interior. El siguiente problema nos d a una mejor idea de esta preservación:

Problema. Sean $V_1$ y $V_2$ espacios euclidianos, y $T:V_1\to V_2$ una transformación lineal. Demuestra que las siguientes afirmaciones son equivalentes:

  1. $\langle T(x),T(y) \rangle_2 = \langle x,y \rangle_1 $ para cualesquiera $x,y\in V_1$.
  2. $||T(x)||_2=||x||_1$.

Solución. Supongamos que 1. es cierto. Entonces tomando $y=x$ se obtiene
$$||T(x)||_2^2=||x||_1^2$$ y por lo tanto $||T(x)||_2=||x||_1$, lo cual muestra el inciso 2.

Si 2. es cierto, usando la identidad de polarización y la linealidad de $T$, podemos mostrar que
\begin{align*}
\langle T(x), T(y) \rangle_2 &=\frac{||T(x)+T(y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&= \frac{||T(x+y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&=\frac{||x+y||_2^2-||x||_2^2 – ||y||_2^2}{2}=\langle x,y \rangle_1,
\end{align*} lo cual muestra 1.

$\square$

Observación. Si $T$ es una transformación como la del problema anterior, entonces $T$ es automáticamente inyectiva: si $T(x)=0$, entonces $||T(x)||_2=0$, de donde $||x||_1=0$ y por lo tanto $x=0$.

Definición. a) Sea $V$ un espacio euclidiano. Diremos que una transformación lineal $T:V\to V$ es ortogonal si $T$ es una isometría de $V$ en $V$. En otras palabras, $T$ es ortogonal si $T$ es biyectiva y para cualesquiera $x,y\in V$ $$\langle T(x), T(y) \rangle = \langle x,y \rangle.$$
Nota que la biyectividad de $T$ es consecuencia de la relación anterior, gracias a la observación. Por lo tanto $T$ es ortogonal si y sólo si $T$ preserva el producto interior.

b) Diremos que una matriz $A\in M_n(\mathbb{R})$ es ortogonal si
$$A^tA=I_n.$$

Observación. a) Considera a $\mathbb{R}^n$ con su producto interior canónico, y una matriz $A\in M_n(\mathbb{R})$. $A$ es ortogonal si y sólo si la transformación lineal
\begin{align*}
\mathbb{R}^n &\to \mathbb{R}^n\\
x&\mapsto Ax
\end{align*} es ortogonal.

b) Una transformación lineal $T$ es ortogonal si y sólo si $$||T(x)||=||x||\hspace{1.5mm}\forall x\in V.$$ Por lo tanto, una matriz $A\in M_n(\mathbb{R})$ es ortogonal si y sólo si $$||Ax||=||x||\hspace{1.5mm} \forall x\in \mathbb{R}^n.$$

Un ejemplo importante

Una clase importante de transformaciones ortogonales es la de las simetrías ortogonales. Sea $V$ un espacio euclidiano y $W$ un subespacio de $V$. Entonces $V=W\oplus W^\bot$, por lo que podemos definir la simetría $s_W$ sobre $W^\bot$ con respecto a $W$. Recuerda que cualquier $v\in V$ se puede escribir como $v=w+w^\bot$, con $(w,w^\bot)\in W\times W^\bot$, entonces $$s_W(v)=w-w^\bot,$$ de manera que $s_W$ fija puntualmente a $W$ y $-s_W$ fija puntualmente a $W^\bot$.

Para garantizar que $s_W$ es una transformación ortogonal, bastará con verificar que $||s_W(v)||=||v||$ para todo $v\in V$, o equivalentemente
$$||w-w^\bot||=||w+w^\bot|| \hspace{1.5mm}\forall (w,w^\bot)\in W\times W^\bot.$$ Pero por el teorema de Pitágoras se tiene que si elevemos ambos lados a cuadrado se obtiene $||w||^2+||w^\bot||^2$ y se sigue el resultado deseado.

Las simetrías ortogonales se pueden distinguir fácilmente entre las transformaciones ortogonales, pues estas son precisamente las transformaciones ortogonales auto-adjuntas.

Equivalencias

Volviendo al contexto general de matrices ortogonales vemos que para una matriz $A\in M_n(\mathbb{R})$ ortogonal, si $R_1,\dots,R_n$ son las filas de $A$, la relación
$$A^tA=I_n$$ es equivalente a


$\langle R_i,R_j\rangle=0$ si $i\neq j$, $||R_i||^2=1$ para $1\leq i\leq n.$


Dicho de otra forma, $A$ es una matriz ortogonal su y solo si sus filas forman una base ortonormal de $\mathbb{R}^n$. También cabe mencionar que $A$ es ortogonal si y sólo si $^tA$ es ortogonal. Por lo tanto, hemos probado el siguiente teorema:

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz y considera a $\mathbb{R}^n$ con el producto interior canónico. Las siguientes afirmaciones son equivalentes:

  1. $A$ es ortogonal.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  4. Para cualquier $x\in\mathbb{R}^n$ se tiene $$||Ax||=||x||.$$

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  3. $||T(x)||=||x||$ para cualquier $x\in V$.
  4. $T^*\circ T=Id$.

Demostración.

Por definción 1. implica 2. que a su vez es equivalente a 3.
Si 2. se satisface, entonces
\begin{align*}
\langle T^*\circ T(x)-x,y \rangle&=\langle y, T^*(T(x)) \rangle-\langle x,y \rangle\\
&= \langle T(x),T(y) \rangle – \langle x,y \rangle=0
\end{align*} para cualesquiera $x,y \in V$ y por lo tanto $T^*(T(x))=x$, lo que prueba 4.
Sólo nos falta probar que 4. implica 1. Si 4. se satisface, entonces $T$ es biyectiva, con inversas $T^*$, por lo que bastará con verificar que 2. se satisface. Como 2. es equivalente a 3. bastará con verificar
$$||T(x)||^2=\langle T(x),T(x) \rangle =\langle x,T^*(T(x)) \rangle=\langle x,x \rangle=||x||^2$$ para cualquier $x\in V$. Se concluye el resultado deseado.

$\square$

Caracterización sobre bases ortonormales

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una tranformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. Para cualquier base ortonormal $e_1,\dots ,e_n$ de $V$, los vectores $T(e_1),\dots ,T(e_n)$ forman una base ortonormal de $V$.
  3. Existe una base ortonormal de $e_1,\dots ,e_n$ de $V$ tal que $T(e_1),\dots ,T(e_n)$ es una base ortonormal de $V$.

Solución. Supongamos que 1. es cierto y sea $e_1,\dots ,e_n$ una base ortonormal de $V$. Entonces para cada $i,j\in[1,n]$ tenemos
$$\langle T(e_i),T(e_j) \rangle =\langle e_i,e_j \rangle.$$
Se sigue que $T(e_1),\dots ,T(e_n)$ es una familia ortonormal, y como $dim V=n$, entonces es una base ortonormal de $V$. Entonces 1. implica 2. y claramente 2. implica 3.
Supongamos que 3. es cierto. Sea $x\in V$ y escribamos $x=x_1e_1+x_2e_2+\dots +x_ne_n$. Como $e_1,\dots ,e_n$ y $T(e_1),\dots ,T(e_n)$ son bases ortonormales de $V$, tenemos
$$||T(x)||^2=||x_1T(e_1)+\dots +x_nT(e_n)||^2=x_1^2+\dots +x_n^2=||x||^2.$$
Por lo tanto $||T(x)||=||x||$ para todo $x\in V$ y $T$ es ortogonal.

$\square$

Tarea moral

  • Demuestra que la matriz
    $$A=\begin{pmatrix}
    \frac{3}{5} & \frac{4}{5}\\
    -\frac{4}{5} & \frac{3}{5}
    \end{pmatrix}$$ es ortogonal.
  • Sea $e_1,\dots ,e_n$ una base ortnormal de un espacio euclidiano $V$ y sea $e_1′,\dots ,e_n’$ otra base de $V$. Sea $P$ la matriz de cambio de base de $e_1,\dots ,e_n$ a $e_1′,\dots ,e_n’$. Demuestra que $e_1′,\dots ,e_n’$ es ortonormal si y sólo si $P$ es ortogonal.
  • Demuestra que la composición de transfromaciones ortogonales es ortogonal.

Álgebra lineal II: Transformaciones lineales normales

Introducción.

Siguiendo con el hilo de la entrada anterior, en esta ocasión estudiaremos las transformaciones lineales normales, algunas de sus propiedades más importantes. En entradas anteriores hemos visto la importancia de los operadores lineales diagonalizables. Para estos operadores, es necesario y suficiente que el espacio vectorial $V$ posea una base de vectores propios. En esta entrada $V$ es un espacio euclidiano, así que es natural buscar condiciones que nos garanticen qu $V$ tiene una base ortogonormal de vectores propios.

Definición. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Diremos que $T$ es normal si $T$ conmuta con su transformación adjunta, es decir, si $$TT^*=T^*T.$$
Similarmente, diremos que una matriz $A\in M_n(F)$ (con $F=\mathbb{R}$ o $\mathbb{C}$) es normal si $$AA^*=A^*A.$$

Problema. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$. Demuestra que los siguientes incisos son equivalentes:

  1. $||T(x)||=||T^*(x)||$ para todo $x\in V$.
  2. $\langle T(x),T(y)\rangle=\langle T^*(x),T^*(y) \rangle$.
  3. $T$ es normal.

Solución. Supongamos que 1. es cierto. Usando la identidad de polarización dos veces y la linealidad de $T$ y $T^*$ obtenemos
\begin{align*}
\langle T(x),T(y) \rangle &=\frac{||T(x+y)||^2-||T(x)||^2-||T(y)||^2}{2}\\
&=\frac{||T(x+y)^*||^2-||T(x)^*||^2-||T(y)^*||^2}{2}\\
&=\langle T(x)^*,T(y)^* \rangle.
\end{align*} lo cual prueba el inciso 2.

Supongamos ahora que 2. es cierto. Entonces para cualesquiera $x,y\in V$ se tiene que
\begin{align*}
\langle (T\circ T^* – T^*\circ T)(x), y \rangle &=\langle T(T^*(x)),y\rangle- \langle T^*(T(x)) ,y\rangle \\
&=\langle T^*(x),T^*(y) \rangle – \langle y,T^*(T(x))\rangle\\
&=\langle T(x),T(y) \rangle – \langle T(y),T(x)\rangle =0.
\end{align*}
De manera que $(T\circ T^*-T^*\circ T)(x)=0$ para cualquier $x\in V$, y así $T$ conmuta con $T^*$.

Finalemente, supongamos que 3. es cierto. Entonces
\begin{align*}
||T(x)||^2&=\langle T(x),T(x)\rangle\\
&=\langle T(x),T(x)\rangle\\
&=\langle x,T^*(T(x))\rangle \\
&= \langle T(T^*(x)),x \rangle\\
&=\langle T^*(x),T^*(x) \rangle = ||T^*(x)||^2,
\end{align*}
y por lo tanto $||T(x)||=||T^*(x)||$ para todo $x\in V$, lo que prueba el inciso 1.

$\square$

Teorema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal normal. Si $x$ es un vector propio de $T$, entonces $x$ también es un vector propio de $T^*$. De hecho, si $T(x)=tx$, entonces $T^*(x)=\overline{t}x$.

Demostración. Supongamos que $T(x)=tx$ para algún $x\in V$. Ddenotemos $U:= T-tI$. Entonces $U(x)=0$ y $U$ es normal (ver Tarea moral). Del teorema anterior se sigue que
$$0=||U(x)||=||U^*(x)||=||(T^*-\overline{t}I)(x)||=||T^*(x)-\overline{t}x||.$$

Por lo tanto, $T^*(x)=\overline{t}x$. Es decir, $x$ es un vector propio de $T^*$.

$\square$

Teorema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal normal. Si $t_1$ y $t_2$ son valores propios de $T$, distintos, con vectores propios $x_1$ y $x_2$, respectivamente. Entonces $\langle x_1,x_2\rangle =0.$

Demostración. Por el teorema anterior se tiene que
\begin{align*}
t_1\langle x_1,x_2 \rangle &=\langle t_1x_1,x_2 \rangle\\
&=\langle T(x_1),x_2 \rangle\\
&=\langle x_1,T^*(x_2)\rangle\\
&=\langle x_1,\overline{t_2}x_2 \rangle=t_2\langle x_1,x_2 \rangle. \end{align*}

Como $t_1\neq t_2$, entonces $\langle x_1,x_2\rangle=0$.

$\square$

Recordatorio. Sea $V$ un espacio euclidiano de dimensión finita con una base ortonormal $\beta=\{v_1,v_2,\dots, v_n\}$. Sea $T:V\to V$ una transformación lineal y $A$ la matriz asociada a $T$ con respecto a $\beta$. entonces para cualesquiera $i,j\in [1,n]$, $$A_{ij}=\langle T(v_j),v_i \rangle.$$

Teorema. Sea $V$ un $\mathbb{C}$-espacio euclidiano de dimensión finita y $T:V\to V$ una transformación lineal. Entonces $T$ es normal si y sólo si existe una base ortonormal de $V$ formada por vectores propios de $T$.

Demostración. Supongamos que $T$ es normal, por el teorema fundamental del álgebra, tenemos que el polinomio carctrísitco de $T$ se divide. Por lo tanto podemos aplicar el teorema de Schur para obtener una base ortonormal $\beta=\{v_1,v_2, \dots , v_n\}$ para $V$ tal que si $A$ es la matriz asociada a $T$ con respecto a $\beta$, entonces $A$ es triangular superior. Sabemos que $v_1$ es un vector propio de $T$ ya que $A$ es triangular superior. Supongamos que $v_2,\dots,v_{k-1}$ también son vectores propios de $T$. Afirmamos que $v_k$ también es vector propio de $T$. por inducción sobre $K$, se sigue que todos los $v_i$’s son vectores propios de $T$.
Sea $j<k$ y $t_j$ el valor propio asociado a $v_j$. Por el teorema anterior, $T^*(v_j)=\overline{t_j}v_j$. como $A$ es triangular superior,
$$T(v_k)=A_{1k}v_1+A_{2k}v_2+\dots + A_{jk}v_j+\dots+A_{kk}v_k.$$

Más aún, por el recordatorio se tiene que
$$A_{jk}=\langle T(v_k),v_j \rangle=\langle v_k,T^*(v_j) \rangle= \langle v_k, \overline{t_j}v_j \rangle=t_j\langle v_k,v_j \rangle=0.$$
Se sigue que $T(v_k)=A_{kk}v_k$ y por lo tanto $v_k$ es un eigenvector de $T$. por inducción, todos los vectores de $\beta$ son vectores propios de $T$.

Supongamos ahora que existe una base ortonormal de $V$ formada por vectores propios de $T$. Entonces la matriz asociada a $T$ con respecto a esa base, digamos $A$, es diagonal. Entonces la matriz asociada a $T^*$ con respecto a esa base también es diagonal. Como las matrices diagonales conmutan, entonces $T$ y $T^*$ también conmutan. Se concluye el resultado deseado.

$\square$

Tarea moral

  • Sea $T:\mathbb{R}^2\to \mathbb{R}^2$ un rotación de ángulo $\theta\in(0,\pi)$. La representación matricial de $T$ en la base canónica está dada por
    $$\begin{pmatrix}
    \cos\theta &-\sin\theta\\
    \sin\theta &\cos\theta
    \end{pmatrix}.$$ Verifica que $T$ es normal.
  • Sea $A\in M_n(\mathbb{R})$ una matriz anti-simétrica. Verifica que $A$ es normal.
  • Sea $V$ un espacio euclidiano sobre un campo $F=\mathbb{C}$ o $\mathbb{R}$ y $T:V\to V$ una transformación lineal normal. Prueba que $T-cI$ es normal $\forall c\in F$.

Álgebra Lineal II: Transformaciones lineales adjuntas.

Introducción

Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Sea $T:V \to V$ una transformación lineal.
Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle\in V^*$. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

De esta manera obtenemos una transformación $T^*:V\to V$ caracterizada de manera única por la siguiente condición:
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x,y\in V.$$

Resulta que la transformación $T^*$ es lineal y la llamaremos la adjunta de $T$. Ahora sí, ya estamos listos para enunciar el siguiente teorema.

Definiciones

Teorema. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Para cada transformación lineal $T:V\to V$ existe una única transformación $T^*:V\to V$, llamada la adjunta de $T$, tal que para cualesquiera $x,y\in V$ se tiene que
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle.$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la función $T\to T^*$ es una transformación auto-inversa sobre $V$.

$\square$

Definición. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Decimos que una transformación $T:V\to V$ es simétrica o auto-adjunta si $T^*=T$ y que es alternante o anti-simétrica si $T^*=-T$.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre. Lo mismo para las anti-simétricas.

Relacionando transformaciones con matrices

Problema. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita y sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$ y $A$ la matriz asociada $T$ con respecto a $\mathcal{B}$. Demuestra que la matriz asociada a $T^*$ con respecto a $\mathcal{B}$ es $^tA$ Por lo tanto $T$ es simétrica (anti-simétrica) si y sólo si $A$ es simétrica (anti-simétrica).

Solución. Sea $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$, por lo que para cada $i\in[1,n]$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$\langle T(e_i),e_j\rangle=\langle e_i,T^*(e_j) \rangle $$ y $T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$, y como la base $\mathcal{B}$ es ortonormal, entonces $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_kj\langle e_i,e_k \rangle.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$, o bien $B= {}^tA$.

$\square$

Problema. Demuestra que cualesquiera dos eigenespacios distintos de una transformación lineal ortogonal son ortogonales.

Solución. Sean $t_1,t_2$ dos eigenvalores distintos de $T$ y sean $x,y\in V\backslash\{0\}$ los correspondientes eigevectores. Como $T$ es simétrica, tenemos que
\begin{align*}
\langle T(x),y\rangle &=\langle x,T(y)\rangle\\
t_1\langle x,y \rangle &= t_2\langle x,y \rangle .
\end{align*}
Como por hipótesis $t_1\neq t_2$, entonces necesariamente $\langle x,y \rangle=0$. Se concluye el resultado deseado.


$\square$

Problema. Sean $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal.

  1. Demuestra que $T$ es alternante si y sólo si $\langle T(x),x \rangle=0$ para todo $x\in V$.
  2. Demuestra que si $T$ es alternante, entonces $0$ es la única raíz real posible del polinomio característico de $T$.

Solución. 1. Supongamos que $T$ es alternante, entonces $T+T^*=0$. Entonces para toda $x\in V$ tenemos que

$$\langle T(x),x\rangle = \langle x,T^*(x) \rangle =\langle x,-T(x) \rangle=-\langle T(x),x \rangle,$$

por lo tanto $\langle T(x),x\rangle=0$.

Conversamente, supongamos que $\langle T(x),x\rangle=0$ para todo $x\in V$. Por lo tanto, para cualesquiera $x,y\in V$ tenemos que

\begin{align*}
0=\langle T(x+y),x+y\rangle&=\langle T(x)+T(y),x+y\rangle\\
&=\langle T(x),x \rangle + \langle T(x),y \rangle + \langle x,T(y)\rangle + \langle T(y),y \rangle\\
&= \langle T(x),y \rangle + \langle T^*(x), y \rangle \\
&= \langle (T+T^*)(x),y \rangle.
\end{align*}

Por lo tanto $(T+T^*)(x)$ es ortogonal a $V$ y por ende igual a $\{0\}$. Se sigue que $T^*=-T$.

2. Supongamos que $t$ es una raíz real del polinomio característico de $T$. Por lo tanto existe un vector no nulo $x\in V$ tal que $T(x)=tx$. Luego
$$t||x||^2=\langle tx,x\rangle = \langle T(x),x\rangle=0,$$
y por lo tanto $t=0$.

$\square$

Problema. Sea $V$ un espacio euclidiano y sean $e_1,\dots, e_n$ una base de $V$. Demuestra que la transformación $T:V\to V$ definida por
$$T(x)=\displaystyle\sum_{k=1}^n\langle e_k,x\rangle e_k$$ es una transformación lineal simétrica sobre $V$. Determina si $T$ es positiva y positiva definida.

Solución. Por definición de producto interior, se tiene que la tranformación $x\mapsto \langle e_k,x \rangle$ es lineal para todo $1\leq k \leq n$. Por lo tanto $T$ también es lineal. Para probar que $T$ es simétrica bastará con verificar que $$\langle T(x),y \rangle= \langle x,T(y) \rangle \hspace{2mm} \forall x,y\in V.$$

Usando el hecho de que el producto interior es una forma bilineal podemos obtener la siguiente descomposición:
\begin{equation}\label{1}
\langle T(x),y \rangle=\left\langle \displaystyle\sum_{k=1}^n\langle e_k,x\rangle,y\right\rangle =\sum_{k=1}^n\langle e_k,x\rangle \cdot \langle e_k,y \rangle. \end{equation}

Análogamente se obtiene que
$$\langle x,T(y) \rangle=\left\langle x,\displaystyle\sum_{k=1}^n\langle e_k,x\rangle\right\rangle =\sum_{k=1}^n\langle e_k,x\rangle \cdot \langle e_k,y \rangle.$$ Con lo cual queda demostrado que $T$ es simétrica.

Si sustituimos $y=x$ en la ecuación \eqref{1}, entonces
$$\langle T(x),x \rangle =\displaystyle\sum_{k=1}^n\langle e_k,x\rangle^2\geq 0.$$
Entonces $T$ es positiva. Más aún, si $T=0$, entonces $\langle e_k,x \rangle=0$ para toda $1\leq k\leq n$ así $x\in V^{\bot}=\{0\}$. Se sigue que $T$ es positiva definida.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Demuestra que si $T$ es una transformación lineal, entonces $T^*$ también lo es.
  • Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano de dimensión finita, entonces $$\det T= \det T^*.$$
  • Considera la transformación lineal $T:\mathbb{C}^3 \to \mathbb{C}^2$ cuya matriz asociada es
    $$\begin{pmatrix}
    1 & i & 0\\
    0 & 1+i & 3\end{pmatrix}.$$ Encuentra la matriz asociada a $T^*$.

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
$V$ es un espacio vectorial de dimensión finita si existe una familia finita de vectores $v_1, v_2, \dots , v_n \in V$ tal que todos los vectores en $V$ se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios $F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm}$ y $\hspace{2mm} \mathbb{R}_n[x]$ son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial $V$ de todos los polinomios con coeficientes reales no es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Demostración. Supongamos que $V$ tiene un conjunto generador finito, entonces existen polinomios $p_1,p_2,\dots,p_n\in V$ tales que $V=\text{span}(p_1,p_2,\dots,p_n)$. Sea $d=\max\{deg(p_1), \dots, deg(p_n)\}$. Como todos los $p_i$ tienen grado a lo más $d$, entonces cualquier combinación lineal de $p_1,p_2,\dots,p_n$ también tiene grado a lo más $d$. Se sigue que todo vector en $V$ tiene grado a lo más $d$, pero eso es imposible, pues $deg(x^{d+1})=d+1>d$. Por lo tanto $V$ no es de dimensión finita.

$\square$

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en $\mathbb{R}^n$ para distintos valores de $n$. Una linea (digamos $\mathbb{R}$) debería tener dimensión $1$, un plano (digamos $\mathbb{R}^2$) debería tener dimensión 2, y en general $\mathbb{R}^n$ debería tener dimensión $n$.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial $V$ es un subconjunto $B$ de $V$ tal que $B$ es linealmente independiente y generador.

Ejemplos.

  • El conjunto $B=\{e_1,\ldots,e_n\}$ de vectores canónicos en $\mathbb{F}^n$ es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector $v$ en $\mathbb{F}^n$ se puede escribir de manera única como $v=x_1e_1+\ldots+x_ne_n$ con $x_1,\ldots,x_n$ escalares. Como existe al menos una forma, entonces $\text{span}(B)=F^n$. Como es única, en particular la única forma de escribir al vector $0$ es si $x_1=\ldots=x_n=0$. Esto muestra que $B$ es generador y linealmente independiente.
  • El conjunto $B=\{E_{ij}\}$ de matrices canónicas en $M_{m,n}(F)$ es una base.
  • El conjunto $1,x,\ldots,x^n$ es una base de $\mathbb{R}_n[x]$.

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema. Dada la matriz $A\in M_2(\mathbb{R})$
\begin{align*}
A=\begin{pmatrix}
2 & 0\\
0 & 3
\end{pmatrix}
\end{align*}
encuentra una base para el subespacio $U$ de $M_2(\mathbb{R})$ definido por
\begin{align*}
U=\{X\in M_2(\mathbb{R}): XA=AX\}.
\end{align*}

Solución. Considera la matriz $X=\begin{pmatrix}
a_1 & a_2\\
a_3 & a_4\end{pmatrix}$. Entonces $X\in U$ si y sólo si $XA=AX$, lo anterior lo escribimos como
\begin{align*}
\begin{pmatrix}
2a_1 & 3 a_2\\
2a_3 & 3a_4
\end{pmatrix} = \begin{pmatrix}
2a_1 & 2 a_2\\
3a_3 & 3a_4
\end{pmatrix}.
\end{align*}
De la igualdad anterior obtenemos que $a_2=a_3=0$. Por lo tanto
\begin{align*}
U=\left\{\begin{pmatrix}
a_1 & 0\\
0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.
\end{align*}

Este es un primer paso, pues nos permite poner al subespacio $U$ en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para $U$. Proponemos al siguiente conjunto de dos matrices:
\begin{align*}
B=\left\{ \begin{pmatrix}
1 & 0\\
0 & 0\end{pmatrix} , \begin{pmatrix}
0&0\\
0 & 1\end{pmatrix}\right\}.
\end{align*}

Por un lado, este es un conjunto generador para $U$, pues cualquier elemento de $U$ se puede escribir como combinación lineal de elementos en $B$ como sigue: $$\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$

Por otro lado, $B$ es un conjunto linealmente independiente pues si $a$ y $b$ son escalares que tan una combinación lineal igual a cero entonces tendríamos $$\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.$$

Igualando la primera y última matriz entrada a entrada, tenemos que $a=b=0$.

$\square$

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base $B$ de un subespacio $U$ de un espacio vectorial $V$. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio $U$ del que hay que dar una base.
  • Expresar a $U$ en términos simples.
  • Ver cómo son los vectores de $U$, y de ahí proponer una base $B$. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que $B$ genera a $U$.
  • Mostrar que $B$ es linealmente independiente en $V$.

Veamos más ejemplos.

Problema. Determina una base para el subespacio $U$ de $\mathbb{R}^4$ dado por
\begin{align*}
U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.
\end{align*}

Solución. Como $b=-a$ y $c=2d$, entonces
\begin{align*}
U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},
\end{align*}
donde $v_1=(1,-1,0,0)$ y $v_2=(0,0,2,1)$. Por lo tanto $v_1,v_2$ generan a $U$. También son linealmente independientes, pues la relación $av_1+dv_2=0$ es equivalente a $(a,-a,2d,d)=(0,0,0,0)$ e implica $a=d=0$.Se sigue que $\{v_1,v_2\}$ es una base para $U$.

$\square$

Problema. Considera los subespacios $U,V$ de $\mathbb{R}^4$ definidos por
\begin{align*}
U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}
\end{align*}
y
\begin{align*}
V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.
\end{align*}
Encuentra una base para cada uno de los subespacios $U,V$ y $U\cap V$ de $\mathbb{R}^4$.

Solución. Expresando a $w$ en términos de $y$ y $z$, obtenemos
\begin{align*}
U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\
&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},
\end{align*}
donde $u_1=(1,0,0,0), u_2=(0,1,0,-1)$ y $u_3=(0,0,1,-1)$.

Veamos si $u_1,u_2,u_3$ son linealmente independientes. La igualdad $xu_1+yu_2+zu_3=0$ es equivalente a $(x,y,z,-y-z)=(0,0,0,0)$ e implica $x=y=z=0$. Por lo tanto, los vectores $u_1,u_2,u_3$ son linealmente independientes y forman una base de $U$.

Ahora, para $V$. Es fácil ver que
\begin{align*}
V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\
&=\{yv_1+wv_2| y,w\in \mathbb{R}\},
\end{align*}
donde $v_1=(-1,1,0,0) \hspace{2mm}$ y $v_2=(0,0,2,1)$.

Nuevamente, $v_1, v_2$ son linealmente independientes, pues la relación $yv_1+wv_2=0$ es equivalente a $(-y,y,2w,w)=(0,0,0,0)$ e implica $y=w=0$. Por lo tanto $v_1,v_2$ forman una base de $V$.

Finalmente, el vector $(x,y,z,w)\in\mathbb{R}^4$ pertenece a $U\cap V$ si y sólo si
\begin{align*}
x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.
\end{align*}
Se sigue que $x=3w, \hspace{2mm} z=2w \hspace{2mm}$ y $y=-3w$, o bien
\begin{align*}
(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).
\end{align*}
Por lo tanto $\{(3,-3,2,1)\}$ es una base de $U \cap V$.

$\square$

Problema. Sea $V$ el espacio de funciones $f:\mathbb{R}\longrightarrow \mathbb{R}$ generado por las funciones en $B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}$.

a) Demuestra que $B$ es una base de $V$.
b) Demuestra que $x\mapsto \sin ^2 (x)$ es una función en $V$ y exprésala como combinación lineal de los elementos de $B$.

Solución. a) . Como $V$ es el generado de $B$, por definición $B$ es generador. Así, basta demostrar que los vectores en $B$ son linealmente independientes. En otras palabras, queremos ver que si $a,b,c$ son números reales tales que
\begin{align*}
a+b\sin (2x) + c\cos (2x)=0
\end{align*}
para todo $x\in \mathbb{R}$, entonces $a=b=c=0$.

Tomando $x=0$ se obtiene que $a+c=0$. Si tomamos $x=\frac{\pi}{2}$ obtenemos $a-c=0$. Por lo tanto $a=c=0$. Finalmente, si tomamos $x=\frac{\pi}{4}$ obtenemos $b=0$.

b) Para cada $x\in\mathbb{R}$ se tiene
\begin{align*}
\cos (2x)&=2\cos^2(x)-1\\
&=2(1-\sin^2(x))-1\\
&=1-2\sin^2(x),
\end{align*}
por lo tanto
\begin{align*}
\sin^2(x)=\frac{1-\cos (2x)}{2}.
\end{align*}
Por lo tanto $x\mapsto \sin^2(x)$ pertence a $V$ y lo expresamos como combinación lineal de los elementos de $B$ de la siguiente manera:
\begin{align*}
\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) – \frac{1}{2} \cos (2x).
\end{align*}

$\square$

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita. Entonces
a) $V$ contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de $V$ tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como $V$ es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea $B$ un conjunto generador de $V$ con el menor número posible de elementos. Vamos a demostrar que $B$ es una base para $V$. $B$ ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que $B$ no es linealmente independiente, entonces existe $v\in B$ tal que $v\in \text{span}(B\backslash \{v\})$. Por lo tanto $$\text{span}(B\setminus\{v\})=\text{span}(B)=V.$$

Pero eso es imposible pues $B$ se tomó de tamaño mínimo. Por lo tanto $B$ es linealmente independiente. Se sigue el resultado deseado.

b) Sea $B$ una base con una cantidad finita de elementos, digamos $n$. Sea $B’$ otra base de $V$. Por definición de base, $B’$ es linealmente independiente y $B$ es un conjunto generador con $n$ elementos.

Por el lema de Steinitz, $B’$ es finito y tiene a lo más $n$ elementos. Lo anterior nos muestra que cualquier base tiene a lo más $n$ elementos. De hecho, si $B’$ tiene $d$ elementos, el lema de Steinitz garantiza que $n\leq d$.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a $B$ como linealmente independiente y a $B’$ como generador. Concluimos que $k\leq d$. De este modo, $k=d$ y por lo tanto toda base de $V$ tiene la misma cantidad de elementos.

$\square$

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea $V$ un espacio vectorial de dimensión finita. Definimos la dimensión $dim V$ de $V$ como el número de elementos de una base de $V$.

Ejemplos y problemas de dimensión

Ejemplo. Considera el espacio vectorial $\mathbb{R}^n$ y su base canónica $B=\{e_1,e_2,\dots , e_n\}$. Como $B$ es base y tiene $n$ elementos, entonces $dim(\mathbb{R}^n)=n$.

$\square$

Ejemplo. Considera el espacio vectorial $\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Una base para $\mathbb{R}_n[x]$ es $\{1,x,\dots, x^n\}$, por lo tanto $dim(\mathbb{R}_n[x])=n+1$.

$\square$

Ejemplo. Considera el espacio vectorial $M_{m,n}(\mathbb{R})$. Sea $E_{ij}\in M_{m,n}(\mathbb{R})$ la matriz cuya entrada $(i,j)$ es $1$ y el resto de sus entradas son $0$. Entonces $B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \}$ es una base para $M_{m,n}(\mathbb{R})$. Así, $\dim(M_{m,n}(\mathbb{R}))=mn$.

$\square$

Problema. Encuentra una base y la dimensión del subespacio
\begin{align*}
V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.
\end{align*}

Solución. Notemos que $V=\text{span}((1,2))$, pues $(a,2a)=a(1,2)$. Como $(1,2)\neq (0,0)$, entonces $B=\{(1,2)\}$ es una base de $V$. Por lo tanto $\dim(V)=1$.

$\square$

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$. Entonces
a) Cualquier conjunto linealmente independiente de vectores de $V$ tiene a lo más $n$ elementos.
b) Cualquier conjunto generador de $V$ tiene al menos $n$ elementos.
c) Si $S$ es un subconjunto de $V$ con $n$ elementos, entonces las siguientes afirmaciones son equivalentes:

  1. $S$ es linealmente independiente.
  2. $ S $ es un conjunto generador.
  3. $S$ es una base de $V$.

Demostración. Sea $V$ una base de $B$. Por definición $B$ tiene $n$ elementos.

a) Como $B$ es un conjunto generador con $n$ elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más $n$ elementos.

b) Sea $S$ un conjunto generador de $V$ y supongamos que $S$ tiene $d<n$ elementos. Como $B$ es linealmente independiente, entonces por el lema de intercambio se tiene que $n \leq d$, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que $S$ es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar $n-n=0$ vectores a $S$ de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es $S$ mismo, pues no le agregamos nada. Por lo tanto $S$ es un conjunto generador y como estamos bajo el supuesto de que $S$ es linealmente independiente, entonces $S$ es una base de $V$.

Ahora supongamos que $S$ es un conjunto generador que no es linealmente independiente. Entonces existe $v\in S$ tal que $v\in \text{span}(S\setminus \{v\})$. Se sigue que $S\setminus \{v\}$ es un conjunto generador de $n-1$ elementos (al generar a $v$, genera todo lo que generaba $S$). Pero esto contradice el inciso b). Por lo tanto $S$ es linealmente independiente y por lo tanto es una base de $V$.

$\square$

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes «más grandes», o bien como los conjuntos generadores «más chicos». En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y de dimensión $n$. Demuestra que si ves a $V$ como un espacio vectorial sobre $\mathbb{R}$, entonces $\dim(V)=2n$.
  • Sea $V$ un espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Demuestra que $W$ es de dimensión finita, que $\dim(W)\leq \dim(V)$ y que la igualdad se da si y sólo si $W=V$.
  • Sean $W_1,W_2$ subespacios de un espacio vectorial $V$ con dimensiones $m$ y $n$, respectivamente, con $m\geq n$.
    a) Demuestra que $\dim(W_1\cap W_2)\leq n$.
    b) Demuestra que $\dim(W_1 + W_2)\leq m+n$.
  • Encuentra la dimensión del subespacio de matrices en $M_n(\mathbb{R})$ que son simétricas.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir «qué tanta información guarda una matriz». La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Entradas relacionadas