Archivo del Autor: Ayax Calderón

Álgebra Lineal II: El teorema de clasificación de transformaciones ortogonales

Introducción

En la entrada anterior defimos las transformaciones ortogonales y probamos algunas propiedas de éstas, relacionadas con el producto interior, la norma y la transformación adjunta de una trasnformación ortogonal cualquiera. En esta ocasión no encargaremos, de manera más general, de estudiar al conjunto de todas las transformaciones lineales ortogonales definidas sobre un espacio euclidiano $V$, de clasificarlas y de estudiar el caso de dimensión $2$.

El lema de los subespacios estables

Lema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Demuestra que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Demuestra que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Ahora tomamos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T$ es estable bajo $T^{-1}$, entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$, que es lo que queríamos demostrar.

2. Sea $T_1:=T|_W$, entonces para todo $x\in W$ se tiene que
$$||T_1(x)||=||T(x)||=||x||,$$
lo que significa que $T_1\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

El lema de la invarianza de una recta o un plano

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta o un plano en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $P$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$. Ahora supongamos que $P$ no tiene raíces reales. Sea $z$ una raíz compeja de $P$, como $P$ teien coeficientes reales, entonces $\overline{z}$ también es raíz de $P$ y por lo tanto $Q=(x-z)(x-\overline{z})$ divide a $P$. Más aún, $Q(T)$ no es invertible, pues si lo fuera, entonces $\frac{P}{Q}$ sería un polinomio de grado menor que anula a $T$. Por lo tanto existe $x\in V$ no nulo tal que $Q(T)(x)=0$. Esto se puede escribir como $T^2(x)+aT(x)+bx=0$ para algunos reales $a,b$. se sigue que el subespacio generado por $x$ y $T(x)$ es un plano estable bajo $T$, lo cual termina con la demostración.

$\square$

El lema de las ortogonales sin eigenvectores en el plano

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin valores propios reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $B=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2+||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$. El complemento ortogonal de $T(e_1)$ está dado por la recta $\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$. Como $\langle T(e_1),T(e_2) \rangle=\langle e_1,e_2 \rangle=0$, de donde $T(e_2)\in\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$ y por lo tanto
$$T(e_2)=c(-\sin\theta e_1 + \cos \theta e_2)$$ para algún número real $c$. Como $$||T(e_2)||=||e_2||=1, $$ se sigue que $|c|=1$ y así $c\in \{-1,1\}$. Veremos que $c$ no puede ser igual a $-1$, pues si $c=-1$, entonces la matriz de $T$ con respecto a a$B$ es
$$A=\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix}$$
cuyo polinomio caracterísitco es $x^2-1$, el cual tiene una raíz real, lo cual es absurdo.
Por lo tanto la matriz asociada a $T$ con respecto a la base $B$ es
$$A=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

El teorema de clasificación

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema (clasificación de ortogonales). (De clasificación) Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $B$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $B$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$.
Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$. Supongamos que $\dim V\geq 2$ y que el resultado se satisface para $n-1$.
Supongamos que $T$ tiene un eigenvalor real $t$ con eigenvector $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W=\mathbb{R}e_1$, entonces $W$ es estable bajo $T$, por la tanto $W^\bot$ es estable bajo $T$ (pues $T$ es ortogonal). Más aún, la restricción de $T$ a $W^\bot$ es una transformación ortogonal ya que $||T(x)||=||x||$ para toda $x\in V$, por lo tanto también para cualquier $x\in W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ y posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales. El primer lema nos dice que podemos encontrar un subespacio de dimensión $2$ estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el segundo lema, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual conlcuimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$, como $\det R_{\theta_i}=1$ para $1\leq i\leq k$. Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Más adelante…

Tarea moral

  1. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ siempre que $||x||=1$.
  2. Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  3. Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.

Entradas relacionadas

Álgebra Lineal II: Isometrías reales, transformaciones ortogonales y sus propiedades

Introducción

En entradas anteriores hemos estudiado transformaciones lineales que preservan las estructuras entre su dominio y contra dominio. El siguiente paso es estudiar las transformaciones lineales entre espacios euclidianos que preservan las distancias. Veremos que esta condición garantiza que la transformación en cuestión preserva el producto interior de un espacio a otro.

Isometrías y transformaciones ortogonales

Definición. Sean $V_1,V_2$ espacios euclidianos con productos interiores $\langle , \rangle_1$ y $\langle , \rangle_2$, y con correspondientes normas $||\cdot||_1$ y $||\cdot||_2$. Una isometría entre $V_1$ y $V_2$ es un isomorfismo entre $\mathbb{R}$-espacios vectoriales $T:V_1\to V_2$ tal que para cualesquiera $x,y\in V_1$ $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$

Por lo tanto, una isometría es una transformación lineal biyectiva que preserva el producto interior. El siguiente problema nos d a una mejor idea de esta preservación:

  1. $\langle T(x),T(y) \rangle_2 = \langle x,y \rangle_1 $ para cualesquiera $x,y\in V_1$.
  2. $||T(x)||_2=||x||_1$.

Solución. Supongamos que 1. es cierto. Entonces tomando $y=x$ se obtiene
$$||T(x)||_2^2=||x||_1^2$$ y por lo tanto $||T(x)||_2=||x||_1$, lo cual muestra el inciso 2.

Si 2. es cierto, usando la identidad de polarización y la linealidad de $T$, podemos mostrar que
\begin{align*}
\langle T(x), T(y) \rangle_2 &=\frac{||T(x)+T(y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&= \frac{||T(x+y)||_2^2-||T(x)||_2^2 – ||T(y)||_2^2}{2}\\
&=\frac{||x+y||_2^2-||x||_2^2 – ||y||_2^2}{2}=\langle x,y \rangle_1,
\end{align*} lo cual muestra 1.

$\square$

Observación. Si $T$ es una transformación como la del problema anterior, entonces $T$ es automáticamente inyectiva: si $T(x)=0$, entonces $||T(x)||_2=0$, de donde $||x||_1=0$ y por lo tanto $x=0$.

Definición. a) Sea $V$ un espacio euclidiano. Diremos que una transformación lineal $T:V\to V$ es ortogonal si $T$ es una isometría de $V$ en $V$. En otras palabras, $T$ es ortogonal si $T$ es biyectiva y para cualesquiera $x,y\in V$ $$\langle T(x), T(y) \rangle = \langle x,y \rangle.$$
Nota que la biyectividad de $T$ es consecuencia de la relación anterior, gracias a la observación. Por lo tanto $T$ es ortogonal si y sólo si $T$ preserva el producto interior.

b) Diremos que una matriz $A\in M_n(\mathbb{R})$ es ortogonal si
$$A^tA=I_n.$$

Observación. a) Considera a $\mathbb{R}^n$ con su producto interior canónico, y una matriz $A\in M_n(\mathbb{R})$. $A$ es ortogonal si y sólo si la transformación lineal
\begin{align*}
\mathbb{R}^n &\to \mathbb{R}^n\\
x&\mapsto Ax
\end{align*} es ortogonal.

b) Una transformación lineal $T$ es ortogonal si y sólo si $$||T(x)||=||x||\hspace{1.5mm}\forall x\in V.$$ Por lo tanto, una matriz $A\in M_n(\mathbb{R})$ es ortogonal si y sólo si $$||Ax||=||x||\hspace{1.5mm} \forall x\in \mathbb{R}^n.$$

Equivalencias de transformaciones ortogonales

Volviendo al contexto general de matrices ortogonales vemos que para una matriz $A\in M_n(\mathbb{R})$ ortogonal, si $R_1,\dots,R_n$ son las filas de $A$, la relación
$$A^tA=I_n$$ es equivalente a

$\langle R_i,R_j\rangle=0$ si $i\neq j$, $||R_i||^2=1$ para $1\leq i\leq n.$

Dicho de otra forma, $A$ es una matriz ortogonal su y solo si sus filas forman una base ortonormal de $\mathbb{R}^n$. También cabe mencionar que $A$ es ortogonal si y sólo si $^tA$ es ortogonal. Por lo tanto, hemos probado el siguiente teorema.

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz y considera a $\mathbb{R}^n$ con el producto interior canónico. Las siguientes afirmaciones son equivalentes:

  1. $A$ es ortogonal.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{R}^n$.
  4. Para cualquier $x\in\mathbb{R}^n$ se tiene $$||Ax||=||x||.$$

Problema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que las siguientes afirmaciones son equivalentes:

  1. $T$ es ortogonal.
  2. $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  3. $||T(x)||=||x||$ para cualquier $x\in V$.
  4. $T^*\circ T=Id$.

Demostración. Por definción 1. implica 2. que a su vez es equivalente a 3.
Si 2. se satisface, entonces

\begin{align*}
\langle T^*\circ T(x)-x,y \rangle&=\langle y, T^*(T(x)) \rangle-\langle x,y \rangle\\
&= \langle T(x),T(y) \rangle – \langle x,y \rangle=0
\end{align*}

para cualesquiera $x,y \in V$ y por lo tanto $T^*(T(x))=x$, lo que prueba 4.

Sólo nos falta probar que 4. implica 1. Si 4. se satisface, entonces $T$ es biyectiva, con inversas $T^*$, por lo que bastará con verificar que 2. se satisface. Como 2. es equivalente a 3. bastará con verificar $$||T(x)||^2=\langle T(x),T(x) \rangle =\langle x,T^*(T(x)) \rangle=\langle x,x \rangle=||x||^2$$ para cualquier $x\in V$. Se concluye el resultado deseado.

$\square$

Las transformaciones ortogonales forman un grupo

Teorema. El conjunto de las transformaciones ortogonalles sobre un espacio euclidiano $V$ forma un grupo bajo composición. En otras palabras, la composición de dos transformaciones ortogonales es una transformación ortogonal y la inversa de una transformación ortogonal es una transformación ortogonal.

Demostración. Sean $T_1,T_2$ transformaciones lineales ortogonales, entonces $T_1\circ T_2$ es lineal y además
$$||T_1\circ T_2(x)||=||T_1(T_2(x))||=||T_2(x)||=||x||$$
para todo $x\in V$ y por lo tanto $T_1\circ T_2$ es una transformación lineal ortogonal.

Análogamente tenemos que si $T$ es ortogonal, entonces
$$||x||=||T(T^{-1}(x))||=||T^{-1}(x)||$$
para todo $x\in V$.

$\square$

Definición. El grupo $O(V)$ es el grupo de transformaciones ortogonales (o isometrías) de $V$ y se conoce como el grupo ortogonal de $V$. Es el grupo de automorfimos de un espacio euclidiano $V$ y juega un papel muy importante al momento de entender al espacio $V$.

Más adelante…

Tarea moral

  1. Demuestra que la matriz
    $$A=\begin{pmatrix}
    \frac{3}{5} & \frac{4}{5}\\
    -\frac{4}{5} & \frac{3}{5}
    \end{pmatrix}$$ es ortogonal.
  2. Sea $e_1,\dots ,e_n$ una base ortnormal de un espacio euclidiano $V$ y sea $e_1′,\dots ,e_n’$ otra base de $V$. Sea $P$ la matriz de cambio de base de $e_1,\dots ,e_n$ a $e_1′,\dots ,e_n’$. Demuestra que $e_1′,\dots ,e_n’$ es ortonormal si y sólo si $P$ es ortogonal.
  3. Demuestra que la composición de transfromaciones ortogonales es ortogonal.

Entradas relacionadas

Álgebra Lineal II: Transformaciones lineales simétricas, antisimétricas y normales

Introducción

A partir de la noción de adjunción que definimos en la entrada anterior, es posible definir ciertos tipos especiales de transformaciones lineales.

Primero veremos las transformaciones lineales simétricas y antisimétricas. Estos nombres quizás te recuerden a las matrices simétricas y antisimétricas. Existe una relación importante entre ambos conceptos, aunque no es tan directo enunciarla. Veremos esto con calma.

Después, hablaremos de las transformaciones normales. Este tipo de transformaciones están motivadas por la pregunta de qué sucede cuando una transformación conmuta con su adjunta. Definiremos esto de manera adecuada y demostraremos algunas propiedades que cumplen las transformaciones normales.

En esta entrada $V$ es un espacio euclidiano. En particular, estaremos trabajando únicamente en espacios vectoriales sobre los reales. Más adelante discutiremos los análogos complejos de los resultados que veremos.

Tranformaciones simétricas y antisimétricas

Definición. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Decimos que una transformación $T:V\to V$ es simétrica o auto-adjunta si $T^*=T$ y que es alternante o anti-simétrica si $T^*=-T$.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre. Lo mismo para las anti-simétricas.

Problema. Demuestra que cualesquiera dos eigenespacios distintos de una transformación lineal simétrica son ortogonales.

Solución. Sean $t_1,t_2$ dos eigenvalores distintos de $T$ y sean $x,y\in V\backslash\{0\}$ los correspondientes eigevectores. Como $T$ es simétrica, tenemos que
\begin{align*}
\langle T(x),y\rangle &=\langle x,T(y)\rangle\\
t_1\langle x,y \rangle &= t_2\langle x,y \rangle .
\end{align*}
Como por hipótesis $t_1\neq t_2$, entonces necesariamente $\langle x,y \rangle=0$. Se concluye el resultado deseado.

Transformaciones normales

Definición. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Diremos que $T$ es normal si $T$ conmuta con su transformación adjunta, es decir, si $$TT^*=T^*T.$$
Similarmente, diremos que una matriz $A\in M_n(F)$ (con $F=\mathbb{R}$ o $\mathbb{C}$) es normal si $$AA^*=A^*A.$$

Problema. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$. Demuestra que los siguientes incisos son equivalentes:

  1. $||T(x)||=||T^*(x)||$ para todo $x\in V$.
  2. $\langle T(x),T(y)\rangle=\langle T^*(x),T^*(y) \rangle$.
  3. $T$ es normal.

Solución. Supongamos que 1. es cierto. Usando la identidad de polarización dos veces y la linealidad de $T$ y $T^*$ obtenemos
\begin{align*}
\langle T(x),T(y) \rangle &=\frac{||T(x+y)||^2-||T(x)||^2-||T(y)||^2}{2}\\
&=\frac{||T(x+y)^*||^2-||T(x)^*||^2-||T(y)^*||^2}{2}\\
&=\langle T(x)^*,T(y)^* \rangle.
\end{align*} lo cual prueba el inciso 2.

Supongamos ahora que 2. es cierto. Entonces para cualesquiera $x,y\in V$ se tiene que
\begin{align*}
\langle (T\circ T^* – T^*\circ T)(x), y \rangle &=\langle T(T^*(x)),y\rangle- \langle T^*(T(x)) ,y\rangle \\
&=\langle T^*(x),T^*(y) \rangle – \langle y,T^*(T(x))\rangle\\
&=\langle T(x),T(y) \rangle – \langle T(y),T(x)\rangle =0.
\end{align*}
De manera que $(T\circ T^*-T^*\circ T)(x)=0$ para cualquier $x\in V$, y así $T$ conmuta con $T^*$.

Finalemente, supongamos que 3. es cierto. Entonces
\begin{align*}
||T(x)||^2&=\langle T(x),T(x)\rangle\\
&=\langle T(x),T(x)\rangle\\
&=\langle x,T^*(T(x))\rangle \\
&= \langle T(T^*(x)),x \rangle\\
&=\langle T^*(x),T^*(x) \rangle = ||T^*(x)||^2,
\end{align*}
y por lo tanto $||T(x)||=||T^*(x)||$ para todo $x\in V$, lo que prueba el inciso 1.

$\square$

Recordatorio. Sea $V$ un espacio euclidiano de dimensión finita con una base ortonormal $\beta=\{v_1,v_2,\dots, v_n\}$. Sea $T:V\to V$ una transformación lineal y $A$ la matriz asociada a $T$ con respecto a $\beta$. entonces para cualesquiera $i,j\in [1,n]$, $$A_{ij}=\langle T(v_j),v_i \rangle.$$

Teorema. Sea $V$ un $\mathbb{C}$-espacio euclidiano de dimensión finita y $T:V\to V$ una transformación lineal. Entonces $T$ es normal si y sólo si existe una base ortonormal de $V$ formada por vectores propios de $T$.

Demostración. Supongamos que $T$ es normal, por el teorema fundamental del álgebra, tenemos que el polinomio caracterísitco de $T$ se divide. Por lo tanto podemos aplicar el teorema de Schur para obtener una base ortonormal $\beta=\{v_1,v_2, \dots , v_n\}$ para $V$ tal que si $A$ es la matriz asociada a $T$ con respecto a $\beta$, entonces $A$ es triangular superior. Sabemos que $v_1$ es un vector propio de $T$ ya que $A$ es triangular superior. Supongamos que $v_2,\dots,v_{k-1}$ también son vectores propios de $T$. Afirmamos que $v_k$ también es vector propio de $T$. por inducción sobre $K$, se sigue que todos los $v_i$’s son vectores propios de $T$.
Sea $j<k$ y $t_j$ el valor propio asociado a $v_j$. Por el teorema anterior, $T^*(v_j)=\overline{t_j}v_j$. como $A$ es triangular superior,
$$T(v_k)=A_{1k}v_1+A_{2k}v_2+\dots + A_{jk}v_j+\dots+A_{kk}v_k.$$

Más aún, por el recordatorio se tiene que
$$A_{jk}=\langle T(v_k),v_j \rangle=\langle v_k,T^*(v_j) \rangle= \langle v_k, \overline{t_j}v_j \rangle=t_j\langle v_k,v_j \rangle=0.$$
Se sigue que $T(v_k)=A_{kk}v_k$ y por lo tanto $v_k$ es un eigenvector de $T$. por inducción, todos los vectores de $\beta$ son vectores propios de $T$.

Supongamos ahora que existe una base ortonormal de $V$ formada por vectores propios de $T$. Entonces la matriz asociada a $T$ con respecto a esa base, digamos $A$, es diagonal. Entonces la matriz asociada a $T^*$ con respecto a esa base también es diagonal. Como las matrices diagonales conmutan, entonces $T$ y $T^*$ también conmutan. Se concluye el resultado deseado.

$\square$

Más adelante…

Tarea moral

  1. Sea $T:\mathbb{R}^2\to \mathbb{R}^2$ un rotación de ángulo $\theta\in(0,\pi)$. La representación matricial de $T$ en la base canónica está dada por
    $$\begin{pmatrix}
    \cos\theta &-\sin\theta\\
    \sin\theta &\cos\theta
    \end{pmatrix}.$$ Verifica que $T$ es normal.
  2. Sea $A\in M_n(\mathbb{R})$ una matriz anti-simétrica. Verifica que $A$ es normal.
  3. Sea $V$ un espacio euclidiano sobre un campo $F=\mathbb{C}$ o $\mathbb{R}$ y $T:V\to V$ una transformación lineal normal. Prueba que $T-cI$ es normal $\forall c\in F$.

Entradas relacionadas

Álgebra Lineal II: Adjunta de una transformación lineal

Introducción

La adjunta de una transformación lineal

Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Sea $T:V \to V$ una transformación lineal.
Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle\in V^*$. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

De esta manera obtenemos una transformación $T^*:V\to V$ caracterizada de manera única por la siguiente condición:
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x,y\in V.$$

Resulta que la transformación $T^*$ es lineal y la llamaremos la adjunta de $T$. Ahora sí, ya estamos listos para enunciar el siguiente teorema.

Teorema. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Para cada transformación lineal $T:V\to V$ existe una única transformación $T^*:V\to V$, llamada la adjunta de $T$, tal que para cualesquiera $x,y\in V$ se tiene que
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle.$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la función $T\to T^*$ es una transformación auto-inversa sobre $V$.

$\square$

La matriz de la transformación adjunta

Proposición. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita y sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$ y $A$ la matriz asociada $T$ con respecto a $\mathcal{B}$. Se tiene que la matriz asociada a $T^*$ con respecto a $\mathcal{B}$ es $^tA$.

Solución. Sea $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$, por lo que para cada $i\in[1,n]$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$\langle T(e_i),e_j\rangle=\langle e_i,T^*(e_j) \rangle $$ y $T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$, y como la base $\mathcal{B}$ es ortonormal, entonces $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_kj\langle e_i,e_k \rangle.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$, o bien $B= {}^tA$.


$\square$

Ejemplo de encontrar una adjunción

Más adelante…

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Demuestra que si $T$ es una transformación lineal, entonces $T^*$ también lo es.
  2. Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano de dimensión finita, entonces $$\det T= \det T^*.$$
  3. Considera la transformación lineal $T:\mathbb{C}^3 \to \mathbb{C}^2$ cuya matriz asociada es
    $$\begin{pmatrix}
    1 & i & 0\\
    0 & 1+i & 3\end{pmatrix}.$$ Encuentra la matriz asociada a $T^*$.

Entradas relacionadas

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
$V$ es un espacio vectorial de dimensión finita si existe una familia finita de vectores $v_1, v_2, \dots , v_n \in V$ tal que todos los vectores en $V$ se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios $F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm}$ y $\hspace{2mm} \mathbb{R}_n[x]$ son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial $V$ de todos los polinomios con coeficientes reales no es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Demostración. Supongamos que $V$ tiene un conjunto generador finito, entonces existen polinomios $p_1,p_2,\dots,p_n\in V$ tales que $V=\text{span}(p_1,p_2,\dots,p_n)$. Sea $d=\max\{deg(p_1), \dots, deg(p_n)\}$. Como todos los $p_i$ tienen grado a lo más $d$, entonces cualquier combinación lineal de $p_1,p_2,\dots,p_n$ también tiene grado a lo más $d$. Se sigue que todo vector en $V$ tiene grado a lo más $d$, pero eso es imposible, pues $deg(x^{d+1})=d+1>d$. Por lo tanto $V$ no es de dimensión finita.

$\square$

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en $\mathbb{R}^n$ para distintos valores de $n$. Una linea (digamos $\mathbb{R}$) debería tener dimensión $1$, un plano (digamos $\mathbb{R}^2$) debería tener dimensión 2, y en general $\mathbb{R}^n$ debería tener dimensión $n$.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial $V$ es un subconjunto $B$ de $V$ tal que $B$ es linealmente independiente y generador.

Ejemplos.

  • El conjunto $B=\{e_1,\ldots,e_n\}$ de vectores canónicos en $\mathbb{F}^n$ es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector $v$ en $\mathbb{F}^n$ se puede escribir de manera única como $v=x_1e_1+\ldots+x_ne_n$ con $x_1,\ldots,x_n$ escalares. Como existe al menos una forma, entonces $\text{span}(B)=F^n$. Como es única, en particular la única forma de escribir al vector $0$ es si $x_1=\ldots=x_n=0$. Esto muestra que $B$ es generador y linealmente independiente.
  • El conjunto $B=\{E_{ij}\}$ de matrices canónicas en $M_{m,n}(F)$ es una base.
  • El conjunto $1,x,\ldots,x^n$ es una base de $\mathbb{R}_n[x]$.

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema. Dada la matriz $A\in M_2(\mathbb{R})$
\begin{align*}
A=\begin{pmatrix}
2 & 0\\
0 & 3
\end{pmatrix}
\end{align*}
encuentra una base para el subespacio $U$ de $M_2(\mathbb{R})$ definido por
\begin{align*}
U=\{X\in M_2(\mathbb{R}): XA=AX\}.
\end{align*}

Solución. Considera la matriz $X=\begin{pmatrix}
a_1 & a_2\\
a_3 & a_4\end{pmatrix}$. Entonces $X\in U$ si y sólo si $XA=AX$, lo anterior lo escribimos como
\begin{align*}
\begin{pmatrix}
2a_1 & 3 a_2\\
2a_3 & 3a_4
\end{pmatrix} = \begin{pmatrix}
2a_1 & 2 a_2\\
3a_3 & 3a_4
\end{pmatrix}.
\end{align*}
De la igualdad anterior obtenemos que $a_2=a_3=0$. Por lo tanto
\begin{align*}
U=\left\{\begin{pmatrix}
a_1 & 0\\
0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.
\end{align*}

Este es un primer paso, pues nos permite poner al subespacio $U$ en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para $U$. Proponemos al siguiente conjunto de dos matrices:
\begin{align*}
B=\left\{ \begin{pmatrix}
1 & 0\\
0 & 0\end{pmatrix} , \begin{pmatrix}
0&0\\
0 & 1\end{pmatrix}\right\}.
\end{align*}

Por un lado, este es un conjunto generador para $U$, pues cualquier elemento de $U$ se puede escribir como combinación lineal de elementos en $B$ como sigue: $$\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$

Por otro lado, $B$ es un conjunto linealmente independiente pues si $a$ y $b$ son escalares que tan una combinación lineal igual a cero entonces tendríamos $$\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.$$

Igualando la primera y última matriz entrada a entrada, tenemos que $a=b=0$.

$\square$

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base $B$ de un subespacio $U$ de un espacio vectorial $V$. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio $U$ del que hay que dar una base.
  • Expresar a $U$ en términos simples.
  • Ver cómo son los vectores de $U$, y de ahí proponer una base $B$. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que $B$ genera a $U$.
  • Mostrar que $B$ es linealmente independiente en $V$.

Veamos más ejemplos.

Problema. Determina una base para el subespacio $U$ de $\mathbb{R}^4$ dado por
\begin{align*}
U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.
\end{align*}

Solución. Como $b=-a$ y $c=2d$, entonces
\begin{align*}
U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},
\end{align*}
donde $v_1=(1,-1,0,0)$ y $v_2=(0,0,2,1)$. Por lo tanto $v_1,v_2$ generan a $U$. También son linealmente independientes, pues la relación $av_1+dv_2=0$ es equivalente a $(a,-a,2d,d)=(0,0,0,0)$ e implica $a=d=0$.Se sigue que $\{v_1,v_2\}$ es una base para $U$.

$\square$

Problema. Considera los subespacios $U,V$ de $\mathbb{R}^4$ definidos por
\begin{align*}
U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}
\end{align*}
y
\begin{align*}
V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.
\end{align*}
Encuentra una base para cada uno de los subespacios $U,V$ y $U\cap V$ de $\mathbb{R}^4$.

Solución. Expresando a $w$ en términos de $y$ y $z$, obtenemos
\begin{align*}
U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\
&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},
\end{align*}
donde $u_1=(1,0,0,0), u_2=(0,1,0,-1)$ y $u_3=(0,0,1,-1)$.

Veamos si $u_1,u_2,u_3$ son linealmente independientes. La igualdad $xu_1+yu_2+zu_3=0$ es equivalente a $(x,y,z,-y-z)=(0,0,0,0)$ e implica $x=y=z=0$. Por lo tanto, los vectores $u_1,u_2,u_3$ son linealmente independientes y forman una base de $U$.

Ahora, para $V$. Es fácil ver que
\begin{align*}
V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\
&=\{yv_1+wv_2| y,w\in \mathbb{R}\},
\end{align*}
donde $v_1=(-1,1,0,0) \hspace{2mm}$ y $v_2=(0,0,2,1)$.

Nuevamente, $v_1, v_2$ son linealmente independientes, pues la relación $yv_1+wv_2=0$ es equivalente a $(-y,y,2w,w)=(0,0,0,0)$ e implica $y=w=0$. Por lo tanto $v_1,v_2$ forman una base de $V$.

Finalmente, el vector $(x,y,z,w)\in\mathbb{R}^4$ pertenece a $U\cap V$ si y sólo si
\begin{align*}
x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.
\end{align*}
Se sigue que $x=3w, \hspace{2mm} z=2w \hspace{2mm}$ y $y=-3w$, o bien
\begin{align*}
(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).
\end{align*}
Por lo tanto $\{(3,-3,2,1)\}$ es una base de $U \cap V$.

$\square$

Problema. Sea $V$ el espacio de funciones $f:\mathbb{R}\longrightarrow \mathbb{R}$ generado por las funciones en $B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}$.

a) Demuestra que $B$ es una base de $V$.
b) Demuestra que $x\mapsto \sin ^2 (x)$ es una función en $V$ y exprésala como combinación lineal de los elementos de $B$.

Solución. a) . Como $V$ es el generado de $B$, por definición $B$ es generador. Así, basta demostrar que los vectores en $B$ son linealmente independientes. En otras palabras, queremos ver que si $a,b,c$ son números reales tales que
\begin{align*}
a+b\sin (2x) + c\cos (2x)=0
\end{align*}
para todo $x\in \mathbb{R}$, entonces $a=b=c=0$.

Tomando $x=0$ se obtiene que $a+c=0$. Si tomamos $x=\frac{\pi}{2}$ obtenemos $a-c=0$. Por lo tanto $a=c=0$. Finalmente, si tomamos $x=\frac{\pi}{4}$ obtenemos $b=0$.

b) Para cada $x\in\mathbb{R}$ se tiene
\begin{align*}
\cos (2x)&=2\cos^2(x)-1\\
&=2(1-\sin^2(x))-1\\
&=1-2\sin^2(x),
\end{align*}
por lo tanto
\begin{align*}
\sin^2(x)=\frac{1-\cos (2x)}{2}.
\end{align*}
Por lo tanto $x\mapsto \sin^2(x)$ pertence a $V$ y lo expresamos como combinación lineal de los elementos de $B$ de la siguiente manera:
\begin{align*}
\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) – \frac{1}{2} \cos (2x).
\end{align*}

$\square$

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita. Entonces
a) $V$ contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de $V$ tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como $V$ es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea $B$ un conjunto generador de $V$ con el menor número posible de elementos. Vamos a demostrar que $B$ es una base para $V$. $B$ ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que $B$ no es linealmente independiente, entonces existe $v\in B$ tal que $v\in \text{span}(B\backslash \{v\})$. Por lo tanto $$\text{span}(B\setminus\{v\})=\text{span}(B)=V.$$

Pero eso es imposible pues $B$ se tomó de tamaño mínimo. Por lo tanto $B$ es linealmente independiente. Se sigue el resultado deseado.

b) Sea $B$ una base con una cantidad finita de elementos, digamos $n$. Sea $B’$ otra base de $V$. Por definición de base, $B’$ es linealmente independiente y $B$ es un conjunto generador con $n$ elementos.

Por el lema de Steinitz, $B’$ es finito y tiene a lo más $n$ elementos. Lo anterior nos muestra que cualquier base tiene a lo más $n$ elementos. De hecho, si $B’$ tiene $d$ elementos, el lema de Steinitz garantiza que $n\leq d$.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a $B$ como linealmente independiente y a $B’$ como generador. Concluimos que $k\leq d$. De este modo, $k=d$ y por lo tanto toda base de $V$ tiene la misma cantidad de elementos.

$\square$

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea $V$ un espacio vectorial de dimensión finita. Definimos la dimensión $dim V$ de $V$ como el número de elementos de una base de $V$.

Ejemplos y problemas de dimensión

Ejemplo. Considera el espacio vectorial $\mathbb{R}^n$ y su base canónica $B=\{e_1,e_2,\dots , e_n\}$. Como $B$ es base y tiene $n$ elementos, entonces $dim(\mathbb{R}^n)=n$.

$\square$

Ejemplo. Considera el espacio vectorial $\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Una base para $\mathbb{R}_n[x]$ es $\{1,x,\dots, x^n\}$, por lo tanto $dim(\mathbb{R}_n[x])=n+1$.

$\square$

Ejemplo. Considera el espacio vectorial $M_{m,n}(\mathbb{R})$. Sea $E_{ij}\in M_{m,n}(\mathbb{R})$ la matriz cuya entrada $(i,j)$ es $1$ y el resto de sus entradas son $0$. Entonces $B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \}$ es una base para $M_{m,n}(\mathbb{R})$. Así, $\dim(M_{m,n}(\mathbb{R}))=mn$.

$\square$

Problema. Encuentra una base y la dimensión del subespacio
\begin{align*}
V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.
\end{align*}

Solución. Notemos que $V=\text{span}((1,2))$, pues $(a,2a)=a(1,2)$. Como $(1,2)\neq (0,0)$, entonces $B=\{(1,2)\}$ es una base de $V$. Por lo tanto $\dim(V)=1$.

$\square$

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$. Entonces
a) Cualquier conjunto linealmente independiente de vectores de $V$ tiene a lo más $n$ elementos.
b) Cualquier conjunto generador de $V$ tiene al menos $n$ elementos.
c) Si $S$ es un subconjunto de $V$ con $n$ elementos, entonces las siguientes afirmaciones son equivalentes:

  1. $S$ es linealmente independiente.
  2. $ S $ es un conjunto generador.
  3. $S$ es una base de $V$.

Demostración. Sea $V$ una base de $B$. Por definición $B$ tiene $n$ elementos.

a) Como $B$ es un conjunto generador con $n$ elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más $n$ elementos.

b) Sea $S$ un conjunto generador de $V$ y supongamos que $S$ tiene $d<n$ elementos. Como $B$ es linealmente independiente, entonces por el lema de intercambio se tiene que $n \leq d$, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que $S$ es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar $n-n=0$ vectores a $S$ de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es $S$ mismo, pues no le agregamos nada. Por lo tanto $S$ es un conjunto generador y como estamos bajo el supuesto de que $S$ es linealmente independiente, entonces $S$ es una base de $V$.

Ahora supongamos que $S$ es un conjunto generador que no es linealmente independiente. Entonces existe $v\in S$ tal que $v\in \text{span}(S\setminus \{v\})$. Se sigue que $S\setminus \{v\}$ es un conjunto generador de $n-1$ elementos (al generar a $v$, genera todo lo que generaba $S$). Pero esto contradice el inciso b). Por lo tanto $S$ es linealmente independiente y por lo tanto es una base de $V$.

$\square$

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes «más grandes», o bien como los conjuntos generadores «más chicos». En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y de dimensión $n$. Demuestra que si ves a $V$ como un espacio vectorial sobre $\mathbb{R}$, entonces $\dim(V)=2n$.
  • Sea $V$ un espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Demuestra que $W$ es de dimensión finita, que $\dim(W)\leq \dim(V)$ y que la igualdad se da si y sólo si $W=V$.
  • Sean $W_1,W_2$ subespacios de un espacio vectorial $V$ con dimensiones $m$ y $n$, respectivamente, con $m\geq n$.
    a) Demuestra que $\dim(W_1\cap W_2)\leq n$.
    b) Demuestra que $\dim(W_1 + W_2)\leq m+n$.
  • Encuentra la dimensión del subespacio de matrices en $M_n(\mathbb{R})$ que son simétricas.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir «qué tanta información guarda una matriz». La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Entradas relacionadas