Álgebra Lineal II: Transformaciones lineales adjuntas.

Introducción

Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Sea $T:V \to V$ una transformación lineal.
Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle\in V^*$. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

De esta manera obtenemos una transformación $T^*:V\to V$ caracterizada de manera única por la siguiente condición:
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x,y\in V.$$

Resulta que la transformación $T^*$ es lineal y la llamaremos la adjunta de $T$. Ahora sí, ya estamos listos para enunciar el siguiente teorema.

Definiciones

Teorema. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Para cada transformación lineal $T:V\to V$ existe una única transformación $T^*:V\to V$, llamada la adjunta de $T$, tal que para cualesquiera $x,y\in V$ se tiene que
$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle.$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la función $T\to T^*$ es una transformación auto-inversa sobre $V$.

$\square$

Definición. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita. Decimos que una transformación $T:V\to V$ es simétrica o auto-adjunta si $T^*=T$ y que es alternante o anti-simétrica si $T^*=-T$.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre. Lo mismo para las anti-simétricas.

Relacionando transformaciones con matrices

Problema. Sea $(V,\langle , \rangle)$ un espacio euclidiano de dimensión finita y sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$ y $A$ la matriz asociada $T$ con respecto a $\mathcal{B}$. Demuestra que la matriz asociada a $T^*$ con respecto a $\mathcal{B}$ es $^tA$ Por lo tanto $T$ es simétrica (anti-simétrica) si y sólo si $A$ es simétrica (anti-simétrica).

Solución. Sea $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$, por lo que para cada $i\in[1,n]$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$\langle T(e_i),e_j\rangle=\langle e_i,T^*(e_j) \rangle $$ y $T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$, y como la base $\mathcal{B}$ es ortonormal, entonces $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_kj\langle e_i,e_k \rangle.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$, o bien $B= {}^tA$.

$\square$

Problema. Demuestra que cualesquiera dos eigenespacios distintos de una transformación lineal ortogonal son ortogonales.

Solución. Sean $t_1,t_2$ dos eigenvalores distintos de $T$ y sean $x,y\in V\backslash\{0\}$ los correspondientes eigevectores. Como $T$ es simétrica, tenemos que
\begin{align*}
\langle T(x),y\rangle &=\langle x,T(y)\rangle\\
t_1\langle x,y \rangle &= t_2\langle x,y \rangle .
\end{align*}
Como por hipótesis $t_1\neq t_2$, entonces necesariamente $\langle x,y \rangle=0$. Se concluye el resultado deseado.


$\square$

Problema. Sean $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal.

  1. Demuestra que $T$ es alternante si y sólo si $\langle T(x),x \rangle=0$ para todo $x\in V$.
  2. Demuestra que si $T$ es alternante, entonces $0$ es la única raíz real posible del polinomio característico de $T$.

Solución. 1. Supongamos que $T$ es alternante, entonces $T+T^*=0$. Entonces para toda $x\in V$ tenemos que

$$\langle T(x),x\rangle = \langle x,T^*(x) \rangle =\langle x,-T(x) \rangle=-\langle T(x),x \rangle,$$

por lo tanto $\langle T(x),x\rangle=0$.

Conversamente, supongamos que $\langle T(x),x\rangle=0$ para todo $x\in V$. Por lo tanto, para cualesquiera $x,y\in V$ tenemos que

\begin{align*}
0=\langle T(x+y),x+y\rangle&=\langle T(x)+T(y),x+y\rangle\\
&=\langle T(x),x \rangle + \langle T(x),y \rangle + \langle x,T(y)\rangle + \langle T(y),y \rangle\\
&= \langle T(x),y \rangle + \langle T^*(x), y \rangle \\
&= \langle (T+T^*)(x),y \rangle.
\end{align*}

Por lo tanto $(T+T^*)(x)$ es ortogonal a $V$ y por ende igual a $\{0\}$. Se sigue que $T^*=-T$.

2. Supongamos que $t$ es una raíz real del polinomio característico de $T$. Por lo tanto existe un vector no nulo $x\in V$ tal que $T(x)=tx$. Luego
$$t||x||^2=\langle tx,x\rangle = \langle T(x),x\rangle=0,$$
y por lo tanto $t=0$.

$\square$

Problema. Sea $V$ un espacio euclidiano y sean $e_1,\dots, e_n$ una base de $V$. Demuestra que la transformación $T:V\to V$ definida por
$$T(x)=\displaystyle\sum_{k=1}^n\langle e_k,x\rangle e_k$$ es una transformación lineal simétrica sobre $V$. Determina si $T$ es positiva y positiva definida.

Solución. Por definición de producto interior, se tiene que la tranformación $x\mapsto \langle e_k,x \rangle$ es lineal para todo $1\leq k \leq n$. Por lo tanto $T$ también es lineal. Para probar que $T$ es simétrica bastará con verificar que $$\langle T(x),y \rangle= \langle x,T(y) \rangle \hspace{2mm} \forall x,y\in V.$$

Usando el hecho de que el producto interior es una forma bilineal podemos obtener la siguiente descomposición:
\begin{equation}\label{1}
\langle T(x),y \rangle=\left\langle \displaystyle\sum_{k=1}^n\langle e_k,x\rangle,y\right\rangle =\sum_{k=1}^n\langle e_k,x\rangle \cdot \langle e_k,y \rangle. \end{equation}

Análogamente se obtiene que
$$\langle x,T(y) \rangle=\left\langle x,\displaystyle\sum_{k=1}^n\langle e_k,x\rangle\right\rangle =\sum_{k=1}^n\langle e_k,x\rangle \cdot \langle e_k,y \rangle.$$ Con lo cual queda demostrado que $T$ es simétrica.

Si sustituimos $y=x$ en la ecuación \eqref{1}, entonces
$$\langle T(x),x \rangle =\displaystyle\sum_{k=1}^n\langle e_k,x\rangle^2\geq 0.$$
Entonces $T$ es positiva. Más aún, si $T=0$, entonces $\langle e_k,x \rangle=0$ para toda $1\leq k\leq n$ así $x\in V^{\bot}=\{0\}$. Se sigue que $T$ es positiva definida.

$\square$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  • Demuestra que si $T$ es una transformación lineal, entonces $T^*$ también lo es.
  • Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano de dimensión finita, entonces $$\det T= \det T^*.$$
  • Considera la transformación lineal $T:\mathbb{C}^3 \to \mathbb{C}^2$ cuya matriz asociada es
    $$\begin{pmatrix}
    1 & i & 0\\
    0 & 1+i & 3\end{pmatrix}.$$ Encuentra la matriz asociada a $T^*$.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.