Archivo de la etiqueta: transposición

Álgebra Superior I: Transposición de matrices, matrices simétricas y antisimétricas

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido operaciones involucran a dos objetos a la vez, entre los que pueden estar escalares, vectores, o matrices. En esta entrada, exploraremos una operación que se aplica a una matriz a la vez: la transposición de matrices. Esta operación preserva el contenido de la matriz, pero modifica sus dimensiones y el orden de sus entradas de una manera particular. Además, exploraremos algunas matrices que cumplen propiedades especiales bajo esta operación.

Definición de transposición de matrices

Una forma intuitiva de comprender en concepto de transposición de una matriz es como aquella operación que refleja a una matriz por su diagonal. Por ejemplo, consideremos la matriz
\[
A=
\begin{pmatrix}
\fbox{7} & \sqrt{2} \\
-\tfrac{1}{2} & \fbox{3}
\end{pmatrix}
\]
en la cual hemos destacado los elementos de su diagonal. Su matriz transpuesta, la cual denotaremos como $A^T$, será
\[
A^T =
\begin{pmatrix}
\fbox{7} & -\tfrac{1}{2} \\
\sqrt{2} & \fbox{3}
\end{pmatrix}.
\]

En el caso de una matriz que no sea cuadrada, la transposición también intercambia el número de filas y el de columnas. Por ejemplo,
\[
B=
\begin{pmatrix}
\fbox{3} & 4 & \pi \\
0 & \fbox{-1} & 6
\end{pmatrix}
\]
es una matriz de $2 \times 3$, mientras que su matriz transpuesta
\[
B^T=
\begin{pmatrix}
\fbox{3} & 0 \\
4 & \fbox{-1} \\
\pi & 6
\end{pmatrix}
\]
es de tamaño $3 \times 2$.

Para dar una definición formal de la propiedad de transposición, consideremos a la matriz $A$ de tamaño $m \times n$. Diremos que la matriz traspuesta de $A$ es la matriz $A^T$ de tamaño $n \times m$, donde la entrada de $A^T$ en la posición $(i,j)$ es
\[
(A^T)_{ij} = a_{ji},
\]
para todo $1 \le i \le n$ y $1 \le j \le m$.

Por ejemplo, para el caso de
\[
C =
\begin{pmatrix}
\fbox{$c_{11}$} & c_{12} \\
c_{21} & \fbox{$c_{22}$} \\
c_{31} & c_{32}
\end{pmatrix},
\]
su matriz traspuesta es
\[
C^T =
\begin{pmatrix}
(C^T)_{11} & (C^T)_{12} & (C^T)_{13} \\
(C^T)_{21} & (C^T)_{22} & (C^T)_{23} \\
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$c_{11}$} & c_{21} & c_{31} \\
c_{12} & \fbox{$c_{22}$} & c_{32}
\end{pmatrix},
\]
mientras que la matriz transpuesta de
\[
D =
\begin{pmatrix}
\fbox{$d_{11}$} & d_{12} & d_{13} \\
d_{21} & \fbox{$d_{22}$} & d_{23} \\
d_{31} & d_{32} & \fbox{$d_{33}$}
\end{pmatrix}
\]
es
\[
D^T =
\begin{pmatrix}
(D^T)_{11} & (D^T)_{12} & (D^T)_{13} \\
(D^T)_{21} & (D^T)_{22} & (D^T)_{23} \\
(D^T)_{31} & (D^T)_{32} & (D^T)_{33}
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$d_{11}$} & d_{21} & d_{31} \\
d_{12} & \fbox{$d_{22}$} & d_{32} \\
d_{13} & d_{23} & \fbox{$d_{33}$}
\end{pmatrix}.
\]

Como puedes observar, empleando la definición de matriz traspuesta, se sigue cumpliendo que la transposición se puede ver como la operación de reflejar una matriz con respecto a su diagonal.

Propiedades de transposición de matrices

A continuación, demostraremos algunas propiedades que cumplen las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
(Las demostraciones para cualesquiera otros tamaños de matrices se desarrollan de manera análoga).

Veamos qué sucede al realizar dos veces seguidas la trasposición de $A$. Observamos que
\[
A^T =
\begin{pmatrix}
(A^T)_{11} & (A^T)_{12} & (A^T)_{13} \\
(A^T)_{11} & (A^T)_{22} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix},
\]
y, entonces,
\[
(A^T)^T
=
\begin{pmatrix}
((A^T)^T)_{11} & ((A^T)^T)_{12} \\
((A^T)^T)_{21} & ((A^T)^T)_{22} \\
((A^T)^T)_{31} & ((A^T)^T)_{32}
\end{pmatrix}
=
\begin{pmatrix}
(A^T)_{11} & (A^T)_{21} \\
(A^T)_{12} & (A^T)_{22} \\
(A^T)_{13} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
=
A.
\]

En general, al transponer dos veces seguidas una matriz obtendremos como resultado la matriz original: $(A^T)^T = A$.

Por otra parte, observemos que
\[
AB
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix},
\]
de modo que
\[
(AB)^T =
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]
Por su parte, veamos que
\begin{align*}
B^T A^T
&=
\begin{pmatrix}
b_{11} & b_{21} \\
b_{12} & b_{22}
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
b_{11}a_{11} + b_{21}a_{12} & b_{11}a_{21} + b_{21}a_{22} & b_{11}a_{31} + b_{21}a_{32} \\
b_{12}a_{11} + b_{22}a_{12} & b_{12}a_{21} + b_{22}a_{22} & b_{12}a_{31} + b_{22}a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\end{align*}
Por lo tanto,
\[
(AB)^T = B^T A^T.
\]

Finalmente, supongamos que $C = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible. Entonces se cumple que $ad – bc \ne 0$, y $C$ tiene como inversa a
\[
C^{-1} =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-b}{ad – bc} \\
\tfrac{-c}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix},
\]
Por lo tanto,
\[
(C^{-1})^T =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\]

Por su parte, observemos que $C^T = \begin{pmatrix} a & c \\ b & d \end{pmatrix}$ cumple que $ad – cb = ad – bc \ne 0$, con lo cual garantizamos que es también invertible —la transpuesta de una matriz invertible es también invertible—. Más aún, veamos que
\begin{align*}
(C^T)^{-1}&= \frac{1}{ad-bc} \begin{pmatrix} d & -c \\ -b & a \end{pmatrix} \\[5pt]
&= \begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\end{align*}
Por lo tanto, $(C^{-1})^T = (C^T)^{-1}$ —la inversa de una matriz traspuesta corresponde a la traspuesta de la inversa de la orginal—.

Matrices simétricas y antisimétricas

Ahora que conocemos la definición de matriz transpuesta y algunas de sus propiedades, observemos que existen matrices que se comportan de manera especial bajo esta operación.

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix},
\]
entonces,
\[
A^T=
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix}
= A.
\]

A una matriz $A$ que cumple que $A^T = A$ se le denomina matriz simétrica. Otros ejemplos de matrices simétricas son
\[
\begin{pmatrix}
4 & 0 \\
0 & -5
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
-8 & 1 & 2 \\
1 & 0 & 3 \\
2 & 3 & -\pi
\end{pmatrix}.
\]
Una observación importante es que las matrices simétricas únicamente pueden ser cuadradas.

Por otra parte, veamos que la matriz
\[
B=
\begin{pmatrix}
0 & 5 & 5 \\
-5 & 0 & 5 \\
-5 & -5 & 0
\end{pmatrix}
\]
tiene como transpuesta a
\[
B^T =
\begin{pmatrix}
0 & -5 & -5 \\
5 & 0 & -5 \\
5 & 5 & 0
\end{pmatrix}
=
-B.
\]

A una matriz $A$ que cumple que $A^T = -A$ se le denomina matriz antisimétrica. Otros ejemplos de matrices antisimétricas son
\[
\begin{pmatrix}
0 & -2 \\
2 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 1 & -2 \\
-1 & 0 & 3 \\
2 & -3 & 0
\end{pmatrix}.
\]
Al igual que sucede con las matrices simétricas, las matrices antisimétricas sólo pueden ser cuadradas.

Otra propiedad importante de las matrices antisimétricas es que todos los elementos de su diagonal tienen valor 0. ¿Puedes probar por qué sucede esto?

Más adelante…

Con las operaciones entre vectores y matrices que hemos visto hasta ahora podemos obtener varios resultados aplicables a distintas áreas de las matemáticas. En la siguiente entrada abordaremos un tema que, a primera vista, parece no relacionarse mucho con los conceptos que hemos aprendido hasta ahora, pero que, en realidad, resulta ser uno de los temas con mayor aplicación de los conceptos de vectores y matrices: los sistemas de ecuaciones lineales.

Tarea moral

  1. Sea $A$ una matriz de $2\times 2$ con entradas reales. Muestra $AA^T$ siempre es una matriz simétrica y que las entradas en la diagonal de $AA^T$ siempre son números mayores o iguales a cero.
  2. Prueba que los elementos de la diagonal de una matriz antisimétrica tienen valor 0.
  3. Muestra que si una matriz es simétrica e invertible, entonces su inversa también es simétrica. ¿Es cierto lo mismo para las antisimétricas?
  4. ¿Existe alguna matriz que sea al mismo tiempo simétrica y antisimétrica?
  5. Prueba que cualquier matriz $A$ se puede escribir como $A = B+C$, con $B$ simétrica y $C$ antisimétrica.

Entradas relacionadas

Álgebra Moderna I: Permutaciones y Grupo Simétrico

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

La Unidad 2 empieza con algunas definiciones nuevas. Veremos un ejemplo específico de grupo, primero definiremos qué es una permutación y luego, el conjunto de todas las permutaciones, al que llamaremos grupo simétrico junto con la composición. Este grupo es importante porque más adelante descubriremos que los grupos se pueden visualizar como subgrupos de grupos de permutaciones.

Primeras definiciones

Definición. Una permutación de un conjunto $X$ es una función biyectiva de $X$ en $X$.

Notación. Denotaremos por $S_X$ al conjunto

\begin{align*}
S_X = \{\sigma: X \to X | \sigma \text{ es biyectiva}\}.
\end{align*}

Si $X = \{1,…,n\}$, $S_X$ se denota por $S_n$. Si tomamos $\alpha, \beta \in S_X$ la composición de $\alpha$ seguida de $\beta$ se denota por $\beta\alpha$.

Observación 1. $S_X$ con la composición es un grupo, se llama el Grupo Simétrico.

Observación 2. $|S_n| = n!$

Definición. Sea $\alpha \in S_n$, $i \in \{1,2,…,n\}$.

Decimos que $\alpha$ mueve a $i$ si $\alpha(i) \neq i$, y que $\alpha$ fija a $i$ si $\alpha(i) = i$. El soporte de $\alpha$ es

\begin{align*}
\text{sop }\alpha = \{i \in \{1,\dots, n\}: \alpha(i) \neq i\}.
\end{align*}

Ejemplo

Sea $\alpha \in S_{10}$, definida como

\begin{align*}
\alpha = \begin{pmatrix}1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10\\
8 & 3 & 1 & 7 & 2 & 6 & 4 & 5 & 9 & 10 \end{pmatrix}.
\end{align*}

La matriz es una manera de representar una permutación, la fila de arriba son todos los elementos de $X= \{1,2,3,4,5,6,7,8,9,10\}$ y la fila de abajo está formada por las imágenes bajo $\alpha$ de cada elemento de la fila de arriba. Es decir, la matriz de $\alpha$ se puede leer como: «$\alpha$ manda al $1$ al $8$», «el $ 2 $ lo manda al $3$», etc. Entonces tenemos que, $\alpha$ mueve a $1,2,3,4,5,7,8$ y fija al $6,9,10$. Así

\begin{align*}
\text{sop } \alpha = \{1,2, 3, 4, 5, 7, 8\}.
\end{align*}

Definición de ciclo

Definición. Sea $\alpha \in S_n$, $r\in\z$, $r>1$. Decimos que $\alpha$ es un ciclo de longitud $r$ o un $r$-ciclo si existen $i_1, \dots, i_r \in \{1, \dots, n\}$ distintos tales que $\text{sop }\alpha = \{i_1, \dots, i_r\}$ y

\begin{align*}
\alpha(i_t) = \begin{cases}
i_{t+1} & \text{si } t \in \{1, \dots, r-1\} \\
i_1 & \text{si } t = r
\end{cases}
\end{align*}

Figura para ilustrar la definición de un ciclo.

Diremos que la permutación $\text{id}\in S_n$ es un ciclo de longitud $1$ o un $1$-ciclo. Los ciclos de longitud dos se llaman transposiciones.

Las transposiciones son muy importantes porque, como veremos más adelante, nos permitirán describir a las demás permutaciones.

Notación.

  • Un $r$-ciclo $\alpha$, tal que cada $i_j$ va a $i_{j+1}$ para cada $j \in \{1,…,r-1\}$ y $i_r$ regresa a $i_1$ se denota como $\alpha = (i_1\; i_2 \; \dots \; i_r)$.
  • Además, denotamos como $r = \text{long } \alpha$ a la longitud de $\alpha$.

Ejemplos

  1. $\alpha \in S_8$ con $\alpha = \begin{pmatrix} 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 \\ 1 & 4 & 3 & 5 & 8 & 2 & 7 & 6 \end{pmatrix}$.

\begin{align*}
\alpha &= (2 \; 4 \; 5 \; 8 \; 6) = (4 \; 5 \; 8 \; 6 \; 2) \\
& = (5 \; 8 \; 6 \; 2 \; 4) = (8 \; 6 \; 2 \; 4 \; 5) \\
& = (6 \; 2 \; 4 \; 5 \; 8).
\end{align*}

Representación de $\alpha$.

En este caso, $\alpha$ es un $5-$ciclo y $\text{long }\alpha = 5$.
Observemos que el ciclo se puede comenzar a escribir con cualquier elemento de su soporte, siempre y cuando se cumpla la regla de correspondencia establecida.

2. Ahora, consideremos $\beta \in S_8$ como

Representación de $\beta$.

\begin{align*}
\beta =\begin{pmatrix} 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 \\ 1 & 2 & 5 & 4 & 3 & 6 & 7 & 8\end{pmatrix},
\end{align*}
entonces podemos decir que $\beta = (3 \; 5)$, porque a los otros elementos los deja fijos.

Si componemos $\beta$ con el $\alpha$ del ejemplo anterior obtenemos:

\begin{align*}
\alpha\beta &= (2 \; 4 \; 5 \; 8 \; 6) (3 \; 5) = (2 \; 4 \; 5 \; 3 \; 8 \; 6).
\end{align*}

Para verificar qué ésta es efectivamente la composición de $\beta$ seguida de $\alpha$, tenemos que observar a dónde manda a cada elemento:

  • Comenzamos con el $2$ (esto es arbitrario, se puede comenzar con el número que sea), observamos que $\beta$ lo deja fijo, entonces nos fijamos a dónde lo manda $\alpha$, en este caso, el $2$ es mandado al $4$. Así, $\alpha\beta$ manda al $2$ en el $4$.
  • Repetimos el proceso con el $4$, $\beta$ lo deja fijo y $\alpha$ lo manda al $5$. Así, $\alpha\beta$ manda al $4$ en el $5$.
  • Ahora con el $5$, $\beta$ manda al $5$ en $3$, entonces ahora vemos a dónde manda $\alpha$ al $3$, en este caso lo deja fijo. Así, $\alpha\beta$ manda al $5$ en el $3$.
  • Entonces ahora tenemos que observar a dónde es mandado el $3$ después de la composición. Primero, $\beta$ manda el $3$ al $5$ y $\alpha$ manda el $5$ al $8$, por lo tanto $\alpha\beta$ manda el $3$ al $8$.
  • Así continuamos con todos los elementos que aparezcan en la composición hasta terminar.

    Ahora, veamos qué sucede con $\beta\alpha$. El proceso es análogo:
    \begin{align*}
    \beta\alpha &= (3 \; 5) (2 \; 4 \; 5 \; 8 \; 6) = (3 \; 5 \; 8 \; 6 \; 2 \; 4).
    \end{align*}
    Por lo tanto $\alpha\beta \neq \beta\alpha$.

3. En $S_5$. Podemos considerar la siguiente permutación: $(1 \; 2 \; 3 \; 4)(2 \; 4 \; 5)$. A esta permutación la podemos simplificar usando el mismo procedimiento que en el ejemplo 2.

Observamos a dónde lleva cada uno de sus elementos:

  • Comencemos con el 2, la primera parte de la permutación, lleva el 2 al 4 y, la segunda parte lleva el 4 al 1.
  • Ahora veamos a dónde va el 1. La primera parte lo deja fijo y la segunda lo lleva al 2. Entonces obtenemos una permutación $(1\;2)$. Pero todavía falta ver el resto de elementos.
  • Ahora, veamos qué sucede con el 3. La primera parte lo deja fijo y la segunda lo manda al 4.
  • La primera parte de nuestra permutación manda el 4 al 5 y, el 5 se queda fijo.
  • Por último, el 5 es mandado al 2 por la primera parte de la permutación y, la segunda parte manda al 2 en el 3. Por lo tanto, el 5 regresa al 3. Esto se puede escribir como:

\begin{align*}
(1 \; 2 \; 3 \; 4)(2 \; 4 \; 5) = (1 \; 2) (3 \; 4 \; 5).
\end{align*}

Es decir:

Representación de $(1 \; 2 \; 3 \; 4)(2 \; 4 \; 5) = (1 \; 2) (3 \; 4 \; 5)$.

Este ejemplo nos permite intuir que en ocasiones las permutaciones se pueden simplificar.

Observación. Si $n \geq 3$, entonces $S_n$ no es abeliano.

Tarea moral

  1. Demostrar la observación 1: $S_X$ con la composición es un grupo, se llama el Grupo Simétrico.
  2. Sea $X$ un conjunto infinito, $H$ la colección de permutaciones de $S_X$ que mueven sólo un número finito de elementos y $K$ la colección de permutaciones que mueven a lo más $50$ elementos. ¿Son $H$ y $K$ subgrupos de $S_X$?
  3. Considera los siguientes elementos de $S_{10}$
    \begin{align*} \alpha &= \begin{pmatrix} 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 \\
    10 & 4 & 3 & 2 & 9 & 7 & 5 & 1 & 6 & 8 \end{pmatrix} \\\\
    \beta &= \begin{pmatrix} 1 & 2 & 3 & 4 & 5 & 6 & 7 & 8 & 9 & 10 \\
    10 & 9 & 8 & 7 & 6 & 5 & 4 & 3 & 2 & 1 \end{pmatrix}. \end{align*}
    Encuentra $\alpha \beta, \beta \alpha, \alpha^{-1}$ y $\beta^{-1}$.
  4. Sea $a \in S_n, $ con $n > 2$. Si $\alpha$ conmuta con toda permutación de $S_n$ ¿puedes decir quién debe ser $\alpha$?

Más adelante…

Por el momento continuaremos hablando de las permutaciones. El último ejemplo visto nos da la noción de permutaciones disjuntas, este tema es el que profundizaremos en la siguiente entrada, pero por el momento ¿puedes imaginarte de qué se trata?

Entradas relacionadas

Álgebra Lineal II: Transformaciones normales, simétricas y antisimétricas

Por Ayax Calderón

Introducción

A partir de la noción de adjunción que definimos en la entrada anterior, es posible definir ciertos tipos especiales de transformaciones lineales: las transformaciones normales, las simétricas y las antisimétricas.

Primero veremos las transformaciones lineales simétricas y antisimétricas. Estos nombres quizás te recuerden a las matrices simétricas y antisimétricas. Existe una relación importante entre ambos conceptos, aunque no es tan directo enunciarla. Veremos esto con calma.

Después, hablaremos de las transformaciones normales. Este tipo de transformaciones están motivadas por la pregunta de qué sucede cuando una transformación conmuta con su adjunta. Definiremos esto de manera adecuada y demostraremos algunas propiedades que cumplen las transformaciones normales.

En esta entrada $V$ es un espacio euclidiano. En particular, estaremos trabajando únicamente en espacios vectoriales sobre los reales. Más adelante discutiremos los análogos complejos de los resultados que veremos.

Transformaciones simétricas y antisimétricas

Comencemos con las siguientes dos definiciones.

Definición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Diremos que $T$ es:

  • Simétrica o auto-adjunta si $T^*=T$.
  • Antisimétrica o alternante si $T^*=-T$.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre.

Problema. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal simétrica. Sea $A$ la forma matricial de $T$ en alguna base ortonormal de $T$. Demuestra que $A$ es una matriz simétrica.

Solución. Por una proposición de la entrada anterior, por elegir una base ortonormal se tiene que la matriz correspondiente a $T^\ast$ es $^t A$. Pero como $T$ es una matriz simétrica, se tiene que $T^\ast=T$. De este modo, $^t A= A$, y por lo tanto $A$ es una matriz simétrica.

$\square$

Sucede algo análogo con las matrices antisimétricas, lo cual queda como tarea moral.

Transformaciones normales

Introduzcamos una definición más.

Definición. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Diremos que $T$ es normal si $T$ conmuta con su transformación adjunta, es decir, si $$TT^*=T^*T.$$

Similarmente, diremos que una matriz $A\in M_n(\mathbb{R})$ es normal si $$A{}^tA={}^tAA.$$

Ejemplo. La matriz $\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}$ es normal. En efecto, puedes verificar que:

$$\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}\begin{pmatrix} 1 & 3 \\ -3 & 1 \end{pmatrix} = \begin{pmatrix} 10 & 0 \\ 0 & 10 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ -3 & 1 \end{pmatrix}\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}.$$

$\triangle$

Las definiciones de transformaciones y matrices normales están conectadas mediante el siguiente resultado sencillo de demostrar.

Proposición. Si $T:V\to V$ es una transformación es normal con $V$ espacio euclideano y tomamos una base ortonormal $\beta$ de $V$, entonces $\text{Mat}_\beta(T)$ es normal.

Caracterización geométrica de transformaciones normales

Las matrices normales tienen algunas propiedades geométricas que las caracterizan. El siguiente enunciado formaliza esto.

Problema. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$. Demuestra que los siguientes incisos son equivalentes:

  1. $||T(x)||=||T^*(x)||$ para todo $x\in V$.
  2. $\langle T(x),T(y)\rangle=\langle T^*(x),T^*(y) \rangle$.
  3. $T$ es normal.

Solución. $(1)\Rightarrow (2)$. Supongamos $(1)$. Usando la identidad de polarización dos veces y la linealidad de $T$ y $T^*$ obtenemos
\begin{align*}
\langle T(x),T(y) \rangle &=\frac{||T(x+y)||^2-||T(x)||^2-||T(y)||^2}{2}\\
&=\frac{||T(x+y)^*||^2-||T(x)^*||^2-||T(y)^*||^2}{2}\\
&=\langle T(x)^*,T(y)^* \rangle.
\end{align*} lo cual prueba $(2)$.

$(2)\Rightarrow (3)$. Supongamos ahora $(2)$. Entonces para cualesquiera $x,y\in V$ se tiene que
\begin{align*}
\langle (T\circ T^* – T^*\circ T)(x), y \rangle &=\langle T(T^*(x)),y\rangle- \langle T^*(T(x)) ,y\rangle \\
&=\langle T^*(x),T^*(y) \rangle – \langle y,T^*(T(x))\rangle\\
&=\langle T(x),T(y) \rangle – \langle T(y),T(x)\rangle\\
&=0.
\end{align*}
Como la igualdad anterior se da para todo $y$, en particular se cumple, por ejemplo, para los $y$ de una base. Así, $(T\circ T^*-T^*\circ T)(x)=0$ para cualquier $x\in V$, lo que precisamente significa que $T\circ T^*= T^*\circ T$, es decir, que $T$ es normal.

$(3)\Rightarrow (1)$. Finalmente, supongamos $(3)$. Entonces
\begin{align*}
||T(x)||^2&=\langle T(x),T(x)\rangle\\
&=\langle x,T^*(T(x))\rangle \\
&= \langle T(T^*(x)),x \rangle\\
&=\langle T^*(x),T^*(x) \rangle \\
&= ||T^*(x)||^2,
\end{align*}
y por lo tanto $||T(x)||=||T^*(x)||$ para todo $x\in V$, lo que prueba $(1)$.

$\square$

Más adelante…

Por la proposición que enunciamos para transformaciones normales, tenemos que si $T$ es de este tipo, entonces $||T(x)||=||T^*(x)||$. Esto es una propiedad geométrica, pues está relacionando dos normas. Sin embargo, una cosa que nos interesa mucho estudiar es cuándo sucede algo parecido: $||T(x)||=||x||$. Esto lo que nos estaría diciendo es que «$T$ preserva las normas». En la siguiente entrada motivaremos y exploraremos este tipo de transformaciones lineales, a las que llamaremos ortogonales.

Tarea moral

  1. Demuestra que la forma matricial de una transformación antisimétrica, bajo una base ortonormal, es una matriz antisimétrica.
  2. Demuestra que cualquier transformación lineal $T$ en un espacio euclideano puede ser escrita de la forma $T=S+A$, donde $S$ es transformación lineal simétrica y $A$ es transformación lineal antisimétrica. Demuestra que esta manera de escribir a $T$ es única.
  3. Hemos platicado mucho de qué sucede cuando representamos transformaciones lineales en un espacio euclideano $V$ mediante bases ortonormales. Pero, ¿qué pasa si no hacemos esto? Determina si lo siguiente es verdadero o falso cuando elegimos una base $\beta$ de $V$ que no sea ortonormal.
    • Si $A$ es la matriz de una transformación $T$ en la base $\beta$, entonces $^tA$ es la matriz de $T^\ast$ en la base $\beta$.
    • Si $T$ es simétrica, entonces su matriz $A$ en la base $\beta$ es simétrica.
    • Si $T$ es normal, entonces su matriz $A$ en la base $\beta$ es normal.
  4. Sea $T:\mathbb{R}^2\to \mathbb{R}^2$ un rotación de ángulo $\theta\in(0,\pi)$. La representación matricial de $T$ en la base canónica está dada por
    $$\begin{pmatrix}
    \cos\theta &-\sin\theta\\
    \sin\theta &\cos\theta
    \end{pmatrix}.$$
    Verifica que $T$ es normal.
  5. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal normal. Prueba que $T-c\text{id}$ es normal para todo real $c$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunta de una transformación lineal

Por Ayax Calderón

Introducción

En esta tercera unidad estudiaremos algunos aspectos geométricos de transformaciones lineales. Para ello, lo primero que haremos será introducir la noción de la adjunta de una transformación lineal. Esto nos permitirá más adelante poder hablar de varias transformaciones especiales: normales, simétricas, antisimétricas, ortogonales. De entrada, las definiciones para cada uno de estos conceptos parecerán simplemente un juego algebraico. Sin embargo, poco a poco descubriremos que pidiendo a las transformaciones lineales cierta propiedad con respecto a su adjunta, podemos recuperar muchas propiedades geométricas bonitas que satisfacen.

Un ejemplo de esto serán las transformaciones ortogonales. Estas serán las transformaciones que, a grandes rasgos, no cambian la norma. Daremos un teorema de clasificación para este tipo de transformaciones: veremos que sólo son reflexiones o rotaciones en ciertos ejes. Después estudiaremos las transformaciones simétricas y veremos un resultado fantástico: el teorema espectral. Este teorema nos garantizará que toda transformación simétrica en $\mathbb{R}$ puede ser diagonalizada, y de hecho a través de una transformación ortogonal.

El párrafo anterior nos dice que las transformaciones ortogonales y las simétricas serán «fáciles de entender» en algún sentido. Esto parece limitado a unas familias muy particulares de transformaciones. Sin embargo, cerraremos la unidad con un teorema muy importante: el teorema de descomposición polar. Gracias a él lograremos entender lo que hace cualquier transformación lineal. Tenemos un camino muy interesante por recorrer. Comencemos entonces con la idea de la adjunta de una transformación lineal.

La adjunta de una transformación lineal

Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Tomemos una transformación lineal $T:V \to V$. Para cada $y\in V$, la transformación $x\mapsto \langle T(x),y\rangle$ es una forma lineal. Del teorema de representación de Riesz se sigue que existe un único vector $T^*(y)\in V$ tal que
$$\langle T(x),y\rangle=\langle T^*(y),x\rangle =\langle x, T^*(y)\rangle \hspace{2mm} \forall x\in V.$$

Esta asignación de este vector $T^\ast$ es lineal, ya que al vector $ry_1+y_2$ para $r$ escalar y $y_1,y_2$ en $V$ se le asigna la forma lineal $x\mapsto \langle T(x),ry_1+y_2\rangle=r\langle(T(x),y_1\rangle + \langle (T(x),y_2)$, que se puede verificar que le corresponde en la representación de Riesz el vector $rT^\ast(y_1)+T^\ast(y_2)$.

De esta manera, podemos correctamente enunciar la siguiente definición.

Definición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

Notemos que para cualesquiera $x,y\in V$ tenemos que
$$\langle y,T(x)\rangle=\langle T(x),y\rangle=\langle x,T^* (y)\rangle=\langle T^*(y),x\rangle =\langle y, (T^*)^*(x)\rangle.$$

Restando el último término del primero, se sigue que $T(x)-(T^*)^*(x)=0$, de manera que $$(T^*)^*=T,$$ por lo cual simplemente escribiremos $$T^{**}=T.$$

Por lo tanto, la asignación $T\mapsto T^*$ es una transformación auto-inversa sobre $V$.

La matriz de la transformación adjunta

Tenemos que $T^{**}=T$. Esto debería recordarnos a la transposición de matrices. En efecto, en cierto sentido podemos pensar a la transformación $T^\ast$ algo así como la transpuesta de la transformación (por lo menos en el caso real, para espacios sobre $\mathbb{C}$ será algo ligeramente distinto).

La siguiente proposición nos ayudará a reforzar esta intuición.

Proposición. Sea $V$ un espacio euclidiano y producto interior $\langle \cdot, \cdot \rangle$ y $T:V\to V$ una transformación lineal. Sea $\mathcal{B}=(e_1,\dots, e_n)$ una base otronormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)={}^t\text{Mat}_{\mathcal{B}}(T).$$

En palabras, bajo una base ortonormal, la adjunta de una transformación tiene como matriz a la transpuesta de la transformación original.

Solución. Sea $A=\text{Mat}_{\mathcal{B}}(T)$ y $B=[B_{ij}]$ la matriz asociada a $T^*$ con respecto a $\mathcal{B}$. Para cada $i\in\{1,\ldots,n\}$ se tiene
$$T^*(e_i)=\displaystyle\sum_{k=1}^n b_{ki}e_k.$$

En vista de que $$T(e_i)=\displaystyle\sum _{k=1}^n a_{ki}e_k$$ y de que la base $\mathcal{B}$ es ortonormal, se tiene que $$\langle T(e_i),e_j\rangle=\displaystyle\sum_{k=1}^n a_{ki}\langle e_k,e_j\rangle=a_{ji}$$ y
$$\langle e_i,T^*(e_j)\rangle=\displaystyle\sum_{k=1}^n b_{kj}\langle e_i,e_k \rangle = b_{ij}.$$

Como, por definición de transformación adjunta, se tiene que
$$\langle T(e_i),e_j\rangle =\langle e_i, T^*(e_j)\rangle,$$ entonces $b_{ij}=a_{ji}$ para cada $i,j$ en $\{1,\ldots, n\}$, que precisamente significa que $B= {}^tA$.

$\square$

Ejemplos de encontrar una adjunción

La proposición de la sección anterior nos da una manera práctica de encontrar la adjunción para transformaciones lineales.

Ejemplo. Encontraremos la transformación adjunta a la transformación lineal $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T((x,y))=(y-x,y+2x)$. Por la proposición de la sección anterior, basta expresar a $T$ en una base ortonormal y transponer. Usemos la base canónica de $\mathbb{R}^2$. En esta base, la matriz que representa a $T$ es $\begin{pmatrix} -1 & 1 \\ 2 & 1 \end{pmatrix}$. Por ello, la matriz que representa a $T^\ast$ es la transpuesta, es decir $\begin{pmatrix} -1 & 2 \\ 1 & 1 \end{pmatrix}$. De este modo, concluimos que $T^\ast((x,y)) = (-x+2y,x+y)$.

Podemos verificar que en efecto esta transformación satisface la definición de adjunción. Por un lado,

$$\langle T((a,b)), (c,d) \rangle = (b-a,b+2a)\cdot (c,d)= bc-ac+bd+2ad,$$

y por otro

$$ \langle (a,b), T((c,d)) \rangle = (a,b) \cdot (-c+2d,c+d) = -ac +2ad + bc +bd.$$

Ambas expresiones en efecto son iguales.

$\triangle$

Problema. Demuestra que una transformación lineal $T$ en un espacio euclideano de dimensión finita y la adjunta $T^\ast$ de $T$ tienen el mismo determinante.

Solución. El determinante de una transformación es igual al determinante de cualquiera de las matrices que la represente. Así, si $A$ es la forma matricial de $T$ bajo una base ortonormal, se tiene que $\det(A)=\det(T)$. Por la proposición de la sección anterior, $^tA$ es la forma matricial de $T^\ast$ en esa misma base, de modo que $\det({}^tA)=\det(T^\ast)$. Pero una matriz y su transpuesta tienen el mismo determinante, de modo que $$\det(T^\ast)=\det({}^tA)=\det(A)=\det(T).$$

$\square$

Más adelante…

La noción de transformación adjunta es nuestra primera noción fundamental para poder definir más adelante transformaciones que cumplen propiedades geométricas especiales. Con ella, en la siguiente entrada hablaremos de transformaciones simétricas, antisimétricas y normales.

Toma en cuenta que las definiciones que hemos dado hasta ahora son para espacios euclideanos, es decir, para el caso real. Cuando hablamos de espacios hermitianos, es decir, del caso complejo, los resultados cambian un poco. La transformación adjunta se define igual. Pero, por ejemplo, si la matriz que representa a una transformación es $A$, entonces la que representará a su adjunta no será la transpuesta, sino más bien la transpuesta conjugada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Encuentra la transformación adjunta para las siguientes tranformaciones lineales:
    • $T:\mathbb{R}^2\to \mathbb{R}^2 $ dada por $T(x,y)=(2y-x,2x+y)$.
    • $T:\mathbb{R}^3\to \mathbb{R}^3$ dada por $T(x,y,z)=(x+y+z,y+z,z)$.
    • $T:\mathbb{R}^n \to \mathbb{R}^n$ tal que para la base canónica $e_1,\ldots,e_n$ cumple que $T(e_i)=e_{i+1}$ para $i=1,\ldots,n-1$ y $T(e_n)=0$.
  2. Considera el espacio vectorial $M_n(\mathbb{R})$. En este espacio, la operación transponer es una transformación lineal. ¿Cuál es su transformación adjunta?
  3. Completa los detalles de que $T^\ast$ es en efecto una transformación lineal.
  4. Demuestra que si $T$ es una transformación lineal sobre un espacio euclidiano y $\lambda$ es un eigenvalor de $T$, entonces $\lambda$ también es un eigenvalor de $T^\ast$. De manera más general, demuestra que $T$ y $T^\ast$ tienen el mismo polinomio característico.
  5. Sea $V$ un espacio euclidiano y $T:V\to V$. ¿Es cierto que para todo polinomio $p$ se cumple que $p(T)^\ast=p(T^\ast)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

Por Julio Sampietro

Introducción

En esta sección introducimos el concepto de transpuesta de una matriz, que consiste en solo ‘voltear’ una matriz. De ahí sale la operación de transposición de matrices. Si bien esta operación es sencilla, las aplicaciones son vastas, especialmente cuando veamos el concepto de espacio dual. Veremos propiedades básicas de esta operación y cómo se relaciona con suma, producto e inversa de matrices.

Luego definimos tres tipos de matrices importantes, las simétricas, antisimétricas y ortogonales. Estos tipos de matrices nos permiten entender un poco mejor los espacios de matrices, que son más grandes, y nos dan mucha información geométrica sobre nuestro espacio de trabajo. Profundizaremos en esto en la tercera unidad.

Transposición de matrices

Sea $A\in M_{m,n}(F)$ una matriz. Intuitivamente, la transpuesta de $A$ se obtiene al trazar una línea de «pendiente» $-1$ desde la entrada $(1,1)$ a lo largo de la diagonal y reflejar la matriz con respecto a esta línea. Daremos unos ejemplos para entender esto más adelante. Primero damos una definición formal.

Definición. La transpuesta de $A\in M_{m,n}(F)$, denotada por $^{t} A$ se obtiene intercambiando los renglones y las columnas de $A$. Consecuentemente $^t A$ es una matriz de tamaño $n\times m$, es decir $^t A \in M_{n,m}(F)$. Dicho de otra manera, si $A=[a_{ij}]$, entonces $^t A=[a_{ji}]$.

Observación. En otras fuentes es posible que encuentres una notación un poco diferente para matriz transpuesta. Algunas veces se pone el superíndice $t$ arriba a la derecha, así: $A^t$. Otras veces se usa una $T$ mayúscula así: $A^T$. Nosotros usaremos el superíndice a la izquierda.

Ejemplo 1. La transpuesta de

\begin{align*}
A= \begin{pmatrix} 1& 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix}
\end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{pmatrix}.
\end{align*}

En general, la transpuesta de una matriz cuadrada en $M_n(F)$ también es cuadrada y está en $M_n(F)$.

$\triangle$

Es claro también que $^t I_n= I_n$.

Ejemplo 2. La transpuesta de

\begin{align*} A= \begin{pmatrix} 0 & 1 & 0 & 3\\ 4 & 7 & 2 & 0\end{pmatrix} \end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 0 &4\\ 1 & 7\\ 0 & 2\\ 3 & 0 \end{pmatrix}.
\end{align*}

$\triangle$

Propiedades de transposición de matrices

Hasta ahora hemos hablado de sumas de matrices, multiplicación por escalar y multiplicación de matrices. Una forma frecuente de trabajar con álgebra es preguntarse cómo una nueva definición interactúa con lo que ya hemos definido anteriormente.

Resumimos las propiedades de la transposición de matrices $A\mapsto {^t A}$ y cómo se relaciona con operaciones anteriores en el siguiente resultado.

Proposición. La operación de transponer satisface:

  1. $^t\left( ^t A\right) = A$ para toda $A\in M_{m,n}(F)$.
  2. $^t\left ( A+B\right) = {^t A} + {^t B}$ para todas $A,B\in M_{m,n}(F)$.
  3. $ ^t\left( cA\right)= c {^t A}$ si $c\in F$ es un escalar y $A\in M_{m,n}(F)$.
  4. ${}^t\left( AB\right)=\ {^tB} \, {^t A}$ si $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$.
  5. ${}^t \left(A^k\right)= \left(^t A\right)^k$ si $A\in M_n(F)$ y $k$ es un entero positivo.
  6. Si $A\in M_n(F)$ es invertible, entonces $^t A$ también es invertible y
    \begin{align*}
    \left(^t A\right)^{-1}= {^t \left(A^{-1}\right)}.
    \end{align*}

Demostración: Las primeras tres propiedades son consecuencia casi inmediata de la definición y las dejamos como tarea moral. Una sugerencia es demostrarlas usando la notación de entradas.

Comencemos pues demostrando la cuarta propiedad. Primero, observamos que $^t B\in M_{p,n}(F)$ y $^t A\in M_{n,m}(F)$ por lo que el producto $^t B \, {^t A}$ tiene sentido. Luego si $A=[a_{ij}]$ y $B=[b_{jk}]$ tenemos por la regla del producto que

\begin{align*}
^t(AB)_{ki}&= (AB)_{ik}\\
& = \sum_{j=1}^{n} a_{ij} b_{jk}\\
&=\sum_{j=1}^{n} \left(^t B\right)_{kj} \left(^t A\right)_{ji}\\
& = \left( ^t B\, {^t A}\right)_{ki}.
\end{align*}

Así $^t (AB)= \ ^t B \,{^t A}$.

La quinta propiedad la demostramos por inducción sobre $k$. El caso base $k=1$ es claro. Asumamos entonces que se cumple para algún $k$, y verifiquemos que la propiedad sigue siendo cierta para $k+1$.

\begin{align*}
^t \left( A^{k+1}\right)&= {^t \left( A^{k} \cdot A\right)} \\
&=\ ^t A\ ^t\left(A^{k}\right) \\
&=\ ^t A \cdot \left(^t A\right)^{k}\\
&= \left(^t A\right)^{k+1}.
\end{align*}

Donde la segunda igualdad se debe a la cuarta propiedad y la tercera a la hipótesis de inducción. Por inducción, queda probado el resultado.

Finalmente la sexta propiedad se sigue de la cuarta, dado que

\begin{align*}
^t A \cdot \ ^t\left(A^{-1}\right)= \ ^t\left( A^{-1} \cdot A\right) = \ ^t I_n =I_n.\end{align*}

La igualdad simétrica se verifica de la misma manera, y queda demostrada la última propiedad.

$\square$

Observación. La transposición de matrices «voltea» el producto de matrices. Es decir, si en el producto $AB$ aparece $A$ a la izquierda y $B$ a la derecha, al transponer obtenemos $^tB\, {^tA}$, con $^tB$ a la izquierda y $^tA$ a la derecha.

Observación. Por la proposición anterior, la transposición de matrices preserva la invertibilidad de las matrices y así lo podemos ver como un mapeo $^t : GL_n(F)\to GL_n(F)$.

Problema. Sea $X\in F^n$ un vector con coordenadas $x_1, \dots, x_n$ considerado como una matriz en $M_{n,1}(F)$. Demuestre que para cualquier matriz $A\in M_n(F)$ se tiene

\begin{align*}
^t X \left( ^t A \cdot A\right) X= \sum_{i=1}^{n} \left( a_{i1} x_1+ a_{i2} x_2 +\dots + a_{in} x_n\right)^2. \end{align*}

Solución: Primero, usamos la proposición para transformar el lado izquierdo de la igualdad buscada:

\begin{align*}
^t X \left( ^t A\cdot A\right) X=\ ^tX\ ^t A A X=\ ^{t} \left( AX\right) \cdot AX.
\end{align*}

Luego nombrando $Y=AX$ tenemos que

\begin{align*}
Y=AX=\begin{pmatrix} a_{11} x_1+\dots + a_{1n} x_n\\ a_{21} x_1+\dots +a_{2n} x_n \\ \vdots \\ a_{n1} x_1+\dots +a_{nn} x_n \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix} .
\end{align*}

Así

\begin{align*}
^t Y \cdot Y= \begin{pmatrix} y_1 & y_2 & \dots & y_n \end{pmatrix} \cdot \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}
\end{align*}

y usando la regla del producto para matrices concluimos que esta última cantidad no es más que $y_1^2+\dots + y_n^2$. Finalmente, sustituyendo $y_i$ por su correspondiente $a_{i1} x_1 +\dots + a_{in} x_n$ obtenemos la igualdad buscada.

$\square$

Matrices simétricas, antisimétricas y ortogonales

En el álgebra lineal hay tres tipos de matrices muy importantes y relacionadas con la transposición de matrices. Todas ellas son matrices cuadradas.

  • Las matrices simétricas. Son aquellas matrices $A\in M_n (F)$ tales que $^t A=A$, equivalentemente $a_{ij}=a_{ji}$ para cualesquiera $1\leq i,j\leq n$. Más adelante veremos que son de fundamental importancia para la teoría de formas cuadráticas y espacios euclideanos (donde $F=\mathbb{R}$), y un cacho importante de nuestro curso se dedicará a estudiar sus propiedades. Por ejemplo todas las matrices simétricas de tamaños $2$ y $3$ son de la forma
    \begin{align*}
    \begin{pmatrix} a & b \\ b &c\end{pmatrix}, \hspace{1mm} a,b,c\in F\text{ y } \begin{pmatrix} a & b & c\\ b & d & e\\ c & e & f\end{pmatrix}, \hspace{1mm} a,b,c,d,e,f\in F.\end{align*}
  • Las matrices ortogonales. Estas son las matrices invertibles $A\in GL_n(F)$ que satisfacen $A^{-1}=\ ^{t}A$. Estas (como su nombre lo indica) tienen una interpretación geométrica muy importante, pues corresponden a isometrías de espacios euclideanos. También las estudiaremos a detalle más adelante.
  • Las matrices antisimétricas. Son matrices $A\in M_n(F)$ que cumplen con $A^{t}=-A$. Estas tienen que ver con formas alternantes, y cumplen $a_{ij}=-a_{ji}$. Si $F\in \{ \mathbb{Q}, \mathbb{R}, \mathbb{C}\}$, esta última condición nos implica que $a_{ii}=-a_{ii}$, de dónde $a_{ii}=0$. Entonces, si $F$ es alguno de estos las entradas en la diagonal son todas cero. Todas las matrices antisimétricas de tamaños $2$ y $3$ sobre el campo $\mathbb{C}$ se ven:
    \begin{align*}
    \begin{pmatrix} 0& a \\ -a &0\end{pmatrix}, \hspace{1mm} a\in \mathbb{C}\text{ y } \begin{pmatrix} 0 & a & b\\ -a & 0& c\\ -b & -c & 0\end{pmatrix}, \hspace{1mm} a,b,c\in \mathbb{C}.\end{align*}
    Sin embargo, si $F$ es por ejemplo $\mathbb{F}_2$, entonces la condición $2a_{ii}=0$ no nos aporta ninguna información nueva, ya que para todo elemento $x$ en $\mathbb{F}_2$, $2x=0$. De hecho, sobre campos de este estilo ¡no hay diferencia entre matrices simétricas y antisimétricas!

A continuación resumimos algunas propiedades iniciales de matrices simétricas y antisimétricas. La idea de las demostraciones es usar las propiedades de transposición de matrices.

Proposición. Todas las matrices en los enunciados siguientes son matrices cuadradas del mismo tamaño. Son ciertas:

  1. La suma de una matriz y su transpuesta es simétrica, la diferencia de una matriz y su transpuesta es antisimétrica.
  2. El producto de una matriz y su transpuesta es simétrica.
  3. Cualquier potencia de una matriz simétrica es simétrica.
  4. Cualquier potencia par de una matriz antisimétrica es simétrica, y cualquier potencia impar de una matriz antisimétrica es antisimétrica.
  5. Si $A$ es invertible y simétrica entonces $A^{-1}$ es simétrica.
  6. Si $A$ es invertible y antisimétrica, entonces $A^{-1}$ es antisimétrica.

Demostración:

  1. Si $A$ es una matriz, entonces $$
    ^t\left( A+\ ^{t}A\right)=\ ^t A + \ ^{t}\left(^{t}A\right) =\ ^{t}A+A= A+\ ^{t} A. $$ Es decir, $A+\ ^{t}A$ es igual a su transpuesta y por tanto es simétrica. El cálculo para verificar la antisimetría de $A-\ ^{t} A$ es similar.
  2. Queremos ver que $A ^{t}A$ es simétrica. Lo podemos hacer directamente $$^{t}\left( A ^{t} A\right) =\ ^{t}\left(^{t}A\right) ^{t} A= A ^{t}A,
    $$ lo que verifica la simetría de la matriz.
  3. Se sigue de la proposición anterior, pues si $A$ es simétrica
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left( ^{t}A\right)^{n}= A^{n}.
    \end{align*}
  4. Hacemos el caso en el que la potencia es par y dejamos el otro como tarea moral, el razonamiento es análogo. Si $A$ es antisimétrica y $n=2k$ para algún $k$ entonces
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left(^{t} A\right)^{n}= (-A)^{n}=(-1)^{2k} A^{n}=A^{n}.
    \end{align*} Aquí usamos que $(-1)^{2k}=1$.
  5. Si $A$ es simétrica, usando la proposición anterior tenemos que
    \begin{align*}
    ^{t}\left(A^{-1}\right)=\left(^t A\right)^{-1}= A^{-1}.
    \end{align*}
  6. Es análogo al inciso anterior.

$\square$

Algunos problemas

Acabamos la entrada con algunos problemas que servirán de práctica.

Problema 1. Describe las matrices simétricas $A\in M_n(F)$ que sean simultáneamente simétricas y triangulares superiores.

Solución: Sea $A=[a_{ij}]$ simétrica y triangular superior. Por definición $a_{ij}=0$ si $i>j$ por ser triangular superior, y $a_{ij}=a_{ji}$ por ser simétrica para cualesquiera $i,j\in \{1, \dots, n\}$. Así, si $i\neq j$ entonces $a_{ij}=0$, pues si $i<j$, entonces $0=a_{ji}=a_{ij}$. Se sigue que $A$ tiene que ser diagonal. Conversamente, es fácil verificar que cualquier matriz diagonal es simétrica y triangular superior. Es decir, la respuesta es precisamente las matrices diagonales.

$\triangle$

Problema 2. ¿Cuántas matrices simétricas hay en $M_n\left( \mathbb{F}_2\right)$?

Solución: Observamos que una matriz simétrica está determinada por las entradas que están sobre o por encima de la diagonal, pues sabemos que para llenar los otros espacios hay que reflejar estas entradas (de otra manera, se puede pensar como colorear solo un lado del papel y luego doblarlo). Conversamente, cada elección de suficientes números para llenar la diagonal y el área encima de ella determina una matriz simétrica.

Así, contemos cuántas entradas hay sobre o por encima de la diagonal: El primer renglón está enteramente por encima de la diagonal, lo que nos da $n$ entradas, luego el segundo renglón está, con excepción de una entrada, contenido en esta área superior, es decir tenemos $n-1$ entradas más. Al tercer renglón le quitamos dos entradas, al cuarto tres entradas y así sucesivamente hasta llegar al último renglón, donde la única entrada sobre o por encima de la diagonal es la última, es decir, una entrada que podemos escoger.

Sumando, tenemos

\begin{align*}
n+(n-1)+(n-2)+\dots +2+1=\frac{n(n+1)}{2}
\end{align*}

entradas que rellenar, y por tanto $\frac{n(n+1)}{2}$ elecciones de números que hacer. Ahora, ¿cuántos números podemos escoger? Al estar trabajando en $\mathbb{F}_2$, solo dos: $0$ ó $1$. Por un argumento combinatorio, concluimos que hay

\begin{align*}
2^{\frac{n(n+1)}{2}}
\end{align*}

matrices simétricas en $M_n\left(\mathbb{F}_2\right)$.

$\triangle$

Problema 3. Demuestra que toda matriz $A\in M_n(\mathbb{C})$ se puede escribir de manera única como $A=B+C$, con $B$ simétrica y $C$ antisimétrica.

Solución: Suponiendo que $A=B+C$ con $B$ simétrica y $C$ antisimétrica, obtenemos que

\begin{align*}
^t A=\ ^t(B+C)= \ ^t B + \ ^t C= B-C
\end{align*}

Así, resolviendo el sistema

\begin{align*}
\begin{cases}
A= B+C\\
^t A= B-C
\end{cases}
\end{align*}

obtenemos que

\begin{align*}
B=\frac{1}{2}\left( A+\ ^t A\right) \text{ y } C=\frac{1}{2}\left( A-\ ^{t} A\right).
\end{align*}

Así la elección de $B$ y $C$ es única, pues están totalmente determinadas. Además, definiendo $B$ y $C$ como en las igualdades de arriba podemos ver que cumplen las condiciones buscadas (probando así existencia).

$\square$

Más adelante…

La transposición de matrices es una operación importante, que más adelante veremos que está relacionada con la dualidad. Las matrices simétricas y antisimétricas son también muy importantes en álgebra lineal. De hecho, el teorema principal del curso (el teorema espectral) es un resultado acerca de matrices simétricas con entradas reales. Por el momento le pondremos una pausa al estudio de estas matrices, pero más adelante las retomaremos.

En la siguiente clase hablaremos de otra clase de matrices: las de bloque. Estas nos ayudarán a enunciar más cómodamente algunos resultados y procedimientos, como el uso de la reducción gaussiana para resolver sistemas de ecuaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Escribe, de manera explícita, todas las matrices simétricas, antisimétricas y ortogonales de $M_2(\mathbb{F}_2)$.
  • La siguiente matriz es una matriz antisimétrica en $M_4(\mathbb{R})$, pero algunas de sus entradas se borraron. ¿Cuáles son estas entradas? $$\begin{pmatrix} 0 & 2 & & 3 \\ & 0 & -4 & \\ 1 & 4 & & \frac{1}{2} \\ & -\frac{2}{3} & & 0 \end{pmatrix}.$$
  • Demuestra las tres primeras propiedades de la proposición de propiedades de transposición de matrices.
  • ¿Será cierto que las matrices de $M_n(F)$ que son simultáneamente invertibles y simétricas forman un subgrupo de $GL_n(F)$? En otras palabras, ¿es cierto que el producto de dos matrices invertibles y simétricas es una matriz invertible y simétrica? ¿Que puedes en este sentido de las matrices ortogonales? ¿De las antisimétricas?
  • Demuestra que cualquier potencia impar de una matriz antisimétrica es antisimétrica
  • Demuestra que en $M_n(\mathbb{F}_2)$, una matriz es simétrica si y sólo si es antisimétrica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»