Archivo de la etiqueta: simétricas

Álgebra Superior I: Transposición de matrices, matrices simétricas y antisimétricas

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido operaciones involucran a dos objetos a la vez, entre los que pueden estar escalares, vectores, o matrices. En esta entrada, exploraremos una operación que se aplica a una matriz a la vez: la transposición de matrices. Esta operación preserva el contenido de la matriz, pero modifica sus dimensiones y el orden de sus entradas de una manera particular. Además, exploraremos algunas matrices que cumplen propiedades especiales bajo esta operación.

Definición de transposición de matrices

Una forma intuitiva de comprender en concepto de transposición de una matriz es como aquella operación que refleja a una matriz por su diagonal. Por ejemplo, consideremos la matriz
\[
A=
\begin{pmatrix}
\fbox{7} & \sqrt{2} \\
-\tfrac{1}{2} & \fbox{3}
\end{pmatrix}
\]
en la cual hemos destacado los elementos de su diagonal. Su matriz transpuesta, la cual denotaremos como $A^T$, será
\[
A^T =
\begin{pmatrix}
\fbox{7} & -\tfrac{1}{2} \\
\sqrt{2} & \fbox{3}
\end{pmatrix}.
\]

En el caso de una matriz que no sea cuadrada, la transposición también intercambia el número de filas y el de columnas. Por ejemplo,
\[
B=
\begin{pmatrix}
\fbox{3} & 4 & \pi \\
0 & \fbox{-1} & 6
\end{pmatrix}
\]
es una matriz de $2 \times 3$, mientras que su matriz transpuesta
\[
B^T=
\begin{pmatrix}
\fbox{3} & 0 \\
4 & \fbox{-1} \\
\pi & 6
\end{pmatrix}
\]
es de tamaño $3 \times 2$.

Para dar una definición formal de la propiedad de transposición, consideremos a la matriz $A$ de tamaño $m \times n$. Diremos que la matriz traspuesta de $A$ es la matriz $A^T$ de tamaño $n \times m$, donde la entrada de $A^T$ en la posición $(i,j)$ es
\[
(A^T)_{ij} = a_{ji},
\]
para todo $1 \le i \le n$ y $1 \le j \le m$.

Por ejemplo, para el caso de
\[
C =
\begin{pmatrix}
\fbox{$c_{11}$} & c_{12} \\
c_{21} & \fbox{$c_{22}$} \\
c_{31} & c_{32}
\end{pmatrix},
\]
su matriz traspuesta es
\[
C^T =
\begin{pmatrix}
(C^T)_{11} & (C^T)_{12} & (C^T)_{13} \\
(C^T)_{21} & (C^T)_{22} & (C^T)_{23} \\
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$c_{11}$} & c_{21} & c_{31} \\
c_{12} & \fbox{$c_{22}$} & c_{32}
\end{pmatrix},
\]
mientras que la matriz transpuesta de
\[
D =
\begin{pmatrix}
\fbox{$d_{11}$} & d_{12} & d_{13} \\
d_{21} & \fbox{$d_{22}$} & d_{23} \\
d_{31} & d_{32} & \fbox{$d_{33}$}
\end{pmatrix}
\]
es
\[
D^T =
\begin{pmatrix}
(D^T)_{11} & (D^T)_{12} & (D^T)_{13} \\
(D^T)_{21} & (D^T)_{22} & (D^T)_{23} \\
(D^T)_{31} & (D^T)_{32} & (D^T)_{33}
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$d_{11}$} & d_{21} & d_{31} \\
d_{12} & \fbox{$d_{22}$} & d_{32} \\
d_{13} & d_{23} & \fbox{$d_{33}$}
\end{pmatrix}.
\]

Como puedes observar, empleando la definición de matriz traspuesta, se sigue cumpliendo que la transposición se puede ver como la operación de reflejar una matriz con respecto a su diagonal.

Propiedades de transposición de matrices

A continuación, demostraremos algunas propiedades que cumplen las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
(Las demostraciones para cualesquiera otros tamaños de matrices se desarrollan de manera análoga).

Veamos qué sucede al realizar dos veces seguidas la trasposición de $A$. Observamos que
\[
A^T =
\begin{pmatrix}
(A^T)_{11} & (A^T)_{12} & (A^T)_{13} \\
(A^T)_{11} & (A^T)_{22} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix},
\]
y, entonces,
\[
(A^T)^T
=
\begin{pmatrix}
((A^T)^T)_{11} & ((A^T)^T)_{12} \\
((A^T)^T)_{21} & ((A^T)^T)_{22} \\
((A^T)^T)_{31} & ((A^T)^T)_{32}
\end{pmatrix}
=
\begin{pmatrix}
(A^T)_{11} & (A^T)_{21} \\
(A^T)_{12} & (A^T)_{22} \\
(A^T)_{13} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
=
A.
\]

En general, al transponer dos veces seguidas una matriz obtendremos como resultado la matriz original: $(A^T)^T = A$.

Por otra parte, observemos que
\[
AB
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix},
\]
de modo que
\[
(AB)^T =
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]
Por su parte, veamos que
\begin{align*}
B^T A^T
&=
\begin{pmatrix}
b_{11} & b_{21} \\
b_{12} & b_{22}
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
b_{11}a_{11} + b_{21}a_{12} & b_{11}a_{21} + b_{21}a_{22} & b_{11}a_{31} + b_{21}a_{32} \\
b_{12}a_{11} + b_{22}a_{12} & b_{12}a_{21} + b_{22}a_{22} & b_{12}a_{31} + b_{22}a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\end{align*}
Por lo tanto,
\[
(AB)^T = B^T A^T.
\]

Finalmente, supongamos que $C = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible. Entonces se cumple que $ad – bc \ne 0$, y $C$ tiene como inversa a
\[
C^{-1} =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-b}{ad – bc} \\
\tfrac{-c}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix},
\]
Por lo tanto,
\[
(C^{-1})^T =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\]

Por su parte, observemos que $C^T = \begin{pmatrix} a & c \\ b & d \end{pmatrix}$ cumple que $ad – cb = ad – bc \ne 0$, con lo cual garantizamos que es también invertible —la transpuesta de una matriz invertible es también invertible—. Más aún, veamos que
\begin{align*}
(C^T)^{-1}&= \frac{1}{ad-bc} \begin{pmatrix} d & -c \\ -b & a \end{pmatrix} \\[5pt]
&= \begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\end{align*}
Por lo tanto, $(C^{-1})^T = (C^T)^{-1}$ —la inversa de una matriz traspuesta corresponde a la traspuesta de la inversa de la orginal—.

Matrices simétricas y antisimétricas

Ahora que conocemos la definición de matriz transpuesta y algunas de sus propiedades, observemos que existen matrices que se comportan de manera especial bajo esta operación.

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix},
\]
entonces,
\[
A^T=
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix}
= A.
\]

A una matriz $A$ que cumple que $A^T = A$ se le denomina matriz simétrica. Otros ejemplos de matrices simétricas son
\[
\begin{pmatrix}
4 & 0 \\
0 & -5
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
-8 & 1 & 2 \\
1 & 0 & 3 \\
2 & 3 & -\pi
\end{pmatrix}.
\]
Una observación importante es que las matrices simétricas únicamente pueden ser cuadradas.

Por otra parte, veamos que la matriz
\[
B=
\begin{pmatrix}
0 & 5 & 5 \\
-5 & 0 & 5 \\
-5 & -5 & 0
\end{pmatrix}
\]
tiene como transpuesta a
\[
B^T =
\begin{pmatrix}
0 & -5 & -5 \\
5 & 0 & -5 \\
5 & 5 & 0
\end{pmatrix}
=
-B.
\]

A una matriz $A$ que cumple que $A^T = -A$ se le denomina matriz antisimétrica. Otros ejemplos de matrices antisimétricas son
\[
\begin{pmatrix}
0 & -2 \\
2 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 1 & -2 \\
-1 & 0 & 3 \\
2 & -3 & 0
\end{pmatrix}.
\]
Al igual que sucede con las matrices simétricas, las matrices antisimétricas sólo pueden ser cuadradas.

Otra propiedad importante de las matrices antisimétricas es que todos los elementos de su diagonal tienen valor 0. ¿Puedes probar por qué sucede esto?

Más adelante…

Con las operaciones entre vectores y matrices que hemos visto hasta ahora podemos obtener varios resultados aplicables a distintas áreas de las matemáticas. En la siguiente entrada abordaremos un tema que, a primera vista, parece no relacionarse mucho con los conceptos que hemos aprendido hasta ahora, pero que, en realidad, resulta ser uno de los temas con mayor aplicación de los conceptos de vectores y matrices: los sistemas de ecuaciones lineales.

Tarea moral

  1. Sea $A$ una matriz de $2\times 2$ con entradas reales. Muestra $AA^T$ siempre es una matriz simétrica y que las entradas en la diagonal de $AA^T$ siempre son números mayores o iguales a cero.
  2. Prueba que los elementos de la diagonal de una matriz antisimétrica tienen valor 0.
  3. Muestra que si una matriz es simétrica e invertible, entonces su inversa también es simétrica. ¿Es cierto lo mismo para las antisimétricas?
  4. ¿Existe alguna matriz que sea al mismo tiempo simétrica y antisimétrica?
  5. Prueba que cualquier matriz $A$ se puede escribir como $A = B+C$, con $B$ simétrica y $C$ antisimétrica.

Entradas relacionadas