Archivo de la etiqueta: matrices antisimétricas

Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

Introducción

En esta sección introducimos el concepto de transpuesta de una matriz, que consiste en solo ‘voltear’ una matriz. De ahí sale la operación de transposición de matrices. Si bien esta operación es sencilla, las aplicaciones son vastas, especialmente cuando veamos el concepto de espacio dual. Veremos propiedades básicas de esta operación y cómo se relaciona con suma, producto e inversa de matrices.

Luego definimos tres tipos de matrices importantes, las simétricas, antisimétricas y ortogonales. Estos tipos de matrices nos permiten entender un poco mejor los espacios de matrices, que son más grandes, y nos dan mucha información geométrica sobre nuestro espacio de trabajo. Profundizaremos en esto en la tercera unidad.

Transposición de matrices

Sea $A\in M_{m,n}(F)$ una matriz. Intuitivamente, la transpuesta de $A$ se obtiene al trazar una línea de «pendiente» $-1$ desde la entrada $(1,1)$ a lo largo de la diagonal y reflejar la matriz con respecto a esta línea. Daremos unos ejemplos para entender esto más adelante. Primero damos una definición formal.

Definición. La transpuesta de $A\in M_{m,n}(F)$, denotada por $^{t} A$ se obtiene intercambiando los renglones y las columnas de $A$. Consecuentemente $^t A$ es una matriz de tamaño $n\times m$, es decir $^t A \in M_{n,m}(F)$. Dicho de otra manera, si $A=[a_{ij}]$, entonces $^t A=[a_{ji}]$.

Observación. En otras fuentes es posible que encuentres una notación un poco diferente para matriz transpuesta. Algunas veces se pone el superíndice $t$ arriba a la derecha, así: $A^t$. Otras veces se usa una $T$ mayúscula así: $A^T$. Nosotros usaremos el superíndice a la izquierda.

Ejemplo. La transpuesta de

\begin{align*}
A= \begin{pmatrix} 1& 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix}
\end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{pmatrix}.
\end{align*}

En general, la transpuesta de una matriz cuadrada en $M_n(F)$ también es cuadrada y está en $M_n(F)$.

$\square$

Es claro también que $^t I_n= I_n$.

Ejemplo. La transpuesta de

\begin{align*} A= \begin{pmatrix} 0 & 1 & 0 & 3\\ 4 & 7 & 2 & 0\end{pmatrix} \end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 0 &4\\ 1 & 7\\ 0 & 2\\ 3 & 0 \end{pmatrix}.
\end{align*}

$\square$

Propiedades de transposición de matrices

Hasta ahora hemos hablado de sumas de matrices, multiplicación por escalar y multiplicación de matrices. Una forma frecuente de trabajar con álgebra es preguntarse cómo una nueva definición interactúa con lo que ya hemos definido anteriormente.

Resumimos las propiedades de la transposición de matrices $A\mapsto {^t A}$ y cómo se relaciona con operaciones anteriores en el siguiente resultado.

Proposición. La operación de transponer satisface:

  1. $^t\left( ^t A\right) = A$ para toda $A\in M_{m,n}(F)$.
  2. $^t\left ( A+B\right) = {^t A} + {^t B}$ para todas $A,B\in M_{m,n}(F)$.
  3. $ ^t\left( cA\right)= c {^t A}$ si $c\in F$ es un escalar y $A\in M_{m,n}(F)$.
  4. ${}^t\left( AB\right)=\ {^tB} \, {^t A}$ si $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$.
  5. ${}^t \left(A^k\right)= \left(^t A\right)^k$ si $A\in M_n(F)$ y $k$ es un entero positivo.
  6. Si $A\in M_n(F)$ es invertible, entonces $^t A$ también es invertible y
    \begin{align*}
    \left(^t A\right)^{-1}= {^t \left(A^{-1}\right)}.
    \end{align*}

Demostración: Las primeras tres propiedades son consecuencia casi inmediata de la definición y las dejamos como tarea moral. Una sugerencia es demostrarlas usando la notación de entradas.

Comencemos pues demostrando la cuarta propiedad. Primero, observamos que $^t B\in M_{p,n}(F)$ y $^t A\in M_{n,m}(F)$ por lo que el producto $^t B \, {^t A}$ tiene sentido. Luego si $A=[a_{ij}]$ y $B=[b_{jk}]$ tenemos por la regla del producto que

\begin{align*}
^t(AB)_{ki}&= (AB)_{ik}\\
& = \sum_{j=1}^{n} a_{ij} b_{jk}\\
&=\sum_{j=1}^{n} \left(^t B\right)_{kj} \left(^t A\right)_{ji}\\
& = \left( ^t B\, {^t A}\right)_{ki}.
\end{align*}

Así $^t (AB)= \ ^t B \,{^t A}$.

La quinta propiedad la demostramos por inducción sobre $k$. El caso base $k=1$ es claro. Asumamos entonces que se cumple para algún $k$, y verifiquemos que la propiedad sigue siendo cierta para $k+1$.

\begin{align*}
^t \left( A^{k+1}\right)&= {^t \left( A^{k} \cdot A\right)} \\
&=\ ^t A\ ^t\left(A^{k}\right) \\
&=\ ^t A \cdot \left(^t A\right)^{k}\\
&= \left(^t A\right)^{k+1}.
\end{align*}

Donde la segunda igualdad se debe a la cuarta propiedad y la tercera a la hipótesis de inducción. Por inducción, queda probado el resultado.

Finalmente la sexta propiedad se sigue de la cuarta, dado que

\begin{align*}
^t A \cdot \ ^t\left(A^{-1}\right)= \ ^t\left( A^{-1} \cdot A\right) = \ ^t I_n =I_n.\end{align*}

La igualdad simétrica se verifica de la misma manera, y queda demostrada la última propiedad.

$\square$

Observación. La transposición de matrices «voltea» el producto de matrices. Es decir, si en el producto $AB$ aparece $A$ a la izquierda y $B$ a la derecha, al transponer obtenemos $^tB\, {^tA}$, con $^tB$ a la izquierda y $^tA$ a la derecha.

Observación. Por la proposición anterior, la transposición de matrices preserva la invertibilidad de las matrices y así lo podemos ver como un mapeo $^t : GL_n(F)\to GL_n(F)$.

Problema. Sea $X\in F^n$ un vector con coordenadas $x_1, \dots, x_n$ considerado como una matriz en $M_{n,1}(F)$. Demuestre que para cualquier matriz $A\in M_n(F)$ se tiene

\begin{align*}
^t X \left( ^t A \cdot A\right) X= \sum_{i=1}^{n} \left( a_{i1} x_1+ a_{i2} x_2 +\dots + a_{in} x_n\right)^2. \end{align*}

Solución: Primero, usamos la proposición para transformar el lado izquierdo de la igualdad buscada:

\begin{align*}
^t X \left( ^t A\cdot A\right) X=\ ^tX\ ^t A A X=\ ^{t} \left( AX\right) \cdot AX.
\end{align*}

Luego nombrando $Y=AX$ tenemos que

\begin{align*}
Y=AX=\begin{pmatrix} a_{11} x_1+\dots + a_{1n} x_n\\ a_{21} x_1+\dots +a_{2n} x_n \\ \vdots \\ a_{n1} x_1+\dots +a_{nn} x_n \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix} .
\end{align*}

Así

\begin{align*}
^t Y \cdot Y= \begin{pmatrix} y_1 & y_2 & \dots & y_n \end{pmatrix} \cdot \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}
\end{align*}

y usando la regla del producto para matrices concluimos que esta última cantidad no es más que $y_1^2+\dots + y_n^2$. Finalmente, sustituyendo $y_i$ por su correspondiente $a_{i1} x_1 +\dots + a_{in} x_n$ obtenemos la igualdad buscada.

$\square$

Matrices simétricas, antisimétricas y ortogonales

En el álgebra lineal hay tres tipos de matrices muy importantes y relacionadas con la transposición de matrices. Todas ellas son matrices cuadradas.

  • Las matrices simétricas. Son aquellas matrices $A\in M_n (F)$ tales que $^t A=A$, equivalentemente $a_{ij}=a_{ji}$ para cualesquiera $1\leq i,j\leq n$. Más adelante veremos que son de fundamental importancia para la teoría de formas cuadráticas y espacios euclideanos (donde $F=\mathbb{R}$), y un cacho importante de nuestro curso se dedicará a estudiar sus propiedades. Por ejemplo todas las matrices simétricas de tamaños $2$ y $3$ son de la forma
    \begin{align*}
    \begin{pmatrix} a & b \\ b &c\end{pmatrix}, \hspace{1mm} a,b,c\in F\text{ y } \begin{pmatrix} a & b & c\\ b & d & e\\ c & e & f\end{pmatrix}, \hspace{1mm} a,b,c,d,e,f\in F.\end{align*}
  • Las matrices ortogonales. Estas son las matrices invertibles $A\in GL_n(F)$ que satisfacen $A^{-1}=\ ^{t}A$. Estas (como su nombre lo indica) tienen una interpretación geométrica muy importante, pues corresponden a isometrías de espacios euclideanos. También las estudiaremos a detalle más adelante.
  • Las matrices antisimétricas. Son matrices $A\in M_n(F)$ que cumplen con $A^{t}=-A$. Estas tienen que ver con formas alternantes, y cumplen $a_{ij}=-a_{ji}$. Si $F\in \{ \mathbb{Q}, \mathbb{R}, \mathbb{C}\}$, esta última condición nos implica que $a_{ii}=-a_{ii}$, de dónde $a_{ii}=0$. Entonces, si $F$ es alguno de estos las entradas en la diagonal son todas cero. Todas las matrices antisimétricas de tamaños $2$ y $3$ sobre el campo $\mathbb{C}$ se ven:
    \begin{align*}
    \begin{pmatrix} 0& a \\ -a &0\end{pmatrix}, \hspace{1mm} a\in \mathbb{C}\text{ y } \begin{pmatrix} 0 & a & b\\ -a & 0& c\\ -b & -c & 0\end{pmatrix}, \hspace{1mm} a,b,c\in \mathbb{C}.\end{align*}
    Sin embargo, si $F$ es por ejemplo $\mathbb{F}_2$, entonces la condición $2a_{ii}=0$ no nos aporta ninguna información nueva, ya que para todo elemento $x$ en $\mathbb{F}_2$, $2x=0$. De hecho, sobre campos de este estilo ¡no hay diferencia entre matrices simétricas y antisimétricas!

A continuación resumimos algunas propiedades iniciales de matrices simétricas y antisimétricas. La idea de las demostraciones es usar las propiedades de transposición de matrices.

Proposición. Todas las matrices en los enunciados siguientes son matrices cuadradas del mismo tamaño. Son ciertas:

  1. La suma de una matriz y su transpuesta es simétrica, la diferencia de una matriz y su transpuesta es antisimétrica.
  2. El producto de una matriz y su transpuesta es simétrica.
  3. Cualquier potencia de una matriz simétrica es simétrica.
  4. Cualquier potencia par de una matriz antisimétrica es simétrica, y cualquier potencia impar de una matriz antisimétrica es antisimétrica.
  5. Si $A$ es invertible y simétrica entonces $A^{-1}$ es simétrica.
  6. Si $A$ es invertible y antisimétrica, entonces $A^{-1}$ es antisimétrica.

Demostración:

  1. Si $A$ es una matriz, entonces $$
    ^t\left( A+\ ^{t}A\right)=\ ^t A + \ ^{t}\left(^{t}A\right) =\ ^{t}A+A= A+\ ^{t} A. $$ Es decir, $A+\ ^{t}A$ es igual a su transpuesta y por tanto es simétrica. El cálculo para verificar la antisimetría de $A-\ ^{t} A$ es similar.
  2. Queremos ver que $A ^{t}A$ es simétrica. Lo podemos hacer directamente $$^{t}\left( A ^{t} A\right) =\ ^{t}\left(^{t}A\right) ^{t} A= A ^{t}A,
    $$ lo que verifica la simetría de la matriz.
  3. Se sigue de la proposición anterior, pues si $A$ es simétrica
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left( ^{t}A\right)^{n}= A^{n}.
    \end{align*}
  4. Hacemos el caso en el que la potencia es par y dejamos el otro como tarea moral, el razonamiento es análogo. Si $A$ es antisimétrica y $n=2k$ para algún $k$ entonces
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left(^{t} A\right)^{n}= (-A)^{n}=(-1)^{2k} A^{n}=A^{n}.
    \end{align*} Aquí usamos que $(-1)^{2k}=1$.
  5. Si $A$ es simétrica, usando la proposición anterior tenemos que
    \begin{align*}
    ^{t}\left(A^{-1}\right)=\left(^t A\right)^{-1}= A^{-1}.
    \end{align*}
  6. Es análogo al inciso anterior.

$\square$

Algunos problemas

Acabamos la entrada con algunos problemas que servirán de práctica.

Problema. Describe las matrices simétricas $A\in M_n(F)$ que sean simultáneamente simétricas y triangulares superiores.

Solución: Sea $A=[a_{ij}]$ simétrica y triangular superior. Por definición $a_{ij}=0$ si $i>j$ por ser triangular superior, y $a_{ij}=a_{ji}$ por ser simétrica para cualesquiera $i,j\in \{1, \dots, n\}$. Así, si $i\neq j$ entonces $a_{ij}=0$, pues si $i<j$, entonces $0=a_{ji}=a_{ij}$. Se sigue que $A$ tiene que ser diagonal. Conversamente, es fácil verificar que cualquier matriz diagonal es simétrica y triangular superior. Es decir, la respuesta es precisamente las matrices diagonales.

$\square$

Problema. ¿Cuántas matrices simétricas hay en $M_n\left( \mathbb{F}_2\right)$?

Solución: Observamos que una matriz simétrica está determinada por las entradas que están sobre o por encima de la diagonal, pues sabemos que para llenar los otros espacios hay que reflejar estas entradas (de otra manera, se puede pensar como colorear solo un lado del papel y luego doblarlo). Conversamente, cada elección de suficientes números para llenar la diagonal y el área encima de ella determina una matriz simétrica.

Así, contemos cuántas entradas hay sobre o por encima de la diagonal: El primer renglón está enteramente por encima de la diagonal, lo que nos da $n$ entradas, luego el segundo renglón está, con excepción de una entrada, contenido en esta área superior, es decir tenemos $n-1$ entradas más. Al tercer renglón le quitamos dos entradas, al cuarto tres entradas y así sucesivamente hasta llegar al último renglón, donde la única entrada sobre o por encima de la diagonal es la última, es decir, una entrada que podemos escoger.

Sumando, tenemos

\begin{align*}
n+(n-1)+(n-2)+\dots +2+1=\frac{n(n+1)}{2}
\end{align*}

entradas que rellenar, y por tanto $\frac{n(n+1)}{2}$ elecciones de números que hacer. Ahora, ¿cuántos números podemos escoger? Al estar trabajando en $\mathbb{F}_2$, solo dos: $0$ ó $1$. Por un argumento combinatorio, concluimos que hay

\begin{align*}
2^{\frac{n(n+1)}{2}}
\end{align*}

matrices simétricas en $M_n\left(\mathbb{F}_2\right)$.

$\square$

Problema. Demuestra que toda matriz $A\in M_n(\mathbb{C})$ se puede escribir de manera única como $A=B+C$, con $B$ simétrica y $C$ antisimétrica.

Solución: Suponiendo que $A=B+C$ con $B$ simétrica y $C$ antisimétrica, obtenemos que

\begin{align*}
^t A=\ ^t(B+C)= \ ^t B + \ ^t C= B-C
\end{align*}

Así, resolviendo el sistema

\begin{align*}
\begin{cases}
A= B+C\\
^t A= B-C
\end{cases}
\end{align*}

obtenemos que

\begin{align*}
B=\frac{1}{2}\left( A+\ ^t A\right) \text{ y } C=\frac{1}{2}\left( A-\ ^{t} A\right).
\end{align*}

Así la elección de $B$ y $C$ es única, pues están totalmente determinadas. Además, definiendo $B$ y $C$ como en las igualdades de arriba podemos ver que cumplen las condiciones buscadas (probando así existencia).

$\square$

Tarea moral

  • Escribe, de manera explícita, todas las matrices simétricas, antisimétricas y ortogonales de $M_2(\mathbb{F}_2)$.
  • La siguiente matriz es una matriz antisimétrica en $M_4(\mathbb{R})$, pero algunas de sus entradas se borraron. ¿Cuáles son estas entradas? $$\begin{pmatrix} 0 & 2 & & 3 \\ & 0 & -4 & \\ 1 & 4 & & \frac{1}{2} \\ & -\frac{2}{3} & & 0 \end{pmatrix}.$$
  • Demuestra las tres primeras propiedades de la proposición de propiedades de transposición de matrices.
  • ¿Será cierto que las matrices de $M_n(F)$ que son simultáneamente invertibles y simétricas forman un subgrupo de $GL_n(F)$? En otras palabras, ¿es cierto que el producto de dos matrices invertibles y simétricas es una matriz invertible y simétrica? ¿Que puedes en este sentido de las matrices ortogonales? ¿De las antisimétricas?
  • Demuestra que cualquier potencia impar de una matriz antisimétrica es antisimétrica
  • Demuestra que en $M_n(\mathbb{F}_2)$, una matriz es simétrica si y sólo si es antisimétrica.

Más adelante…

La transposición de matrices es una operación importante, que más adelante veremos que está relacionada con la dualidad. Las matrices simétricas y antisimétricas son también muy importantes en álgebra lineal. De hecho, el teorema principal del curso (el teorema espectral) es un resultado acerca de matrices simétricas con entradas reales. Por el momento le pondremos una pausa al estudio de estas matrices, pero más adelante las retomaremos.

En la siguiente clase hablaremos de otra clase de matrices: las de bloque. Estas nos ayudarán a enunciar más cómodamente algunos resultados y procedimientos, como el uso de la reducción gaussiana para resolver sistemas de ecuaciones.

Entradas relacionadas