Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

Introducción

En esta sección introducimos el concepto de transpuesta de una matriz, que consiste en solo ‘voltear’ una matriz. De ahí sale la operación de transposición de matrices. Si bien esta operación es sencilla, las aplicaciones son vastas, especialmente cuando veamos el concepto de espacio dual. Veremos propiedades básicas de esta operación y cómo se relaciona con suma, producto e inversa de matrices.

Luego definimos tres tipos de matrices importantes, las simétricas, antisimétricas y ortogonales. Estos tipos de matrices nos permiten entender un poco mejor los espacios de matrices, que son más grandes, y nos dan mucha información geométrica sobre nuestro espacio de trabajo. Profundizaremos en esto en la tercera unidad.

Transposición de matrices

Sea A\in M_{m,n}(F) una matriz. Intuitivamente, la transpuesta de A se obtiene al trazar una línea de “pendiente” -1 desde la entrada (1,1) a lo largo de la diagonal y reflejar la matriz con respecto a esta línea. Daremos unos ejemplos para entender esto más adelante. Primero damos una definición formal.

Definición. La transpuesta de A\in M_{m,n}(F), denotada por ^{t} A se obtiene intercambiando los renglones y las columnas de A. Consecuentemente ^t A es una matriz de tamaño n\times m, es decir ^t A \in M_{n,m}(F). Dicho de otra manera, si A=[a_{ij}], entonces ^t A=[a_ji}].

Observación. En otras fuentes es posible que encuentres una notación un poco diferente para matriz transpuesta. Algunas veces se pone el superíndice t arriba a la derecha, así: A^t. Otras veces se usa una T mayúscula así: A^T. Nosotros usaremos el superíndice a la izquierda.

Ejemplo. La transpuesta de

    \begin{align*}A= \begin{pmatrix} 1& 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix}\end{align*}

es

    \begin{align*}^t A= \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{pmatrix}.\end{align*}

En general, la transpuesta de una matriz cuadrada en M_n(F) también es cuadrada y está en M_n(F).

\square

Es claro también que ^t I_n= I_n.

Ejemplo. La transpuesta de

    \begin{align*} A= \begin{pmatrix} 0 & 1 & 0 & 3\\ 4 & 7 & 2 & 0\end{pmatrix} \end{align*}

es

    \begin{align*}^t A= \begin{pmatrix} 0 &4\\ 1 & 7\\ 0 & 2\\ 3 & 0 \end{pmatrix}.\end{align*}

\square

Propiedades de transposición de matrices

Hasta ahora hemos hablado de sumas de matrices, multiplicación por escalar y multiplicación de matrices. Una forma frecuente de trabajar con álgebra es preguntarse cómo una nueva definición interactúa con lo que ya hemos definido anteriormente.

Resumimos las propiedades de la transposición de matrices A\mapsto {^t A} y cómo se relaciona con operaciones anteriores en el siguiente resultado.

Proposición. La operación de transponer satisface:

  1. ^t\left( ^t A\right) = A para toda A\in M_{m,n}(F).
  2. ^t\left ( A+B\right) = {^t A} + {^t B} para todas A,B\in M_{m,n}(F).
  3. ^t\left( cA\right)= c {^t A} si c\in F es un escalar y A\in M_{m,n}(F).
  4. {}^t\left( AB\right)=\  {^tB} \, {^t A} si A\in M_{m,n}(F) y B\in M_{n,p}(F).
  5. {}^t \left(A^k\right)= \left(^t A\right)^k si A\in M_n(F) y k es un entero positivo.
  6. Si A\in M_n(F) es invertible, entonces ^t A también es invertible y

        \begin{align*}\left(^t A\right)^{-1}= {^t \left(A^{-1}\right)}.\end{align*}

Demostración: Las primeras tres propiedades son consecuencia casi inmediata de la definición y las dejamos como tarea moral. Una sugerencia es demostrarlas usando la notación de entradas.

Comencemos pues demostrando la cuarta propiedad. Primero, observamos que ^t B\in M_{p,n}(F) y ^t A\in M_{n,m}(F) por lo que el producto ^t B \, {^t A} tiene sentido. Luego si A=[a_{ij}] y B=[b_{jk}] tenemos por la regla del producto que

    \begin{align*}^t(AB)_{ki}&= (AB)_{ik}\\& = \sum_{j=1}^{n} a_{ij} b_{jk}\\&=\sum_{j=1}^{n} \left(^t B\right)_{kj} \left(^t A\right)_{ji}\\&  =  \left( ^t B\, {^t A}\right)_{ki}.\end{align*}

Así ^t (AB)= \ ^t B \,{^t A}.

La quinta propiedad la demostramos por inducción sobre k. El caso base k=1 es claro. Asumamos entonces que se cumple para algún k, y verifiquemos que la propiedad sigue siendo cierta para k+1.

    \begin{align*}^t \left( A^{k+1}\right)&= {^t \left( A^{k} \cdot A\right)} \\&=\ ^t A\  ^t\left(A^{k}\right) \\&=\ ^t A \cdot \left(^t A\right)^{k}\\&= \left(^t A\right)^{k+1}.\end{align*}

Donde la segunda igualdad se debe a la cuarta propiedad y la tercera a la hipótesis de inducción. Por inducción, queda probado el resultado.

Finalmente la sexta propiedad se sigue de la cuarta, dado que

    \begin{align*}^t A \cdot \ ^t\left(A^{-1}\right)= \ ^t\left( A^{-1} \cdot A\right) = \ ^t I_n =I_n.\end{align*}

La igualdad simétrica se verifica de la misma manera, y queda demostrada la última propiedad.

\square

Observación. La transposición de matrices “voltea” el producto de matrices. Es decir, si en el producto AB aparece A a la izquierda y B a la derecha, al transponer obtenemos ^tB\, {^tA}, con ^tB a la izquierda y ^tA a la derecha.

Observación. Por la proposición anterior, la transposición de matrices preserva la invertibilidad de las matrices y así lo podemos ver como un mapeo ^t : GL_n(F)\to GL_n(F).

Problema. Sea X\in F^n un vector con coordenadas x_1, \dots, x_n considerado como una matriz en M_{n,1}(F). Demuestre que para cualquier matriz A\in M_n(F) se tiene

    \begin{align*}^t X \left( ^t A \cdot A\right) X= \sum_{i=1}^{n} \left( a_{i1} x_1+ a_{i2} x_2 +\dots + a_{in} x_n\right)^2. \end{align*}

Solución: Primero, usamos la proposición para transformar el lado izquierdo de la igualdad buscada:

    \begin{align*}^t X \left( ^t A\cdot A\right) X=\ ^tX\  ^t A A X=\ ^{t} \left( AX\right) \cdot AX.\end{align*}

Luego nombrando Y=AX tenemos que

    \begin{align*}Y=AX=\begin{pmatrix}  a_{11} x_1+\dots + a_{1n} x_n\\ a_{21} x_1+\dots +a_{2n} x_n \\ \vdots \\ a_{n1} x_1+\dots +a_{nn} x_n \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix} .\end{align*}

Así

    \begin{align*} ^t Y \cdot Y= \begin{pmatrix}  y_1 & y_2 & \dots & y_n \end{pmatrix} \cdot \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix} \end{align*}

y usando la regla del producto para matrices concluimos que esta última cantidad no es más que y_1^2+\dots + y_n^2. Finalmente, sustituyendo y_i por su correspondiente a_{i1} x_1 +\dots + a_{in} x_n obtenemos la igualdad buscada.

\square

Matrices simétricas, antisimétricas y ortogonales

En el álgebra lineal hay tres tipos de matrices muy importantes y relacionadas con la transposición de matrices. Todas ellas son matrices cuadradas.

  • Las matrices simétricas. Son aquellas matrices A\in M_n (F) tales que ^t A=A, equivalentemente a_{ij}=a_{ji} para cualesquiera 1\leq i,j\leq n. Más adelante veremos que son de fundamental importancia para la teoría de formas cuadráticas y espacios euclideanos (donde F=\mathbb{R}), y un cacho importante de nuestro curso se dedicará a estudiar sus propiedades. Por ejemplo todas las matrices simétricas de tamaños 2 y 3 son de la forma

        \begin{align*}\begin{pmatrix} a & b \\ b &c\end{pmatrix}, \hspace{1mm} a,b,c\in F\text{ y } \begin{pmatrix} a & b & c\\ b  & d & e\\ c & e & f\end{pmatrix}, \hspace{1mm} a,b,c,d,e,f\in F.\end{align*}

  • Las matrices ortogonales. Estas son las matrices invertibles A\in GL_n(F) que satisfacen A^{-1}=\ ^{t}A. Estas (como su nombre lo indica) tienen una interpretación geométrica muy importante, pues corresponden a isometrías de espacios euclideanos. También las estudiaremos a detalle más adelante.
  • Las matrices antisimétricas. Son matrices A\in M_n(F) que cumplen con A^{t}=-A. Estas tienen que ver con formas alternantes, y cumplen a_{ij}=-a_{ji}. Si F\in \{ \mathbb{Q}, \mathbb{R}, \mathbb{C}\}, esta última condición nos implica que a_{ii}=-a_{ii}, de dónde a_{ii}=0. Entonces, si F es alguno de estos las entradas en la diagonal son todas cero. Todas las matrices antisimétricas de tamaños 2 y 3 sobre el campo \mathbb{C} se ven:

        \begin{align*}\begin{pmatrix} 0& a \\ -a &0\end{pmatrix}, \hspace{1mm} a\in \mathbb{C}\text{ y } \begin{pmatrix} 0 & a & b\\ -a & 0& c\\ -b & -c & 0\end{pmatrix}, \hspace{1mm} a,b,c\in \mathbb{C}.\end{align*}


    Sin embargo, si F es por ejemplo \mathbb{F}_2, entonces la condición 2a_{ii}=0 no nos aporta ninguna información nueva, ya que para todo elemento x en \mathbb{F}_2, 2x=0. De hecho, sobre campos de este estilo ¡no hay diferencia entre matrices simétricas y antisimétricas!

A continuación resumimos algunas propiedades iniciales de matrices simétricas y antisimétricas. La idea de las demostraciones es usar las propiedades de transposición de matrices.

Proposición. Todas las matrices en los enunciados siguientes son matrices cuadradas del mismo tamaño. Son ciertas:

  1. La suma de una matriz y su transpuesta es simétrica, la diferencia de una matriz y su transpuesta es antisimétrica.
  2. El producto de una matriz y su transpuesta es simétrica.
  3. Cualquier potencia de una matriz simétrica es simétrica.
  4. Cualquier potencia par de una matriz antisimétrica es simétrica, y cualquier potencia impar de una matriz antisimétrica es antisimétrica.
  5. Si A es invertible y simétrica entonces A^{-1} es simétrica.
  6. Si A es invertible y antisimétrica, entonces A^{-1} es antisimétrica.

Demostración:

  1. Si A es una matriz, entonces

        \[^t\left( A+\ ^{t}A\right)=\ ^t A + \ ^{t}\left(^{t}A\right) =\ ^{t}A+A= A+\ ^{t} A.\]

    Es decir, A+\ ^{t}A es igual a su transpuesta y por tanto es simétrica. El cálculo para verificar la antisimetría de A-\ ^{t} A es similar.
  2. Queremos ver que A ^{t}A es simétrica. Lo podemos hacer directamente

        \[^{t}\left( A ^{t} A\right) =\ ^{t}\left(^{t}A\right) ^{t} A= A ^{t}A,\]

    lo que verifica la simetría de la matriz.
  3. Se sigue de la proposición anterior, pues si A es simétrica

        \begin{align*}^{t}\left(A^{n}\right)= \left( ^{t}A\right)^{n}= A^{n}.\end{align*}

  4. Hacemos el caso en el que la potencia es par y dejamos el otro como tarea moral, el razonamiento es análogo. Si A es antisimétrica y n=2k para algún k entonces

        \begin{align*}^{t}\left(A^{n}\right)= \left(^{t} A\right)^{n}= (-A)^{n}=(-1)^{2k} A^{n}=A^{n}.\end{align*}

    Aquí usamos que (-1)^{2k}=1.
  5. Si A es simétrica, usando la proposición anterior tenemos que

        \begin{align*}^{t}\left(A^{-1}\right)=\left(^t A\right)^{-1}= A^{-1}.\end{align*}

  6. Es análogo al inciso anterior.

\square

Algunos problemas

Acabamos la entrada con algunos problemas que servirán de práctica.

Problema. Describe las matrices simétricas A\in M_n(F) que sean simultáneamente simétricas y triangulares superiores.

Solución: Sea A=[a_{ij}] simétrica y triangular superior. Por definición a_{ij}=0 si i>j por ser triangular superior, y a_{ij}=a_{ji} por ser simétrica para cualesquiera i,j\in \{1, \dots, n\}. Así, si i\neq j entonces a_{ij}=0, pues si i<j, entonces 0=a_{ji}=a_{ij}. Se sigue que A tiene que ser diagonal. Conversamente, es fácil verificar que cualquier matriz diagonal es simétrica y triangular superior. Es decir, la respuesta es precisamente las matrices diagonales.

\square

Problema. ¿Cuántas matrices simétricas hay en M_n\left( \mathbb{F}_2\right)?

Solución: Observamos que una matriz simétrica está determinada por las entradas que están sobre o por encima de la diagonal, pues sabemos que para llenar los otros espacios hay que reflejar estas entradas (de otra manera, se puede pensar como colorear solo un lado del papel y luego doblarlo). Conversamente, cada elección de suficientes números para llenar la diagonal y el área encima de ella determina una matriz simétrica.

Así, contemos cuántas entradas hay sobre o por encima de la diagonal: El primer renglón está enteramente por encima de la diagonal, lo que nos da n entradas, luego el segundo renglón está, con excepción de una entrada, contenido en esta área superior, es decir tenemos n-1 entradas más. Al tercer renglón le quitamos dos entradas, al cuarto tres entradas y así sucesivamente hasta llegar al último renglón, donde la única entrada sobre o por encima de la diagonal es la última, es decir, una entrada que podemos escoger.

Sumando, tenemos

    \begin{align*}n+(n-1)+(n-2)+\dots +2+1=\frac{n(n+1)}{2}\end{align*}

entradas que rellenar, y por tanto \frac{n(n+1)}{2} elecciones de números que hacer. Ahora, ¿cuántos números podemos escoger? Al estar trabajando en \mathbb{F}_2, solo dos: 0 ó 1. Por un argumento combinatorio, concluimos que hay

    \begin{align*}2^{\frac{n(n+1)}{2}}\end{align*}

matrices simétricas en M_n\left(\mathbb{F}_2\right).

\square

Problema. Demuestra que toda matriz A\in M_n(\mathbb{C}) se puede escribir de manera única como A=B+C, con B simétrica y C antisimétrica.

Solución: Suponiendo que A=B+C con B simétrica y C antisimétrica, obtenemos que

    \begin{align*}^t A=\ ^t(B+C)= \ ^t B + \ ^t C= B-C\end{align*}

Así, resolviendo el sistema

    \begin{align*}\begin{cases} A= B+C\\^t A= B-C\end{cases}\end{align*}

obtenemos que

    \begin{align*}B=\frac{1}{2}\left( A+\ ^t A\right) \text{ y } C=\frac{1}{2}\left( A-\ ^{t} A\right).\end{align*}

Así la elección de B y C es única, pues están totalmente determinadas. Además, definiendo B y C como en las igualdades de arriba podemos ver que cumplen las condiciones buscadas (probando así existencia).

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Escribe, de manera explícita, todas las matrices simétricas, antisimétricas y ortogonales de M_2(\mathbb{F}_2).
  • La siguiente matriz es una matriz antisimétrica en M_4(\mathbb{R}), pero algunas de sus entradas se borraron. ¿Cuáles son estas entradas?

        \[\begin{pmatrix} 0 & 2 & & 3 \\ & 0 & -4  & \\ 1 & 4 & & \frac{1}{2} \\ & -\frac{2}{3} & & 0 \end{pmatrix}.\]

  • Demuestra las tres primeras propiedades de la proposición de propiedades de transposición de matrices.
  • ¿Será cierto que las matrices de M_n(F) que son simultáneamente invertibles y simétricas forman un subgrupo de GL_n(F)? En otras palabras, ¿es cierto que el producto de dos matrices invertibles y simétricas es una matriz invertible y simétrica? ¿Que puedes en este sentido de las matrices ortogonales? ¿De las antisimétricas?
  • Demuestra que cualquier potencia impar de una matriz antisimétrica es antisimétrica
  • Demuestra que en M_n(\mathbb{F}_2), una matriz es simétrica si y sólo si es antisimétrica.

Más adelante…

La transposición de matrices es una operación importante, que más adelante veremos que está relacionada con la dualidad. Las matrices simétricas y antisimétricas son también muy importantes en álgebra lineal. De hecho, el teorema principal del curso (el teorema espectral) es un resultado acerca de matrices simétricas con entradas reales. Por el momento le pondremos una pausa al estudio de estas matrices, pero más adelante las retomaremos.

En la siguiente clase hablaremos de otra clase de matrices: las de bloque. Estas nos ayudarán a enunciar más cómodamente algunos resultados y procedimientos, como el uso de la reducción gaussiana para resolver sistemas de ecuaciones.

Entradas relacionadas

3 comentarios en “Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

    1. Julio Sampietro Autor

      Hola!
      La proposición anterior tiene un inciso que nos permite cambiar transposición y potencias, es decir t(A^n)= (tA)^n. Luego, como A es simétrica podemos cambiar a tA por A en la última igualdad. Espero que sea de ayuda!

      Responder
    2. LeoLeo

      Hola Vale. La primera igualdad se sigue de la propiedad 5, de la proposición de propiedades de transpuesta. La segunda igualdad sale de que A es una matriz simétrica. Si aún te quedan dudas, nos puedes preguntar por acá, o bien en la sesión en vivo.

      Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.