Archivo de la etiqueta: diagonal

Álgebra Superior I: Traza de matrices y propiedades

Por Eduardo García Caballero

Introducción

En esta entrada conoceremos una nueva operación que se puede aplicar a matrices: la traza. Esta operación a primera vista parece bastante sencilla, pero no por eso es menos importante; en futuros cursos conocerás cómo se relaciona estrechamente con otros conceptos matemáticos y sus aplicaciones.

Traza

Definimos la traza de una matriz cuadrada como la suma de los elementos de su diagonal. Es importante destacar que únicament ele aplicaremos la operación de traza a matrices cuadradas pues más adelante las propiedades que nos interesarán requieren de esta condición.

Por ejemplo, las trazas de las matrices
\[
A=
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
\]
son, respectivamente,
\[
\operatorname{tr}(A)
=
\operatorname{tr}
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
=
4+ (-6)
=
-2
\]
y
\[
\operatorname{tr}(B)
=
\operatorname{tr}
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
=
1 + 5 + (-5) = 1.
\]

Propiedades de la traza

La traza cumple un par de propiedades importantes con respecto a otras operaciones que definimos anteriormente. Para la prueba de estas propiedades consideraremos matrices de tamaño $2 \times 2$, pero fácilmente podrás probarlo para cualquier otro tamaño de matrices cuadradas.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que la traza se distribuye con respecto a la suma; es decir,
\begin{align*}
\operatorname{tr}(A+B)
&=
\operatorname{tr}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} \\
a_{21}+b_{21} & a_{22}+b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}+b_{11}) + (a_{22}+b_{22})
\\[5pt]
&=
(a_{11} + a_{22}) + (b_{11}+b_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\operatorname{tr}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(A) + \operatorname{tr}(B).
\end{align*}

Además, la traza saca escalares; es decir, para cualquier escalar $r$ se cumple que
\begin{align*}
\operatorname{tr}(rA)
&=
\operatorname{tr}
\left(
r
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
ra_{11} & ra_{12} \\
ra_{21} & ra_{22}
\end{pmatrix}
\\[5pt]
&=
ra_{11} + ra_{22}
\\[5pt]
&=
r(a_{11} + a_{22})
\\[5pt]
&=
r
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\\[5pt]
&=
r\operatorname{tr}(A).
\end{align*}

Problemas

Trabajemos con algunos problemas en los cuales aparece la traza:

Problema. Demuestra que para matrices $A$ y $B$ de $2 \times 2$ se cumple que $\operatorname{tr}(AB) = \operatorname{tr}(BA)$.

Solución. Lo demostraremos directamente por la definición de traza.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que
\begin{align*}
\operatorname{tr}(AB)
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21}) + (a_{21}b_{12} + a_{22}b_{22})
\\[5pt]
&=
(b_{11}a_{11} + b_{12}a_{21}) + (b_{21}a_{12} + b_{22}a_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
b_{11}a_{11} + b_{12}a_{21} & b_{11}a_{12} + b_{12}a_{22} \\
b_{21}a_{11} + b_{22}a_{21} & b_{21}a_{12} + b_{22}a_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(BA).
\end{align*}

$\square$

Problema. ¿Para qué matrices de $2 \times 2$ se tiene que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$?

Solución. Consideremos la matriz de $2 \times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}.
\]

Calculamos
\[
\operatorname{tr}(A^2)
=
\operatorname{tr}
\begin{pmatrix}
a^2 + bc & ab + bd \\
ac + cd & bc + d^2
\end{pmatrix}
=
(a^2+bc)+(bc+d^2) = a^2 + 2bc + d^2
\]
y
\[
(\operatorname{tr}(A))^2
=
(a + d)^2
=
a^2 + 2ad + d^2.
\]

Entonces, notamos que
\[
\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2
\]
si y sólo si
\[
a^2 + 2bc + d^2 = a^2 + 2ad + d^2,
\]
lo cual se cumple si y sólo si
\[
bc = ad.
\]

Entonces, las matrices de $2\times 2$ que cumplen que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$ son aquellas de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tales que $bc = ad$. ¿Podrías dar un ejemplo de una matriz que cumpla esto?

$\square$

Nota. El hecho de que la matriz $A$ anterior cumpla que $bc = ad$ equivale a que $ac – bd = 0$, y esto equivale, como verás en la siguiente entrada, a que “el determinante de $A$ sea cero”.

Más adelante…

En esta entrada aprendimos la definición de traza y vimos algunas de sus propiedades.

Además, en el problema 2, mencionamos un concepto que hasta ahora no hemos visto. En la siguiente entrada conoceremos una de las operaciones más importantes que se pueden aplicar a matrices cuadradas: el determinante.

Tarea moral

  1. Encuenta la traza de las siguientes matrices:
    \[
    \begin{pmatrix}
    3 & 4 \\
    5 & 6
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    \sqrt{2} & 3/\sqrt{2} \\
    \sqrt{3} & \sqrt{6}
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    2x & 9y \\
    4y & -5x
    \end{pmatrix},
    \]
    \[
    \begin{pmatrix}
    1 & 2 & 1 \\
    1 & -3 & 4 \\
    -1 & 0 & 4
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    -3 & 2 & 4 \\
    -4 & 2 & 4 \\
    1 & -1 & 1
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    a & b & c \\
    d & e & f \\
    1 & 2 & 3
    \end{pmatrix}.
    \]
  2. Demuestra que $\text{tr}(AB)=\text{tr}(BA)$ para matrices $A$ y $B$ de $3\times 3$. Intenta también hacerlo para matrices de $n\times n$.
  3. Determina si el siguiente enunciado es verdadero o falso. Si $A$ y $B$ son matrices de $2\times 2$ tales que $\text{tr}(A)=\text{tr}(B)$ y $\text{tr}(A^2)=\text{tr}(B^2)$, entonces $A=B$.
  4. ¿Será cierto que la traza es multiplicativa? Es decir, ¿para cualesquiera matrices $A$ y $B$ se cumple que $\text{tr}(AB)=\text{tr}(A)\text{tr}(B)$?
  5. Sea $A$ una matriz de $2\times 2$. Demuestra que $\text{tr}(AA^T)$ siempre es un número real mayor o igual que cero. ¿Es cierto esto mismo si la matriz es de $3\times 3$? ¿Es cierto siempre que $\text{tr}(A^2)$ es un número mayor o igual a cero?

Entradas relacionadas

Álgebra Superior I: Transposición de matrices, matrices simétricas y antisimétricas

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido operaciones involucran a dos objetos a la vez, entre los que pueden estar escalares, vectores, o matrices. En esta entrada, exploraremos una operación que se aplica a una matriz a la vez: la transposición de matrices. Esta operación preserva el contenido de la matriz, pero modifica sus dimensiones y el orden de sus entradas de una manera particular. Además, exploraremos algunas matrices que cumplen propiedades especiales bajo esta operación.

Definición de transposición de matrices

Una forma intuitiva de comprender en concepto de transposición de una matriz es como aquella operación que refleja a una matriz por su diagonal. Por ejemplo, consideremos la matriz
\[
A=
\begin{pmatrix}
\fbox{7} & \sqrt{2} \\
-\tfrac{1}{2} & \fbox{3}
\end{pmatrix}
\]
en la cual hemos destacado los elementos de su diagonal. Su matriz transpuesta, la cual denotaremos como $A^T$, será
\[
A^T =
\begin{pmatrix}
\fbox{7} & -\tfrac{1}{2} \\
\sqrt{2} & \fbox{3}
\end{pmatrix}.
\]

En el caso de una matriz que no sea cuadrada, la transposición también intercambia el número de filas y el de columnas. Por ejemplo,
\[
B=
\begin{pmatrix}
\fbox{3} & 4 & \pi \\
0 & \fbox{-1} & 6
\end{pmatrix}
\]
es una matriz de $2 \times 3$, mientras que su matriz transpuesta
\[
B^T=
\begin{pmatrix}
\fbox{3} & 0 \\
4 & \fbox{-1} \\
\pi & 6
\end{pmatrix}
\]
es de tamaño $3 \times 2$.

Para dar una definición formal de la propiedad de transposición, consideremos a la matriz $A$ de tamaño $m \times n$. Diremos que la matriz traspuesta de $A$ es la matriz $A^T$ de tamaño $n \times m$, donde la entrada de $A^T$ en la posición $(i,j)$ es
\[
(A^T)_{ij} = a_{ji},
\]
para todo $1 \le i \le n$ y $1 \le j \le m$.

Por ejemplo, para el caso de
\[
C =
\begin{pmatrix}
\fbox{$c_{11}$} & c_{12} \\
c_{21} & \fbox{$c_{22}$} \\
c_{31} & c_{32}
\end{pmatrix},
\]
su matriz traspuesta es
\[
C^T =
\begin{pmatrix}
(C^T)_{11} & (C^T)_{12} & (C^T)_{13} \\
(C^T)_{21} & (C^T)_{22} & (C^T)_{23} \\
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$c_{11}$} & c_{21} & c_{31} \\
c_{12} & \fbox{$c_{22}$} & c_{32}
\end{pmatrix},
\]
mientras que la matriz transpuesta de
\[
D =
\begin{pmatrix}
\fbox{$d_{11}$} & d_{12} & d_{13} \\
d_{21} & \fbox{$d_{22}$} & d_{23} \\
d_{31} & d_{32} & \fbox{$d_{33}$}
\end{pmatrix}
\]
es
\[
D^T =
\begin{pmatrix}
(D^T)_{11} & (D^T)_{12} & (D^T)_{13} \\
(D^T)_{21} & (D^T)_{22} & (D^T)_{23} \\
(D^T)_{31} & (D^T)_{32} & (D^T)_{33}
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$d_{11}$} & d_{21} & d_{31} \\
d_{12} & \fbox{$d_{22}$} & d_{32} \\
d_{13} & d_{23} & \fbox{$d_{33}$}
\end{pmatrix}.
\]

Como puedes observar, empleando la definición de matriz traspuesta, se sigue cumpliendo que la transposición se puede ver como la operación de reflejar una matriz con respecto a su diagonal.

Propiedades de transposición de matrices

A continuación, demostraremos algunas propiedades que cumplen las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
(Las demostraciones para cualesquiera otros tamaños de matrices se desarrollan de manera análoga).

Veamos qué sucede al realizar dos veces seguidas la trasposición de $A$. Observamos que
\[
A^T =
\begin{pmatrix}
(A^T)_{11} & (A^T)_{12} & (A^T)_{13} \\
(A^T)_{11} & (A^T)_{22} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix},
\]
y, entonces,
\[
(A^T)^T
=
\begin{pmatrix}
((A^T)^T)_{11} & ((A^T)^T)_{12} \\
((A^T)^T)_{21} & ((A^T)^T)_{22} \\
((A^T)^T)_{31} & ((A^T)^T)_{32}
\end{pmatrix}
=
\begin{pmatrix}
(A^T)_{11} & (A^T)_{21} \\
(A^T)_{12} & (A^T)_{22} \\
(A^T)_{13} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
=
A.
\]

En general, al transponer dos veces seguidas una matriz obtendremos como resultado la matriz original: $(A^T)^T = A$.

Por otra parte, observemos que
\[
AB
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix},
\]
de modo que
\[
(AB)^T =
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]
Por su parte, veamos que
\begin{align*}
B^T A^T
&=
\begin{pmatrix}
b_{11} & b_{21} \\
b_{12} & b_{22}
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
b_{11}a_{11} + b_{21}a_{12} & b_{11}a_{21} + b_{21}a_{22} & b_{11}a_{31} + b_{21}a_{32} \\
b_{12}a_{11} + b_{22}a_{12} & b_{12}a_{21} + b_{22}a_{22} & b_{12}a_{31} + b_{22}a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\end{align*}
Por lo tanto,
\[
(AB)^T = B^T A^T.
\]

Finalmente, supongamos que $C = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible. Entonces se cumple que $ad – bc \ne 0$, y $C$ tiene como inversa a
\[
C^{-1} =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-b}{ad – bc} \\
\tfrac{-c}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix},
\]
Por lo tanto,
\[
(C^{-1})^T =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\]

Por su parte, observemos que $C^T = \begin{pmatrix} a & c \\ b & d \end{pmatrix}$ cumple que $ad – cb = ad – bc \ne 0$, con lo cual garantizamos que es también invertible —la transpuesta de una matriz invertible es también invertible—. Más aún, veamos que
\begin{align*}
(C^T)^{-1}&= \frac{1}{ad-bc} \begin{pmatrix} d & -c \\ -b & a \end{pmatrix} \\[5pt]
&= \begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\end{align*}
Por lo tanto, $(C^{-1})^T = (C^T)^{-1}$ —la inversa de una matriz traspuesta corresponde a la traspuesta de la inversa de la orginal—.

Matrices simétricas y antisimétricas

Ahora que conocemos la definición de matriz transpuesta y algunas de sus propiedades, observemos que existen matrices que se comportan de manera especial bajo esta operación.

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix},
\]
entonces,
\[
A^T=
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix}
= A.
\]

A una matriz $A$ que cumple que $A^T = A$ se le denomina matriz simétrica. Otros ejemplos de matrices simétricas son
\[
\begin{pmatrix}
4 & 0 \\
0 & -5
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
-8 & 1 & 2 \\
1 & 0 & 3 \\
2 & 3 & -\pi
\end{pmatrix}.
\]
Una observación importante es que las matrices simétricas únicamente pueden ser cuadradas.

Por otra parte, veamos que la matriz
\[
B=
\begin{pmatrix}
0 & 5 & 5 \\
-5 & 0 & 5 \\
-5 & -5 & 0
\end{pmatrix}
\]
tiene como transpuesta a
\[
B^T =
\begin{pmatrix}
0 & -5 & -5 \\
5 & 0 & -5 \\
5 & 5 & 0
\end{pmatrix}
=
-B.
\]

A una matriz $A$ que cumple que $A^T = -A$ se le denomina matriz antisimétrica. Otros ejemplos de matrices antisimétricas son
\[
\begin{pmatrix}
0 & -2 \\
2 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 1 & -2 \\
-1 & 0 & 3 \\
2 & -3 & 0
\end{pmatrix}.
\]
Al igual que sucede con las matrices simétricas, las matrices antisimétricas sólo pueden ser cuadradas.

Otra propiedad importante de las matrices antisimétricas es que todos los elementos de su diagonal tienen valor 0. ¿Puedes probar por qué sucede esto?

Más adelante…

Con las operaciones entre vectores y matrices que hemos visto hasta ahora podemos obtener varios resultados aplicables a distintas áreas de las matemáticas. En la siguiente entrada abordaremos un tema que, a primera vista, parece no relacionarse mucho con los conceptos que hemos aprendido hasta ahora, pero que, en realidad, resulta ser uno de los temas con mayor aplicación de los conceptos de vectores y matrices: los sistemas de ecuaciones lineales.

Tarea moral

  1. Sea $A$ una matriz de $2\times 2$ con entradas reales. Muestra $AA^T$ siempre es una matriz simétrica y que las entradas en la diagonal de $AA^T$ siempre son números mayores o iguales a cero.
  2. Prueba que los elementos de la diagonal de una matriz antisimétrica tienen valor 0.
  3. Muestra que si una matriz es simétrica e invertible, entonces su inversa también es simétrica. ¿Es cierto lo mismo para las antisimétricas?
  4. ¿Existe alguna matriz que sea al mismo tiempo simétrica y antisimétrica?
  5. Prueba que cualquier matriz $A$ se puede escribir como $A = B+C$, con $B$ simétrica y $C$ antisimétrica.

Entradas relacionadas

Cálculo Diferencial e Integral III: Determinantes

Por Alejandro Antonio Estrada Franco

Introducción

El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.

Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.

Permutaciones

Recordemos que en la entrada anterior definimos para cada $n\in \mathbb{N}$ el conjunto $[n]=\{1, 2,\ldots, n\}$.

Definición. Una permutación del conjunto $[n]$ es una función biyectiva $\sigma :[n]\rightarrow [n]$. Una forma de escribir a $\sigma$ de manera más explícita es la siguiente:
\[ \sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma(1) & \sigma(2) & \dots & \sigma(n) \end{pmatrix} \]

Podemos pensar también a una permutación como un reacomodo de los números $1, 2, …, n$. Pensado de esta manera, escribimos $\sigma =\sigma(1) \sigma(2)\dots \sigma(n)$.

El conjunto de todas las permutaciones del conjunto $[n]$ se denota como $S_n$. Una observación interesante es que $S_{n}$ tiene $n!$ elementos.

Definición. Para $\sigma \in S_{n}$, una inversión en $\sigma$ consiste en un par $(i,k)\in [n]\times [n]$ tal que $i>k$ pero $i$ precede a $k$ en $\sigma$ cuando se considera $\sigma$ como una lista. Diremos que $\sigma$ es permutación par o impar según tenga un número par o impar de inversiones.

Ejemplo. Consideremos $\sigma=12354$ permutación en $[5]$. Tenemos que $(5,4)$ es una inversión en $\sigma$ pues $5>4$ pero en la permutación $5$ precede a $4$. Al tener $\sigma$ una sola inversión, es una permutación impar.

$\triangle$

Definición. El signo de $\sigma$, denotado $\text{sign}(\sigma)$ se define como:
\[
\text{sign}(\sigma )= \begin{cases} 1 & \text{si $\sigma$ es par} \\
-1 & \text{si $\sigma$ es impar.}\end{cases}
\]

Sea $A\in M_{n}(\mathbb{R})$. Pensemos en un producto de $n$ entradas de $A$ tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como
\begin{equation}
a_{1j_{1}} a_{2j_{2}}\dots a_{nj_{n}}.
\label{eq:producto}
\end{equation}

Así, $a_{kj_{k}}$ nos dice que en la fila $k$ tomamos la entrada de la columna $j$. Como se eligió una y sólo una entrada por columna, tenemos que $j_1,\ldots,j_n$ es una permutación de $[n]$. Y viceversa, cada permutación $\sigma =j_{1}\dots j_{n} \in S_{n}$ determina un producto como en \eqref{eq:producto}. Por ello la matriz $A$ nos entrega $n!$ productos con esta característica.

Determinantes en términos de permutaciones

A partir de las permutaciones podemos definir a los determinantes.

Definición. El determinante de la matriz $A$, denotado por $\det(A)$, se define como:
\[
\det(A)=\sum_{\sigma \in S_{n}} \left(\text{sign}(\sigma)\prod_{i=1}^{n} a_{i\sigma (i)}\right)
\]
donde
\[
\sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma (1) & \sigma (2) & \dots & \sigma (n)
\end{pmatrix}
\]

Ejemplo. Para la matriz \[ A= \begin{pmatrix} 0 & 2 & 1 \\ 1 & 2 & 0 \\ 3 & 0 & 1 \end{pmatrix} \] tomemos en cuenta las permutaciones del conjunto $[3]$ las cuales son: \[ \begin{pmatrix} 1 & 2 & 3 \\ 1 & 2 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 1 & 3 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 3 & 1 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 1 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 2 & 1 \end{pmatrix} \]

De acuerdo con la definición de determinante, tenemos:

\begin{align*}
\det(A)=&(1)a_{11}a_{22}a_{33}+(-1)a_{11}a_{23}a_{32}+(-1)a_{12}a_{21}a_{33}+\\
&(1)a_{12}a_{23}a_{31}+(1)a_{13}a_{22}a_{31}+(-1)a_{13}a_{21}a_{32}\\
=&0\cdot 2\cdot 1+(-1)0\cdot 0\cdot 0+(-1)2\cdot 1\cdot 1+\\
&(1)2\cdot 0\cdot 3+(1)1\cdot 2\cdot 3+(-1)1\cdot 1\cdot 0\\
=&4.
\end{align*}

$\triangle$

Propiedades de los determinantes

Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.

Definición. La matriz identidad $I\in M_{n}(\mathbb{R})$ es aquella que cumple que en las entradas de la forma $(i,i)$ son iguales a 1 y el resto de las entradas son iguales a 0.

Definición. Diremos que una matriz $A\in M_n(\mathbb{R})$ es una matriz triangular superior si cumple $a_{ij}=0$ para $i>j$. La llamaremos triangular inferior si cumple $a_{ij}=0$ para $i<j$. Finalmente, diremos que es diagonal si cumple $a_{ij}=0$ para $i\neq j$ (en otras palabras, si simultáneamente es triangular superior e inferior).

Definición. Sea $A\in M_{m,n}(\mathbb{R})$. La transpuesta de la matriz $A$, denotada por $A^t$, es la matriz en $M_{n,m}(\mathbb{R})$ cuyas entradas están definidas como $(a^{t})_{ij} =a_{ji}$.

El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.

Proposición. Sea $A\in M_{n}(\mathbb{R})$. Se cumple todo lo siguiente.

  1. $\det(A)=\det(A^{t})$.
  2. Si $A$ tiene dos filas iguales $\det(A)=0$.
  3. Si $A$ tiene dos columnas iguales $\det(A)=0$.
  4. Si $A$ es triangular superior, triangular inferior, o diagonal, $\det(A)=\prod_{i=1}^{n} a_{ii}$.
  5. $\det(I_n)=1$.

Demostración.

  1. Notemos que (tarea moral) $\text{sign}( \sigma )= \text{sign}( \sigma ^{-1})$, así tenemos que
    \begin{align*}
    \det(A^{t})&=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{\sigma (1) 1}\dots a_{\sigma (n) n}\\
    &=\sum_{\sigma \in S_{n}} \text{sign}(\sigma ^{-1})a_{1\sigma (1)}\dots a_{n\sigma (n)}\\
    &= \sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma (1)}\dots a_{n\sigma (n)}\\&= \det(A).
    \end{align*}
  2. Si tenemos dos filas iguales, en cada producto $a_{1\sigma (1)}\cdots a_{n\sigma (n)}$ tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
  3. Mismo argumento que en el inciso anterior.
  4. Si tenemos una matriz triangular, ya sea superior, o inferior $\prod_{i=1}^{n} a_{i\sigma (i)}\neq 0$ sólo cuando $\sigma(i)=i$ ya que en otro caso este producto siempre tendrá algún factor cero.
  5. Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.

$\square$

Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.

Teorema. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se tiene que $$\det(AB)=\det(A)\det(B).$$

Mas adelante

En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.

Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.

Tarea moral

  1. Sea $\sigma \in S_{n}$. Muestra que su inversa, $\sigma ^{ -1}$ también es una permutación. Después, muestra que
    \[\text{sign}(\sigma)= \text{sign}(\sigma ^{-1}).\]
    Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
  2. Encuentra explícitamente cuántas inversiones tiene la permutación $\sigma$ en $S_n$ dada por $S(j)=n-j+1$.
  3. Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma \[ \det(A)=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma(1)}\cdot \dots \cdot a_{n\sigma (n)}.\] Supón que las filas $s$ y $t$ son iguales; para cada factor argumenta por qué \[ a_{1\sigma (1)}\cdots a_{s\sigma (s)} \cdots a_{t\sigma (t)}\cdots a_{n\sigma (n)} \] el factor \[ a_{1\sigma (1)}\cdots a_{t\sigma (t)}\cdots a_{s\sigma (s)} \cdots a_{n\sigma (n)} \] donde permutamos el $t$-ésimo factor con el $s$-ésimo también está en la suma, y por qué ambos son de signos contrarios.
  4. Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
  5. Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».

Entradas relacionadas

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma $z=e^{i\theta}r$ con $r\geq 0$ real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz $A$ tendrá una expresión de la forma $A=US$ donde $U$ es una matriz ortogonal (que juega el papel de «la rotación») y $S$ es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea $A$ una matriz simétrica positiva. Entonces existe una matriz simétrica $B$ tal que $B^2=A$.

Como recordatorio, para obtener a $B$ lo que hicimos fue diagonalizar a $A$ de la forma $A=P^{-1}DP$ con $D$ matriz diagonal cuyas entradas eran $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $A$. Como $A$ era positiva, sus eigenvalores eran no negativos, así que podíamos construir $D’$ con entradas $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}$. Después, vimos que $B=P^{-1}D’P$ servía para que $B^2=A$. Observa que además $B$ es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si $A$ fuera positiva definida entonces sus eigenvalores serían positivos, y entonces $B$ también tendría eigenvalores positivos. Así, $B$ sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz $B$ es única (bajo la condición de ser simétrica positiva definida y raíz de $A$). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(U,S)$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva definida para la que se cumple que $A=US$.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ una matriz invertible. La matriz $^tAA$ es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida $S$ tal que $^tAA=S^2$. Como $A$ es invertible, $S$ también lo es, así que definamos $$U=AS^{-1}.$$

Afirmamos que $(U,S)$ cumplen con lo requerido. Ya justificamos que $S$ es simétrica positiva definida. Además, de $U=AS^{-1}$ se obtiene inmediatamente $US=A$. Sólo falta verificar que $U$ es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
\begin{align*}
^tUU&=\hspace{.5mm}^tS^{-1}\hspace{.5mm}^tAAS^{-1}\\
&=S^{-1}S^2S^{-1}\\
&=I_n.
\end{align*}

Veamos ahora la unicidad. Supongamos que $A=U’S’$ con $U’$ ortogonal y $S’$ simétrica positiva definida, Entonces
$$^tAA=S’\hspace{.5mm}^tU’U’S’={S’}^2.$$

De esta manera, $S’$ es precisamente la raíz cuadrada de $^tAA$, que por la discusión anterior es única. Deducimos entonces que $S’=S$ y por lo tanto $U’=A{S’}^{-1}=AS^{-1}=U$.

$\square$

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si $A=O_n$, entonces $A=UO_n$ para cualquier matriz ortogonal $U$ y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir de la forma $A=US$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que $^tAA$ es positiva, así que podríamos tomar una raíz cuadrada $S$. El problema es que como $A$ no es invertible, entonces $S$ tampoco lo es. Por ello, no podemos definir $U=AS^{-1}$ como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a $A$ para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a $A$ y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices $A_k=A+\frac{1}{k}I_n$. Recordemos que $\det(A+\lambda I_n)$ es un polinomio de grado $n$ así que tiene a lo más $n$ raíces. Por ello, existe un $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas $A_k$, obtenemos una matriz ortogonal $U_k$ y una simétrica positiva definida $S_k$ tales que

$$A_k=U_kS_k.$$

Las entradas de cada $U_k$ cumplen que están en el intervalo $[-1,1]$ (pues la suma de las entradas de cada fila es igual a $1$). Así, $U_k$ es una sucesión de matrices en el compacto de matrices con entradas $[-1,1]$. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos $U_{k_1}, U_{k_2},\ldots$ que converge a una matriz $U$.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite $j\to \infty$ a la igualdad $^tU_{k_j}U_{k_j}=I_n$ obtenemos que $^tU=I_n$, de modo que $U$ es ortogonal.

Del mismo modo, como trasponer es continuo, $S_{k_1}, S_{k_2},\ldots$ converge a una matriz simétrica $S$. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

\begin{align*}
A&=\lim_{j\to \infty} A_{k_j}\\
&=\lim_{j\to \infty} U_{k_j} S_{k_j}\\
&=US.
\end{align*}

Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite $j\to \infty$ en la desigualdad $^tXS_{k_j}X > 0$ obtenemos $^tXSX\geq 0$. Aquí es donde se podría perder que $S$ es positiva definida, pero seguimos teniendo que $S$ es positiva.

$\square$

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que $A$ y $B$ son matrices simétricas. Demuestra que $A$ y $B$ conmutan si y sólo si existe una misma matriz $P$ tal que $PAP^{-1}$ y $PBP^{-1}$ son diagonales (a esto se le conoce como que $A$ y $B$ sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si $A$ es simétrica positiva definida, y se cumple $B^2=A=C^2$ con $B$ y $C$ matrices simétricas positivas definidas, entonces $B=C$.
  3. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  4. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  5. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»