Introducción
Para esta entrada enunciaremos y demostraremos algunas de las propiedades más importantes de los determinantes tanto para transformaciones lineales como para matrices. Estas propiedades de determinantes y en general el concepto de determinante tiene numerosas aplicaciones en otras áreas de las matemáticas como el cálculo de volúmenes $n-$dimensionales o el wronskiano en ecuaciones diferenciales, sólo por mencionar algunos, por eso es importante analizar a detalle el determinante de los distintos tipos de matrices y transformaciones lineales que conocemos.
Como recordatorio, veamos qué hemos hecho antes de esta entrada. Primero, transformaciones multilineales. De ellas, nos enfocamos en las que son alternantes y antisimétricas. Definimos el determinante para un conjunto de vectores con respecto a una base, y vimos que, en cierto sentido, son las únicas formas $n$-lineal alternantes en un espacio vectorial de dimensión $n$. Gracias a esto, pudimos mostrar que los determinantes para transformaciones lineales están bien definidos, y con ellos motivar la definición de determinante para matrices.
El determinante es homogéneo
La primera de las propiedades de determinantes que enunciaremos tiene que ver con «sacar escalares» del determinante.
Teorema. Sea $A$ una matriz en $M_n(F)$.
- Si multiplicamos un renglón o una columna de $A$ por un escalar $\lambda$, entonces su determinante se multiplica por $\lambda$.
- Se tiene que $\det(\lambda A)=\lambda^n A$.
Demostración. 1. Sea $A_j$ la matriz obtenida me multiplicar el $j$-ésimo renglón por $\lambda$. Siguiendo la definición de determinante vista en la entrada de ayer (determinantes de matrices) vemos que
\begin{align*}
\det A_j&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots \lambda a_{j\sigma(j)}\dots a_{n\sigma(n)}\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&= \lambda \det A.
\end{align*}
La demostración para la $j$-ésima columna queda como tarea moral.
2. Sea $\lamda A=[\lambda a_{ij}]$, entonces por definición tenemos
\begin{align*}
\det (\lambda A)&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)(\lambda a_{1\sigma(1)})\dots (\lambda a_{n\sigma(n)})\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda^n a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\lambda^n \cdot \det A
\end{align*}
De manera alternativa, podemos aplicar el primer inciso $n$ veces, una por cada renglón.
$\square$
Aquí arriba hicimos la prueba explícita a partir de la definición. Una forma alternativa de proceder es notar que el determinante de una matriz es precisamente el determinante $\det$ (de vectores) con respecto a la base canónica de $F^n$ evaluada en los renglones de $A$. Al multiplicar uno de los renglones por $\lambda$, el vector entrada de $\det$ se multiplica por $\lambda$. El resultado se sigue inmediatamente de que $\det$ es una forma $n$-lineal.
El determinante es multiplicativo
Quizás de entre las propiedades de determinantes, la más importante es que es multiplicativo. Mostraremos esto a continuación.
Teorema. Sea $V$ un espacio vectorial de dimensión finita y transformaciones lineales $T_1:V\to V$, $T_2:V\to V$. Se tiene que $$\det(T_1\circ T_2) = \det T_1\cdot \det T_2.$$
Demostración. Sea $(v_1,\dots , v_n)$ una base cualquiera de $V$. Del resultado visto en la entrada anterior y la definición de determinante, se sigue que
\begin{align*}
\det (T_1 \circ T_2)&= \det _{(v_1,\dots , v_n)}(T_1(T_2(v_1)),\dots , T_1(T_2(v_n)))\\
&=\det T_1 \cdot \det_{(v_1,\dots , v_n)}(T_2(v_1), \dots , T_2(v_n))\\
&= \det T_1 \cdot \det T_2.
\end{align*}
$\square$
Observa cómo la demostración es prácticamente inmediata, y no tenemos que hacer ningún cálculo explícito en términos de coordenadas. La demostración de que el determinante es multiplicativo para las matrices también es muy limpia.
Teorema. Sean $A$ y $B$ matrices en $M_n(F)$. Se tiene que $$\det(AB)=\det A \cdot \det B.$$
Demostración. Sean $V=F^n$, $T_1:V\to V$ la transformación lineal definida por $x\mapsto Ax$ y similarmente $T_2:V\to V$ la transformación lineal definida por $x\mapsto Bx$. Sabemos que $A, B, AB$ son las matrices asociadas a $T_1, T_2, T_1\circ T_2$ con respecto a la base canónica, respectivamente.
Recordemos que para una transformación lineal $T$ en $V$, $\det T = \det A_T$, para una matriz que la represente en cualquier base. Entonces
\begin{align*}
\det(AB)&=\det A_{T_1\circ T_2}\\
&= \det T_1\circ T_2\\
&=\det T_1 \cdot \det T_2\\
&=\det A_{T_1} \cdot \det A_{T_2} \\
&= \det A \cdot \det B.
\end{align*}
$\square$
Nota que hubiera sido muy complicado demostrar que el determinante es multiplicativo a partir de su definición en términos de permutaciones.
El determinante detecta matrices invertibles
Otra de las propiedades fundamentales del determinante es que nos ayuda a detectar cuándo una matriz es invertible. Esto nos permite agregar una equivalencia más a la lista de equivalencias de matrices invertibles que ya teníamos.
Teorema. Una matriz $A$ en $M_n(F)$ es invertible si y sólo si $\det A\neq 0$.
Demostración. Supongamos que $A$ es invertible, entonces existe $B\in M_n(F)$ tal que $AB=I_n=BA$.
Así,
$1=\det I_n = \det (AB) = \det A \cdot \det B$.
Como el lado izquierdo es $1$, ambos factores del lado derecho son distintos de $0$. Por lo tanto $\det A \neq 0.$ Nota que además esta parte de la prueba nos dice que $\det A^{-1}=(\det A)^{-1}$.
Ahora supongamos que $\det A \neq 0$. Sea $(e_1, \dots , e_n)$ la base canónica de $F^n$ y $C_1,\dots , C_n$ las columnas de $A$. Como $\det_{(e_1,\ldots,e_n)}$ es una forma lineal alternante, sabemos que si $C_1,\ldots,C_n$ fueran linealmente dependientes, la evaluación daría cero. Ya que la columna $C_i$ es la imagen bajo $A$ de $e_i$, entonces
$\det A =\det _{(e_1,\dots , e_n)}(C_1, \dots , C_n) \neq 0$.
Por lo tanto los vectores $C_1, \dots , C_n$ son linealmente independientes y así $\text{rank}(A)=n$. Se sigue que $A$ es una matriz invertible.
$\square$
Determinante de transformación y matriz transpuesta
Una cosa que no es totalmente evidente a partir de la definición de determinante para matrices es que el determinante no cambia si transponemos una matriz o una transformación lineal. Esta es la última de las propiedades de determinantes que probaremos ahora.
Teorema. Sea $A$ una matriz en $M_n(F)$. Se tiene que $$\det({^tA})=\det A.$$
Demostración. Por definición
$\det({^tA})=\displaystyle\sum_{\sigma \in S_n}\text{sign}(\sigma^{-1})a_{\sigma^{-1}(1)1 \dots a_{\sigma^{-1}(n)n}}.$
Luego, para cualquier permutación $\sigma$ se tiene
$$a_{\sigma(1)1}\dots a_{\sigma(n)n}=a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}$$
pues $a_{i\sigma^{-1}(i)}=a_{\sigma(j)j}$, donde $j=\sigma^{-1}(i)$.
También vale la pena notar que $$\text{sign}(\sigma^{-1})=\text{sign}(\sigma)^{-1}=\text{sign}(\sigma).$$
De lo anterior se sigue que
\begin{align*}
\det({^tA})&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma^{-1})a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}\\
&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\det A.
\end{align*}
$\square$
Teorema. Sea $V$ un espacio vectorial de dimensión finita $T:V\to V$ una transformación lineal. Se tiene que $$\det(^t T) = \det T.$$
Demostración. Sea $A$ la matriz asociada a $T$, entonces $^tA$ es la matriz asociada a $^tT$. Luego $$\det (^tT)=\det (^tA)=\det A = \det T.$$
$\square$
Veamos un ejemplo de un problema en el que podemos aplicar algunas de las propiedades anteriores.
Problema. Sea $A\in M_n(F)$ una matriz antisimétrica para algún $n$ impar. Demuestra que $\det(A)=0$.
Demostración. Como $A=-A^t$, entonces $\det A = \det (- {^tA})$, pero $\det A = \det ({^tA})$.
Se sigue que
\begin{align*}
\det ({^tA}) &= \det (-{^tA})\\
&=(-1)^n \det ({^tA})\\
&=-\det ({^tA}).
\end{align*}
Concluimos $\det (^tA)=0$
$\square$
Más adelante…
En esta entrada enunciamos y demostramos varias propiedades de los determinantes. Ahora, vamos a ponerlas en práctica resolviendo algunos problemas.
En las siguientes entradas, que constituyen la parte final del curso, vamos a hablar de diferentes técnicas para calcular el determinante de una matriz y obtendremos sus eigenvalores y eigenvectores. Vamos a ver cómo esto nos conduce a uno de los teoremas más importantes del curso de Álgebra Lineal I: el teorema espectral.
Tarea moral
A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.
- Muestra que al multiplicar una columna de una matriz por $\lambda$, entonces su determinante se multiplica por $\lambda$.
- Demuestra que si una matriz tiene dos columnas iguales, entonces su determinante es igual a cero.
- Analiza cómo es el determinante de una matriz antisimétrica $A\in M_n(F)$ con $n$ par.
- Formaliza la frase «el determinante detecta transformaciones invertibles» en un enunciado matemático. Demuéstralo.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: Determinantes de matrices y transformaciones lineales
- Siguiente entrada del curso: Problemas de definición y propiedades de determinantes
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»