Introducción
En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.
En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.
Determinantes de vectores
Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.
Definición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$ y $x_1,\ldots,x_n$ vectores de $V$. Cada uno de los $x_i$ se puede escribir como $$x_i=\sum_{j=1}^n a_{ji}b_j.$$
El determinante de $x_1,\ldots,x_n$ con respecto a $(b_1,\ldots,b_n)$ es $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ y lo denotamos por $\det_{(b_1,\ldots,b_n)} (x_1,\ldots,x_n)$.
Observa que estamos sumando tantos términos como elementos en $S_n$. Como existen $n!$ permutaciones de un conjunto de $n$ elementos, entonces la suma de la derecha tiene $n!$ sumandos.
Ejemplo. Consideremos la base $b_1=1$, $b_2=1+x$ y $b_3=1+x+x^2$ del espacio vectorial $\mathbb{R}_2[x]$ de polinomios con coeficientes reales y grado a lo más $2$. Tomemos los polinomios $v_1=1$, $v_2=2x$ y $v_3=3x^2$. Vamos a calcular el determinante de $v_1, v_2, v_3$ con respecto a la base $(b_1,b_2,b_3)$.
Para hacer eso, lo primero que tenemos que hacer es expresar a $v_1, v_2, v_3$ en términos de la base. Hacemos esto a continuación:
\begin{align*}
v_1&= 1\cdot b_1 + 0 \cdot b_2 + 0 \cdot b_3\\
v_2&= -2\cdot b_1 + 2 \cdot b_2 + 0 \cdot b_3\\
v_3&= 0 \cdot b_1 – 3 \cdot b_2 +3 b_3.
\end{align*}
De aquí, obtenemos
\begin{align*}
a_{11}&=1, a_{21}=0, a_{31}=0,\\
a_{12}&=-2, a_{22}=2, a_{32}=0,\\
a_{13}&=0, a_{23}=-3, a_{33}=3.
\end{align*}
Si queremos calcular el determinante, tenemos que considerar las $3!=3\cdot 2 \cdot 1 = 6$ permutaciones en $S_3$. Estas permutaciones son
\begin{align*}
\sigma_1 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 3\end{pmatrix}\\
\sigma_2 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 3 & 2\end{pmatrix}\\
\sigma_3 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 1 & 3\end{pmatrix}\\
\sigma_4 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 3 & 1\end{pmatrix}\\
\sigma_5 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 2 & 1\end{pmatrix}\\
\sigma_6 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 1 & 2\end{pmatrix}.
\end{align*}
Los signos de $\sigma_1,\ldots,\sigma_6$ son, como puedes verificar, $1$, $-1$, $-1$, $1$, $-1$ y $1$, respectivamente.
El sumando correspondiente a $\sigma_1$ es
\begin{align}
\text{sign}(\sigma_1) &a_{1\sigma_1(1)}a_{2\sigma_1(2)}a_{3\sigma_1(3)}\\
&= 1 \cdot a_{11}a_{22}a_{33}\\
&=1\cdot 1\cdot 2 \cdot 3 = 6.
\end{align}
El sumando correspondiente a $\sigma_2$ es
\begin{align}
\text{sign}(\sigma_2) &a_{1\sigma_2(1)}a_{2\sigma_2(2)}a_{3\sigma_2(3)}\\
&= (-1) \cdot a_{11}a_{23}a_{32}\\
&=(-1) \cdot 1\cdot (-3) \cdot 0 = 0.
\end{align}
Continuando de esta manera, se puede ver que los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son $$+6,-0,-0,+0,-0,+0,$$ respectivamente de modo que el determinante es $6$.
$\triangle$
La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.
Proposición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$. El determinante de $B$ con respecto a sí mismo es $1$.
Demostración. Cuando escribimos a $b_i$ en términos de la base $b$, tenemos que $$b_i=\sum_{j=1}^n a_{ji} b_j.$$ Como la expresión en una base es única, debemos tener $a_{ii}=1$ y $a_{ji}=0$ si $j\neq i$. Ahora, veamos qué le sucede al determinante $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$
Si $\sigma$ es una permutación tal que $\sigma(i)\neq i$ para alguna $i$, entonces en el producto del sumando correspondiente a $\sigma$ aparece $a_{i\sigma(i)}=0$, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando $\sigma$ es la permutación identidad.
Como el signo de la identidad es $1$ y cada $a_{ii}$ es $1$, tenemos que el determinante es
\begin{align*}
\sum_{\sigma \in S_n} \text{sign}&(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)} \\
&=a_{11}\cdot\ldots\cdot a_{nn}\\
&= 1\cdot\ldots\cdot 1 \\
& = 1.
\end{align*}
$\square$
El determinante es una forma $n$-lineal alternante
La razón por la cual hablamos de transformaciones $n$-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.
Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ sobre $F$. Entonces la transformación $\det_{(b_1,\ldots,b_n)}:V^n \to F$ es una forma $n$-lineal y alternante.
Demostración. La observación clave para demostrar este resultado es que $\det_{(b_1,\ldots,b_n)}$ se puede reescribir en términos de la base dual $b_1^\ast, \ldots, b_n^\ast$. En efecto, recuerda que $b_i^\ast$ es la forma lineal que «lee» la coordenada de un vector $v$ escrito en la base $B$. De esta forma,
\begin{align*}
\det_{(b_1,\ldots,b_n)}&(v_1,\ldots,v_n)\\
&=\sum_{\sigma\in S_n}\left(\text{sign}(\sigma) \prod_{j=1}^n b_j^\ast(v_{\sigma(j)})\right)\\
\end{align*}
Para cada permutación $\sigma$, el sumando correspondiente es una forma $n$-lineal, pues es producto de $n$ formas lineales evaluadas en los distintos vectores. Así que $\det_{(b_1,\ldots,b_n)}$ es suma de formas $n$-lineales y por lo tanto es forma $n$-lineal.
Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a $0$ cuando algún par de sus entradas son iguales. Supongamos que $i\neq j$ y que $v_i=v_j$. Tomemos $\tau$ a la transposición que intercambia a $i$ y a $j$. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación $\sigma$, tenemos que $\sigma\tau$ tiene signo diferente.
Además, para cualquier $\sigma$ tenemos que $$a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}$$ y $$a_{1\sigma\tau(1)}\cdot\ldots\cdot a_{n\sigma\tau(n)}$$ son iguales, pues $v_i=v_j$. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es $0$.
$\square$
Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.
Corolario. La forma $n$-lineal $\det_{(b_1,\ldots,b_n)}$ es antisimétrica.
Los determinantes de vectores son las «únicas» formas $n$-lineales alternantes
Ya vimos que el determinante es una forma $n$-lineal alternante. Veamos ahora por qué decimos que es «la única». El siguiente resultado dice que cualquier otra forma $n$-lineal alternante varía de $\det_{(b_1,\ldots,b_n)}$ únicamente por un factor multiplicativo.
Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$. Si $f:V^n \to F$ es cualquier forma $n$-lineal y alternante, entonces $$f=f(b_1,\ldots,b_n)\det_{(b_1,\ldots,b_n)}.$$
Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores $x_1,\ldots,x_n$. Escribamos a cada $x_i$ en términos de la base $B$: $$x_i=\sum_{j=1}^n a_{ij}b_j.$$
Usando la $n$-linealidad de $f$ en cada una de las entradas, tenemos que
\begin{align*}
f(x_1,\ldots,x_n)&=\sum_{i=1}^n a_{1i} f(b_i,x_2,\ldots,x_n)\\
&=\sum_{i,j=1}^n a_{1i}a_{2i} f(b_i,b_j,x_3,\ldots,x_n)\\
&=\ldots\\
&=\sum_{i_1,\ldots,i_n = 1}^n a_{1i_1}\ldots a_{ni_n} f(b_{i_1},\ldots,b_{i_n}).
\end{align*}
Aquí hay muchos términos, pero la mayoría de ellos son $0$. En efecto, si $b_{i_k}=b_{i_l}$, como $f$ es alternante tendríamos que ese sumando es $0$. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe $\sigma$ en $S_n$ tal que para $i_k=\sigma(k)$.
Por lo tanto, podemos simplificar la expresión anterior a
$$f(x_1,\ldots,x_n)=\sum_{\sigma \in S_n}a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_{\sigma(1)},\ldots,b_{\sigma(n)}).$$
Como $f$ es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como
\begin{align*}
&=\sum_{\sigma \in S_n} \text{sign}(\sigma) a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_1,\ldots,b_n)\\
&=f(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots, x_n).
\end{align*}
Esto es justo lo que queríamos probar.
$\square$
Los determinantes de vectores caracterizan bases
Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.
Corolario. En un espacio vectorial $V$ de dimensión $n$ son equivalentes las siguientes tres afirmaciones para vectores $x_1,\ldots,x_n$ de $V$:
- El determinante de $x_1,\ldots,x_n$ con respecto a toda base es distinto de $0$.
- El determinante de $x_1,\ldots,x_n$ con respecto a alguna base es distinto de $0$.
- $x_1,\ldots,x_n$ es una base de $V$.
Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.
Ahora, probemos que la afirmación (2) implica la afirmación (3). Como $x_1,\ldots,x_n$ son $n$ vectores y $n$ es la dimensión de $V$, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a $0$. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en $x_1,\ldots, x_n$, entonces deben ser linealmente independientes y por lo tanto formar una base.
Finalmente, probemos que (3) implica (1). Tomemos $B=(b_1,\ldots,b_n)$ otra base de $V$. Como $\det_{(x_1,\ldots,x_n)}$ es una forma $n$-lineal, podemos aplicar el teorema anterior y evaluar en $x_1,\ldots,x_n$ para concluir que
\begin{align*}
\det_{(x_1,\ldots,x_n)}&(x_1,\ldots,x_n)&\\
&=\det_{(x_1,\ldots,x_n)}(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots,x_n).
\end{align*}
El término de la izquierda es igual a $1$, de modo que ambos factores a la derecha deben ser distintos de $0$.
$\square$
Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de $1$, $2x$ y $3x^2$ con respecto a la base $1$, $1+x$ y $1+x+x^2$ es igual a $6$. De acuerdo al teorema anterior, esto implica que $1$, $2x$ y $3x^2$ es un conjunto linealmente independiente de polinomios, y de hecho una base.
Además, el teorema anterior también implica que sin importar que otra base $B$ de $\mathbb{R}_2[x]$ tomemos, el determinante de $1$, $2x$ y $3x^2$ con respecto a $B$ también será distinto de $0$.
$\triangle$
Más adelante…
A lo largo de esta entrada estudiamos la definición de determinantes para un conjunto de vectores y enunciamos sus principales propiedades. En las siguientes entradas vamos a hablar cómo se define el determinante para matrices y para transformaciones lineales. Después de las definiciones, pasaremos a estudiar cómo se calculan los determinantes y veremos cómo se aplican a diferentes problemas de álgebra lineal.
Tarea moral
A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.
- ¿Cuántos sumandos tendrá el determinante de $5$ vectores en un espacio vectorial de dimensión $5$ con respecto a cualquier base? Da el número de manera explícita.
- Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son los que se enuncian.
- Encuentra el determinante de los vectores $(3,1)$ y $(2,4)$ con respecto a la base $((5,1), (2,3))$ de $\mathbb{R}^2$.
- Muestra que los vectores $(1,4,5,2)$, $(0,3,2,1)$, $(0,0,-1,4)$ y $(0,0,0,1)$ son linealmente independientes calculando por definición su determinante con respecto a la base canónica de $\mathbb{R}^4$.
- Usa un argumento de determinantes para mostrar que los vectores $(1,4,3)$, $(2,-2,9)$, $(7,8,27)$ de $\mathbb{R}^3$ no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: Transformaciones multilineales antisimétricas y alternantes
- Siguiente entrada del curso: Determinantes de vectores e independencia lineal
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»