Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en $M_2(\mathbb{R})$. Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales sobre un mismo campo, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$, es decir, una tal que al fijar cualesquiera $d-1$ coordenadas, la función que queda en la entrada restante es lineal.

Con $[n]$ nos referimos al conjunto $\{1,2,\ldots,n\}$. Una permutación en $S_n$ es una función biyectiva $\sigma:[n]\to [n]$. Una permutación invierte a la pareja $i<j$ si $\sigma(i)>\sigma(j)$. Si una permutación $\sigma$ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo $\text{sign}(\sigma)=-1$. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo $\text{sign}(\sigma)=1$.

Transformaciones $n$-lineales antisimétricas y alternantes

Tomemos $d$ un entero positivo, $V$, $W$ espacios vectoriales sobre el mismo campo y $\sigma$ una permutación en $S_d$. Si $T:V^d\to W$ es una transformación $d$-lineal, entonces la función $(\sigma T):V^d\to W$ dada por $$(\sigma T)(v_1,\ldots,v_d)=T(v_{\sigma(1)},v_{\sigma(2)},\ldots,v_{\sigma(d)})$$ también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como $T$ es lineal en cualquier entrada (al fijar las demás), entonces $\sigma T$ también.

Definición. Decimos que $T$ es antisimétrica si $\sigma T = \text{sign}(\sigma) T$ para cualquier permutación $\sigma$ en $S_d$. En otras palabras, $T$ es antisimétrica si $\sigma T=T$ para las permutaciones pares y $\sigma T = -T$ para las permutaciones impares.

Definición. Decimos que $T$ es alternante si $T(v_1,\ldots,v_d)=0$ cuando hay dos $v_i$ que sean iguales.

Ejemplo. Consideremos la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc.$$ Afirmamos que ésta es una transformación $2$-lineal alternante y antisimétrica. La parte de mostrar que es $2$-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si $(a,b)=(c,d)$, entonces $T((a,b),(c,d))=0$. Para ello, basta usar la definición: $$T((a,b),(a,b))=ab-ab=0.$$

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en $S_2$, la identidad $\text{id}$ y la permutación $\sigma$ que intercambia a $1$ y $2$. La primera tiene signo $1$ y la segunda signo $-1$.

Para la identidad, tenemos $(\text{id}T)((a,b),(c,d))=\sigma((a,b),(c,d))$, así que $(\text{id}T)=T=\text{sign}(\text{id})T$, como queremos.

Para $\sigma$, tenemos que $\sigma T$ es aplicar $T$ pero «con las entradas intercambiadas». De este modo:
\begin{align*}
(\sigma T)((a,b),(c,d))&=T((c,d),(a,b))\\
&=cb-da\\
&=-(ad-bc)\\
&=-T((a,b),(c,d)).
\end{align*}

Esto muestra que $(\sigma T) = -T = \text{sign}(\sigma)T$.

$\square$

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo $F$ en el que estamos trabajando la ecuación $2x=0$ sólo tenga la solución $x=0$. Esto no pasa, por ejemplo, en $\mathbb{Z}_2$. Pero sí pasa en $\mathbb{Q}$, $\mathbb{R}$ y $\mathbb{C}$.

Proposición. Sean $V$ y $W$ espacios vectoriales sobre un campo donde $2x=0$ sólo tiene la solución $x=0$. Sea $d$ un entero positivo. Una transformación $d$-lineal $T:V^d\to W$ es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que $T$ es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para $i\neq j$ tenemos que $x_i=x_j$.

Tomemos la permutación $\sigma:[d]\to [d]$ tal que $\sigma(i)=j$, $\sigma(j)=i$ y $\sigma(k)=k$ para todo $k$ distinto de $i$ y $j$. A esta permutación se le llama la transposición $(i,j)$. Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo $-1$.

Usando la hipótesis de que $T$ es antisimétrica con la transposición $(i,j)$, tenemos que
\begin{align*}
T(x_1,&\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n)\\
&=-T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n),
\end{align*}

en donde en la segunda igualdad estamos usando que $x_i=x_j$. De este modo, $$2T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0,$$ y por la hipótesis sobre el campo, tenemos que $$T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0.$$ Así, cuando dos entradas son iguales, la imagen es $0$, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que $T$ es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces $\sigma$ la transposición $(i,j)$. Tenemos que mostrar que $\sigma T = \text{sign}(\sigma) T = -T$.

Usemos que $T$ es alternante. Pondremos en las entradas $i$ y $j$ a la suma de vectores $x_i+x_j$, de modo que $$T(x_1,\ldots,x_i+x_j,\ldots,x_i+x_j,\ldots,x_n)=0.$$ Usando la $n$-linealidad de $T$ en las entradas $i$ y $j$ para abrir el término a la izquierda, tenemos que
\begin{align*}
0=T(x_1&,\ldots,x_i,\ldots,x_i,\ldots,x_n) + \\
&T(x_1,\ldots,x_i,\ldots,x_j,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_i,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_j,\ldots,x_n).
\end{align*}

Usando de nuevo que $T$ es alternante, el primero y último sumando son cero. Así, \begin{align*}
T(x_1&,\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n).
\end{align*}

En otras palabras, al intercambiar las entradas $i$ y $j$ se cambia el signo de $T$, que precisamente quiere decir que $(\sigma T) = \text{sign}(\sigma)T$.

$\square$

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea $T:V^d\to W$ una transformación $d$-lineal y alternante. Supongamos que $v_1,\ldots,v_d$ son linealmente dependientes. Entonces $$T(v_1,v_2,\ldots,v_d)=0.$$

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es $v_d$ y que tenemos $$v_d=\alpha_1v_1+\ldots+\alpha_{d-1}v_{d-1}$$ para ciertos escalares $\alpha_1,\ldots, \alpha_{d-1}$.

Usando la $d$-linealidad de $T$, tenemos que
\begin{align*}
T\left(v_1,v_2,\ldots,v_{d-1},v_d\right)&=T\left(v_1,\ldots,v_{d-1},\sum_{i=1}^{d-1} \alpha_i v_i\right)\\
&=\sum_{i=1}^{d-1} \alpha_i T(v_1,\ldots,v_{d-1}, v_i).
\end{align*}

Usando que $T$ es alternante, cada uno de los sumandos del lado derecho es $0$, pues en el $i$-ésimo sumando tenemos que aparece dos veces el vector $v_i$ entre las entradas de $T$. Esto muestra que $$T(v_1,\ldots,v_d)=0,$$ como queríamos mostrar.

$\square$

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial $V$ de dimensión $n$ y tomamos una base $B=(b_1,\ldots,b_n)$. Definiremos el determinante con respecto a $B$ de un conjunto de vectores $(v_1,v_2,\ldots,v_n)$ , al cual denotaremos por $\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$de $V$ de la manera siguiente.

A cada vector $v_i$ lo ponemos como combinación lineal de elementos de la base: $$v_i=\sum_{j=1}^n a_{ji}b_j.$$ El determinante $$\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$$ es $$\sum_{\sigma \in S(n)} \text{sign}(\sigma) a_{1\sigma(1)} \cdot a_{2\sigma(1)}\cdot \ldots\cdot a_{n\sigma(n)}.$$

Observa que esta suma tiene tantos sumandos como elementos en $S_n$, es decir, como permutaciones de $[n]$. Hay $n!$ permutaciones, así que esta suma tiene muchos términos incluso si $n$ no es tan grande.

Veremos que para cualquier base $B$, el determinante con respecto a $B$ es una forma $d$-lineal alternante, y que de hecho las únicas formas $d$-lineales alternantes en $V$ «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación $T:V\to V$ definiremos al determinante de $T$ como el determinante $$\det_{(b_1,\ldots,b_n)}(T(b_1),\ldots,T(b_n)),$$ y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz $A$ en $M_n(F)$, definiremos su determinante como el determinante de la transformación $T_A:F^n\to F^n$ tal que $T_A(X)=AX$. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para $T:V\to V$, $S:V\to V$ y para matrices $A,B$ en $M_n(F)$ se tiene que

\begin{align*}
\det(T\circ S)&=\det(T)\cdot \det(S)\\
\det(AB)&=\det(A)\cdot \det(B).
\end{align*}

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc$$ es $2$-lineal. Para esto, tienes que fijar $(a,b)$ y ver que es lineal en la segunda entrada, y luego fijar $(c,d)$ y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo $-1$. Ojo: sólo se intercambia el par $(i,j)$, pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones $n$-lineales es una transformación $n$-lineal. Muestra que al multiplicar por un escalar una transformación $n$-lineal, también se obtiene una transformación $n$-lineal.
  • ¿Es cierto que la suma de transformaciones $n$-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

5 comentarios en “Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

  1. Miguel Ángel Ordóñez

    En la suma correspondiente a la definición del determinantes de un conjunto de vectores se tiene que los primeros dos factores de cada sumando son $a_{1\sigma(1)}$ y $a_{2\sigma(1)}$, ¿esto es correcto?. Me causó un poco de ruido que ambos compartieran la misma j.

    Responder

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.