Archivo de la etiqueta: transformaciones multilineales

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Por Blanca Radillo

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo $F$ es $\mathbb{Z}_2$, y el siguiente ejemplo lo expone:

Ejemplo. Sea $f:\mathbb{Z}_2 \times \mathbb{Z}_2 \rightarrow \mathbb{Z}_2$ definido como $f(x,y)=xy$. Claramente $f$ es bilineal, pero no es alternate ya que $f(1,1)=1\neq 0$. Por otro lado, $f$ es antisimétrica, porque $f(x,y)+f(y,x)=xy+yx=2xy=0$.

$\triangle$

De manera natural surge la pregunta: ¿cómo podemos construir una transformación $d$-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo $d$-lineal $f$.

Problema. Sea $f:V^d \rightarrow W$ una transformación $d$-lineal. Demuestra que

$A(f):=\sum_{\sigma \in S_d} \text{sign}(\sigma) \sigma (f)$

es un mapeo $d$-lineal antisimétrico.

Solución. Es fácil ver que $A(f)$ es una transformación $d$-lineal, dado que $A(f)$ es una combinación lineal de mapeos $d$-lineales. Queremos probar que, para $\tau \in S_d$, $\tau (A(f))=\text{sign}(\tau) A(f)$. Notemos que

\begin{align*}
\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\sigma) \tau(\sigma(f)) \\
&= \sum_{\sigma \in S_d} \text{sign}(\sigma) (\tau\sigma)(f).
\end{align*}

Usando el hecho que $\text{sign}(\tau)\text{sign}(\sigma)=\text{sign}(\tau\sigma)$ y que $\{ \tau \sigma : \sigma \in S_d \}=S_d$, obtenemos que

\begin{align*}
\text{sign}(\tau)\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\tau\sigma) (\tau\sigma)(f) \\
&= \sum_{\eta \in S_d} \text{sign}(\eta) (\eta)(f) =A(f).
\end{align*}

Por lo tanto, $\tau(A(f))=\text{sign}(\tau)A(f)$.

$\square$

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma $n$-lineal alternante, y además que cualquier otra forma $n$-lineal alternante varía de $\det(b_1,\ldots,b_n)$ únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema 1. Sea $V$ un espacio vectorial sobre $F$ de dimensión finita. Sea $e_1,\ldots,e_n$ una base de $V$ y sea $T:V\rightarrow V$ una transformación lineal. Demuestra que para todo $v_1,\ldots,v_n\in V$ tenemos que

$\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots, v_n) =\text{Tr}(T)\cdot \det(v_1,\ldots,v_n),$

donde todos los determinantes están calculados en la base canónica y $\text{Tr}(T)$ es la traza de la matriz de $T$ (con respecto a la base canónica).

Solución. Definimos el mapeo $\phi:V^n\rightarrow F$ como

$\phi(v_1,\ldots,v_n)=\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n).$

Esta transformación es la suma de transformaciones $n$-lineales, por lo tanto $\phi$ es $n$-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que $v_1=v_2$, entonces

\begin{align*}
\phi(v_1,v_1,v_3,\ldots,v_n) &=\det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&+ \sum_{i=3}^n \det(v_1,v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)- \det(T(v_1),v_1,v_3,\ldots,v_n) \\
&=0,
\end{align*}

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar $\alpha$ tal que

$\phi(v_1,\ldots,v_n)=\alpha \det(v_1,\ldots,v_n)$

para todo $v_1,\ldots,v_n$. Sea $A=[a_{ij}]$ la matriz de $T$ con respecto a la base canónica. Si tomamos $v_1=e_1,\ldots,v_n=e_n$, por el mismo teorema tenemos que

\begin{align*}
\alpha &= \phi(e_1,\ldots,e_n) \\
&=\sum_{i=1}^n \det(e_1,\ldots,e_{i-1},\sum_{j=1}^n a_{ji}e_j, e_{i+1},\ldots,e_n)\\
&=\sum_{i=1}^n \sum_{j=1}^n a_{ji}\det(e_1,\ldots,e_{i-1},e_j,e_{i+1},\ldots,e_n) \\
&= \sum_{i=1}^n a_{ii} = \text{Tr}(T).
\end{align*}

Por lo tanto, obtenemos lo que queremos.

$\square$

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema 2. Sea $n$ un número impar y sean $A,B\in M_n(\mathbb{R})$ matrices tal que $A^2+B^2=0_n$. Prueba que la matriz $AB-BA$ no es invertible.

Solución. Notemos que

$(A+iB)(A-iB)=A^2+B^2+i(BA-AB)=i(BA-AB).$

Por la propiedad del determinante de un producto, tenemos que

$\det(A+iB)\det(A-iB)=i^n \det(BA-AB).$

Suponemos que $AB-BA$ es invertible, entonces $\det(BA-AB)\neq 0$. Además sabemos que

$\det(A-iB)=\det(\overline{A+iB})=\overline{\det(A+iB)},$

esto implica que $|\det(A+iB)|^2=i^n\det(BA-AB).$ Como consecuencia, $i^n$ es un número real, contradiciendo al hecho que $n$ es impar. Por lo tanto $\det(BA-AB)=0$.

$\square$

Problema 3. Para $1\leq i,j\leq n$, definimos $a_{ij}$ como el número de divisores positivos en común de $i$ y $j$ y definimos $b_{ij}$ igual a 1 si $j$ divide $i$ e igual a 0 si no.

  1. Probar que $A=B\cdot ^t B$, donde $A=[a_{ij}]$ y $B=[b_{ij}]$.
  2. ¿Qué podemos decir de la forma de $B$?
  3. Calcula $\det(A)$.

Solución. 1) Fijando $i,j$ tenemos que

$\det(B\cdot ^t B)_{ij}=\sum{k=1}^n b_{ik}b_{jk}.$

Notemos que $b_{ik}b_{jk}$ no es cero ($b_{ij},b_{jk}=1$) si y sólo si $k$ divide a $i$ y a $j$, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan $i$ y $j$. Por lo tanto $\det(B\cdot ^tB)_{ij}=a_{ij}$.

2) Si $i<j$, no es posible que $j$ divida a $i$. Entonces $b_{ij}=0$ para todo $i<j$, esto significa que $B$ es, al menos, triangular inferior. Un dato más que podemos asegurar es que $b_{ii}=1$ para toda $i$, por lo tanto, al menos, todos los términos de la diagonal de $B$ son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que $\det(B)=\det(^tB)$ y usando el inciso (1), tenemos que $\det(A)=\det(B\cdot ^tB)=(\det B)^2.$ Pero por el inciso (2), $\det B=1$, concluimos que $\det A=1$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes de vectores e independencia lineal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.

En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.

Determinantes de vectores

Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.

Definición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$ y $x_1,\ldots,x_n$ vectores de $V$. Cada uno de los $x_i$ se puede escribir como $$x_i=\sum_{j=1}^n a_{ji}b_j.$$

El determinante de $x_1,\ldots,x_n$ con respecto a $(b_1,\ldots,b_n)$ es $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ y lo denotamos por $\det_{(b_1,\ldots,b_n)} (x_1,\ldots,x_n)$.

Observa que estamos sumando tantos términos como elementos en $S_n$. Como existen $n!$ permutaciones de un conjunto de $n$ elementos, entonces la suma de la derecha tiene $n!$ sumandos.

Ejemplo. Consideremos la base $b_1=1$, $b_2=1+x$ y $b_3=1+x+x^2$ del espacio vectorial $\mathbb{R}_2[x]$ de polinomios con coeficientes reales y grado a lo más $2$. Tomemos los polinomios $v_1=1$, $v_2=2x$ y $v_3=3x^2$. Vamos a calcular el determinante de $v_1, v_2, v_3$ con respecto a la base $(b_1,b_2,b_3)$.

Para hacer eso, lo primero que tenemos que hacer es expresar a $v_1, v_2, v_3$ en términos de la base. Hacemos esto a continuación:
\begin{align*}
v_1&= 1\cdot b_1 + 0 \cdot b_2 + 0 \cdot b_3\\
v_2&= -2\cdot b_1 + 2 \cdot b_2 + 0 \cdot b_3\\
v_3&= 0 \cdot b_1 – 3 \cdot b_2 +3 b_3.
\end{align*}

De aquí, obtenemos
\begin{align*}
a_{11}&=1, a_{21}=0, a_{31}=0,\\
a_{12}&=-2, a_{22}=2, a_{32}=0,\\
a_{13}&=0, a_{23}=-3, a_{33}=3.
\end{align*}

Si queremos calcular el determinante, tenemos que considerar las $3!=3\cdot 2 \cdot 1 = 6$ permutaciones en $S_3$. Estas permutaciones son

\begin{align*}
\sigma_1 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 3\end{pmatrix}\\
\sigma_2 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 3 & 2\end{pmatrix}\\
\sigma_3 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 1 & 3\end{pmatrix}\\
\sigma_4 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 3 & 1\end{pmatrix}\\
\sigma_5 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 2 & 1\end{pmatrix}\\
\sigma_6 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 1 & 2\end{pmatrix}.
\end{align*}

Los signos de $\sigma_1,\ldots,\sigma_6$ son, como puedes verificar, $1$, $-1$, $-1$, $1$, $-1$ y $1$, respectivamente.

El sumando correspondiente a $\sigma_1$ es
\begin{align}
\text{sign}(\sigma_1) &a_{1\sigma_1(1)}a_{2\sigma_1(2)}a_{3\sigma_1(3)}\\
&= 1 \cdot a_{11}a_{22}a_{33}\\
&=1\cdot 1\cdot 2 \cdot 3 = 6.
\end{align}

El sumando correspondiente a $\sigma_2$ es
\begin{align}
\text{sign}(\sigma_2) &a_{1\sigma_2(1)}a_{2\sigma_2(2)}a_{3\sigma_2(3)}\\
&= (-1) \cdot a_{11}a_{23}a_{32}\\
&=(-1) \cdot 1\cdot (-3) \cdot 0 = 0.
\end{align}

Continuando de esta manera, se puede ver que los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son $$+6,-0,-0,+0,-0,+0,$$ respectivamente de modo que el determinante es $6$.

$\triangle$

La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.

Proposición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$. El determinante de $B$ con respecto a sí mismo es $1$.

Demostración. Cuando escribimos a $b_i$ en términos de la base $b$, tenemos que $$b_i=\sum_{j=1}^n a_{ji} b_j.$$ Como la expresión en una base es única, debemos tener $a_{ii}=1$ y $a_{ji}=0$ si $j\neq i$. Ahora, veamos qué le sucede al determinante $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si $\sigma$ es una permutación tal que $\sigma(i)\neq i$ para alguna $i$, entonces en el producto del sumando correspondiente a $\sigma$ aparece $a_{i\sigma(i)}=0$, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando $\sigma$ es la permutación identidad.

Como el signo de la identidad es $1$ y cada $a_{ii}$ es $1$, tenemos que el determinante es
\begin{align*}
\sum_{\sigma \in S_n} \text{sign}&(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)} \\
&=a_{11}\cdot\ldots\cdot a_{nn}\\
&= 1\cdot\ldots\cdot 1 \\
& = 1.
\end{align*}

$\square$

El determinante es una forma $n$-lineal alternante

La razón por la cual hablamos de transformaciones $n$-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ sobre $F$. Entonces la transformación $\det_{(b_1,\ldots,b_n)}:V^n \to F$ es una forma $n$-lineal y alternante.

Demostración. La observación clave para demostrar este resultado es que $\det_{(b_1,\ldots,b_n)}$ se puede reescribir en términos de la base dual $b_1^\ast, \ldots, b_n^\ast$. En efecto, recuerda que $b_i^\ast$ es la forma lineal que «lee» la coordenada de un vector $v$ escrito en la base $B$. De esta forma,

\begin{align*}
\det_{(b_1,\ldots,b_n)}&(v_1,\ldots,v_n)\\
&=\sum_{\sigma\in S_n}\left(\text{sign}(\sigma) \prod_{j=1}^n b_j^\ast(v_{\sigma(j)})\right)\\
\end{align*}

Para cada permutación $\sigma$, el sumando correspondiente es una forma $n$-lineal, pues es producto de $n$ formas lineales evaluadas en los distintos vectores. Así que $\det_{(b_1,\ldots,b_n)}$ es suma de formas $n$-lineales y por lo tanto es forma $n$-lineal.

Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a $0$ cuando algún par de sus entradas son iguales. Supongamos que $i\neq j$ y que $v_i=v_j$. Tomemos $\tau$ a la transposición que intercambia a $i$ y a $j$. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación $\sigma$, tenemos que $\sigma\tau$ tiene signo diferente.

Además, para cualquier $\sigma$ tenemos que $$a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}$$ y $$a_{1\sigma\tau(1)}\cdot\ldots\cdot a_{n\sigma\tau(n)}$$ son iguales, pues $v_i=v_j$. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es $0$.

$\square$

Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.

Corolario. La forma $n$-lineal $\det_{(b_1,\ldots,b_n)}$ es antisimétrica.

Los determinantes de vectores son las «únicas» formas $n$-lineales alternantes

Ya vimos que el determinante es una forma $n$-lineal alternante. Veamos ahora por qué decimos que es «la única». El siguiente resultado dice que cualquier otra forma $n$-lineal alternante varía de $\det_{(b_1,\ldots,b_n)}$ únicamente por un factor multiplicativo.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$. Si $f:V^n \to F$ es cualquier forma $n$-lineal y alternante, entonces $$f=f(b_1,\ldots,b_n)\det_{(b_1,\ldots,b_n)}.$$

Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores $x_1,\ldots,x_n$. Escribamos a cada $x_i$ en términos de la base $B$: $$x_i=\sum_{j=1}^n a_{ij}b_j.$$

Usando la $n$-linealidad de $f$ en cada una de las entradas, tenemos que
\begin{align*}
f(x_1,\ldots,x_n)&=\sum_{i=1}^n a_{1i} f(b_i,x_2,\ldots,x_n)\\
&=\sum_{i,j=1}^n a_{1i}a_{2i} f(b_i,b_j,x_3,\ldots,x_n)\\
&=\ldots\\
&=\sum_{i_1,\ldots,i_n = 1}^n a_{1i_1}\ldots a_{ni_n} f(b_{i_1},\ldots,b_{i_n}).
\end{align*}

Aquí hay muchos términos, pero la mayoría de ellos son $0$. En efecto, si $b_{i_k}=b_{i_l}$, como $f$ es alternante tendríamos que ese sumando es $0$. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe $\sigma$ en $S_n$ tal que para $i_k=\sigma(k)$.

Por lo tanto, podemos simplificar la expresión anterior a
$$f(x_1,\ldots,x_n)=\sum_{\sigma \in S_n}a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_{\sigma(1)},\ldots,b_{\sigma(n)}).$$

Como $f$ es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como
\begin{align*}
&=\sum_{\sigma \in S_n} \text{sign}(\sigma) a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_1,\ldots,b_n)\\
&=f(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots, x_n).
\end{align*}

Esto es justo lo que queríamos probar.

$\square$

Los determinantes de vectores caracterizan bases

Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.

Corolario. En un espacio vectorial $V$ de dimensión $n$ son equivalentes las siguientes tres afirmaciones para vectores $x_1,\ldots,x_n$ de $V$:

  1. El determinante de $x_1,\ldots,x_n$ con respecto a toda base es distinto de $0$.
  2. El determinante de $x_1,\ldots,x_n$ con respecto a alguna base es distinto de $0$.
  3. $x_1,\ldots,x_n$ es una base de $V$.

Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.

Ahora, probemos que la afirmación (2) implica la afirmación (3). Como $x_1,\ldots,x_n$ son $n$ vectores y $n$ es la dimensión de $V$, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a $0$. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en $x_1,\ldots, x_n$, entonces deben ser linealmente independientes y por lo tanto formar una base.

Finalmente, probemos que (3) implica (1). Tomemos $B=(b_1,\ldots,b_n)$ otra base de $V$. Como $\det_{(x_1,\ldots,x_n)}$ es una forma $n$-lineal, podemos aplicar el teorema anterior y evaluar en $x_1,\ldots,x_n$ para concluir que
\begin{align*}
\det_{(x_1,\ldots,x_n)}&(x_1,\ldots,x_n)&\\
&=\det_{(x_1,\ldots,x_n)}(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots,x_n).
\end{align*}

El término de la izquierda es igual a $1$, de modo que ambos factores a la derecha deben ser distintos de $0$.

$\square$

Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de $1$, $2x$ y $3x^2$ con respecto a la base $1$, $1+x$ y $1+x+x^2$ es igual a $6$. De acuerdo al teorema anterior, esto implica que $1$, $2x$ y $3x^2$ es un conjunto linealmente independiente de polinomios, y de hecho una base.

Además, el teorema anterior también implica que sin importar que otra base $B$ de $\mathbb{R}_2[x]$ tomemos, el determinante de $1$, $2x$ y $3x^2$ con respecto a $B$ también será distinto de $0$.

$\triangle$

Más adelante…

A lo largo de esta entrada estudiamos la definición de determinantes para un conjunto de vectores y enunciamos sus principales propiedades. En las siguientes entradas vamos a hablar cómo se define el determinante para matrices y para transformaciones lineales. Después de las definiciones, pasaremos a estudiar cómo se calculan los determinantes y veremos cómo se aplican a diferentes problemas de álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuántos sumandos tendrá el determinante de $5$ vectores en un espacio vectorial de dimensión $5$ con respecto a cualquier base? Da el número de manera explícita.
  • Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son los que se enuncian.
  • Encuentra el determinante de los vectores $(3,1)$ y $(2,4)$ con respecto a la base $((5,1), (2,3))$ de $\mathbb{R}^2$.
  • Muestra que los vectores $(1,4,5,2)$, $(0,3,2,1)$, $(0,0,-1,4)$ y $(0,0,0,1)$ son linealmente independientes calculando por definición su determinante con respecto a la base canónica de $\mathbb{R}^4$.
  • Usa un argumento de determinantes para mostrar que los vectores $(1,4,3)$, $(2,-2,9)$, $(7,8,27)$ de $\mathbb{R}^3$ no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en $M_2(\mathbb{R})$. Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales sobre un mismo campo, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$, es decir, una tal que al fijar cualesquiera $d-1$ coordenadas, la función que queda en la entrada restante es lineal.

Con $[n]$ nos referimos al conjunto $\{1,2,\ldots,n\}$. Una permutación en $S_n$ es una función biyectiva $\sigma:[n]\to [n]$. Una permutación invierte a la pareja $i<j$ si $\sigma(i)>\sigma(j)$. Si una permutación $\sigma$ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo $\text{sign}(\sigma)=-1$. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo $\text{sign}(\sigma)=1$.

Transformaciones $n$-lineales antisimétricas y alternantes

Tomemos $d$ un entero positivo, $V$, $W$ espacios vectoriales sobre el mismo campo y $\sigma$ una permutación en $S_d$. Si $T:V^d\to W$ es una transformación $d$-lineal, entonces la función $(\sigma T):V^d\to W$ dada por $$(\sigma T)(v_1,\ldots,v_d)=T(v_{\sigma(1)},v_{\sigma(2)},\ldots,v_{\sigma(d)})$$ también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como $T$ es lineal en cualquier entrada (al fijar las demás), entonces $\sigma T$ también.

Definición. Decimos que $T$ es antisimétrica si $\sigma T = \text{sign}(\sigma) T$ para cualquier permutación $\sigma$ en $S_d$. En otras palabras, $T$ es antisimétrica si $\sigma T=T$ para las permutaciones pares y $\sigma T = -T$ para las permutaciones impares.

Definición. Decimos que $T$ es alternante si $T(v_1,\ldots,v_d)=0$ cuando hay dos $v_i$ que sean iguales.

Ejemplo. Consideremos la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc.$$ Afirmamos que ésta es una transformación $2$-lineal alternante y antisimétrica. La parte de mostrar que es $2$-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si $(a,b)=(c,d)$, entonces $T((a,b),(c,d))=0$. Para ello, basta usar la definición: $$T((a,b),(a,b))=ab-ab=0.$$

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en $S_2$, la identidad $\text{id}$ y la permutación $\sigma$ que intercambia a $1$ y $2$. La primera tiene signo $1$ y la segunda signo $-1$.

Para la identidad, tenemos $(\text{id}T)((a,b),(c,d))=\sigma((a,b),(c,d))$, así que $(\text{id}T)=T=\text{sign}(\text{id})T$, como queremos.

Para $\sigma$, tenemos que $\sigma T$ es aplicar $T$ pero «con las entradas intercambiadas». De este modo:
\begin{align*}
(\sigma T)((a,b),(c,d))&=T((c,d),(a,b))\\
&=cb-da\\
&=-(ad-bc)\\
&=-T((a,b),(c,d)).
\end{align*}

Esto muestra que $(\sigma T) = -T = \text{sign}(\sigma)T$.

$\square$

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo $F$ en el que estamos trabajando la ecuación $2x=0$ sólo tenga la solución $x=0$. Esto no pasa, por ejemplo, en $\mathbb{Z}_2$. Pero sí pasa en $\mathbb{Q}$, $\mathbb{R}$ y $\mathbb{C}$.

Proposición. Sean $V$ y $W$ espacios vectoriales sobre un campo donde $2x=0$ sólo tiene la solución $x=0$. Sea $d$ un entero positivo. Una transformación $d$-lineal $T:V^d\to W$ es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que $T$ es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para $i\neq j$ tenemos que $x_i=x_j$.

Tomemos la permutación $\sigma:[d]\to [d]$ tal que $\sigma(i)=j$, $\sigma(j)=i$ y $\sigma(k)=k$ para todo $k$ distinto de $i$ y $j$. A esta permutación se le llama la transposición $(i,j)$. Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo $-1$.

Usando la hipótesis de que $T$ es antisimétrica con la transposición $(i,j)$, tenemos que
\begin{align*}
T(x_1,&\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n)\\
&=-T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n),
\end{align*}

en donde en la segunda igualdad estamos usando que $x_i=x_j$. De este modo, $$2T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0,$$ y por la hipótesis sobre el campo, tenemos que $$T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0.$$ Así, cuando dos entradas son iguales, la imagen es $0$, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que $T$ es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces $\sigma$ la transposición $(i,j)$. Tenemos que mostrar que $\sigma T = \text{sign}(\sigma) T = -T$.

Usemos que $T$ es alternante. Pondremos en las entradas $i$ y $j$ a la suma de vectores $x_i+x_j$, de modo que $$T(x_1,\ldots,x_i+x_j,\ldots,x_i+x_j,\ldots,x_n)=0.$$ Usando la $n$-linealidad de $T$ en las entradas $i$ y $j$ para abrir el término a la izquierda, tenemos que
\begin{align*}
0=T(x_1&,\ldots,x_i,\ldots,x_i,\ldots,x_n) + \\
&T(x_1,\ldots,x_i,\ldots,x_j,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_i,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_j,\ldots,x_n).
\end{align*}

Usando de nuevo que $T$ es alternante, el primero y último sumando son cero. Así, \begin{align*}
T(x_1&,\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n).
\end{align*}

En otras palabras, al intercambiar las entradas $i$ y $j$ se cambia el signo de $T$, que precisamente quiere decir que $(\sigma T) = \text{sign}(\sigma)T$.

$\square$

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea $T:V^d\to W$ una transformación $d$-lineal y alternante. Supongamos que $v_1,\ldots,v_d$ son linealmente dependientes. Entonces $$T(v_1,v_2,\ldots,v_d)=0.$$

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es $v_d$ y que tenemos $$v_d=\alpha_1v_1+\ldots+\alpha_{d-1}v_{d-1}$$ para ciertos escalares $\alpha_1,\ldots, \alpha_{d-1}$.

Usando la $d$-linealidad de $T$, tenemos que
\begin{align*}
T\left(v_1,v_2,\ldots,v_{d-1},v_d\right)&=T\left(v_1,\ldots,v_{d-1},\sum_{i=1}^{d-1} \alpha_i v_i\right)\\
&=\sum_{i=1}^{d-1} \alpha_i T(v_1,\ldots,v_{d-1}, v_i).
\end{align*}

Usando que $T$ es alternante, cada uno de los sumandos del lado derecho es $0$, pues en el $i$-ésimo sumando tenemos que aparece dos veces el vector $v_i$ entre las entradas de $T$. Esto muestra que $$T(v_1,\ldots,v_d)=0,$$ como queríamos mostrar.

$\square$

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial $V$ de dimensión $n$ y tomamos una base $B=(b_1,\ldots,b_n)$. Definiremos el determinante con respecto a $B$ de un conjunto de vectores $(v_1,v_2,\ldots,v_n)$ , al cual denotaremos por $\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$de $V$ de la manera siguiente.

A cada vector $v_i$ lo ponemos como combinación lineal de elementos de la base: $$v_i=\sum_{j=1}^n a_{ji}b_j.$$ El determinante $$\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$$ es $$\sum_{\sigma \in S(n)} \text{sign}(\sigma) a_{1\sigma(1)} \cdot a_{2\sigma(1)}\cdot \ldots\cdot a_{n\sigma(n)}.$$

Observa que esta suma tiene tantos sumandos como elementos en $S_n$, es decir, como permutaciones de $[n]$. Hay $n!$ permutaciones, así que esta suma tiene muchos términos incluso si $n$ no es tan grande.

Veremos que para cualquier base $B$, el determinante con respecto a $B$ es una forma $d$-lineal alternante, y que de hecho las únicas formas $d$-lineales alternantes en $V$ «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación $T:V\to V$ definiremos al determinante de $T$ como el determinante $$\det_{(b_1,\ldots,b_n)}(T(b_1),\ldots,T(b_n)),$$ y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz $A$ en $M_n(F)$, definiremos su determinante como el determinante de la transformación $T_A:F^n\to F^n$ tal que $T_A(X)=AX$. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para $T:V\to V$, $S:V\to V$ y para matrices $A,B$ en $M_n(F)$ se tiene que

\begin{align*}
\det(T\circ S)&=\det(T)\cdot \det(S)\\
\det(AB)&=\det(A)\cdot \det(B).
\end{align*}

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc$$ es $2$-lineal. Para esto, tienes que fijar $(a,b)$ y ver que es lineal en la segunda entrada, y luego fijar $(c,d)$ y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo $-1$. Ojo: sólo se intercambia el par $(i,j)$, pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones $n$-lineales es una transformación $n$-lineal. Muestra que al multiplicar por un escalar una transformación $n$-lineal, también se obtiene una transformación $n$-lineal.
  • ¿Es cierto que la suma de transformaciones $n$-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con esta entrada empieza el cuarto y último bloque del curso de Lineal I. En este último bloque hablaremos de determinantes de matrices, de eigenvectores, eigenvalores y de polinomios característicos. Además, probaremos el teorema espectral para matrices simétricas reales. Nuestro cimiento teórico para definir a los determinantes y probar sus propiedades fácilmente serán las transformaciones multilineales, que generalizan a las formas bilineales de las que ya hemos hablado.

Antes de empezar, vale la pena recapitular lo que hemos aprendido en los bloques anteriores:

  • Bloque 1: Primero, hablamos de vectores y matrices con entradas reales, y sus operaciones básicas. Luego, vimos que nos ayudan a plantear y resolver sistemas de ecuaciones lineales. Aquí hablamos de varias equivalencias de matrices invertibles. Al final de este bloque, definimos espacios vectoriales en general. En ellos hablamos de conjuntos generadores, independientes y bases. Mediante el lema de Steinitz definimos y probamos propiedades de espacios de dimensión finita.
  • Bloque 2: Vimos la teoría básica de transformaciones lineales. Hablamos de imágenes y kernels de transformaciones. Vimos cómo se comportan con independientes y bases. Luego hablamos de cómo representar transformaciones lineales entre espacios de dimensión finita usando matrices, y en particular cómo hacer cambios de base.
  • Bloque 3: Este bloque fue más «geométrico». Primero, vimos formas lineales y la teoría de dualidad y la aplicamos para ver que todo subespacio es intersección de hiperplanos. Luego, definimos formas bilineales y cuadráticas. De ahí salió la noción de producto interior, que nos permite «hacer geometría» en espacios vectoriales. Hablamos de desigualdades vectoriales, de bases ortogonales, para qué sirven y cómo encontrarlas.

La intuición que obtuvimos de formas bilineales nos ayudará a entender formas multilineales. Pero antes de entrar en este tema, que es un poco técnico, veamos un ejemplo que nos ayudará a entender lo que nos espera en este bloque.

Elevando una matriz a la 100

Considera la matriz $$A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}.$$ Imagina que para alguna aplicación queremos elevarla a la $100$. Esto probablemente lo puedas hacer a mano, y mejor aún, a computadora. Pero en aplicaciones en la vida real, puede que hacer los cálculos matriciales sea mucho incluso para una computadora. ¿Habrá una forma de que sea más fácil hacer $A^{100}$?

Resulta que para este caso en particular, sí. Considera las matrices $$B=\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}$$ y $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$ La matriz $B$ es invertible, con inversa $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ como puedes verificar. Además, la matriz $A$ se puede «factorizar» así: $$A=B^{-1}DB.$$

Esto es muy útil para nuestros fines. Nota que
\begin{align*}
A^2&=(B^{-1}DB)(B^{-1}DB)\\
&=B^{-1}D^2B,
\end{align*}

y que de hecho inductivamente $A^n=B^{-1}D^n B$ para cualquier entero positivo $n$.

Por otro lado, como la matriz $D$ es diagonal, sus potencias son muy sencillas, de hecho, se puede probar inductivamente que $D^n=\begin{pmatrix}1&0\\0&2^{n}\end{pmatrix}$ para cualquier entero positivo $n$. De esta forma, podemos hacer $A^n$ con tan solo dos multiplicaciones de matrices:
\begin{align*}
A^n&=B^{-1}D^nB\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}1&0\\ 0&2^{n}\end{pmatrix}\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}3&5 \\ 2^n&2^{n+1}\end{pmatrix}\\
&=\begin{pmatrix}6-5\cdot 2^n& 10-5\cdot 2^{n+1}\\ -3+3\cdot 2^n & -5+3\cdot 2^{n+1}\end{pmatrix}
\end{align*}

Así, el problema que queremos resolver es sencillo ahora. Basta tomar $n=100$ para obtener $$A^{100}=\begin{pmatrix}6-5\cdot 2^{100} & 10-5\cdot 2^{101}\\ -3+3\cdot 2^{100} & -5+3\cdot 2^{101}\end{pmatrix}.$$

Si podemos escribir una matriz $A$ como $B^{-1}DB$ con $B$ invertible y $D$ diagonal, decimos que es diagonalizable. La conclusión anterior es que una matriz diagonalizable se puede elevar fácilmente a potencias.

Todo esto está muy bien pero, ¿de dónde salen las matrices $B$ y $D$? ¿toda matriz es diagonalizable? ¿qué otras ventajas tiene diagonalizar una matriz? Este tipo de preguntas son las que estudiaremos en este bloque.

Diagonalizar matrices de 2×2

El determinante de una matriz $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ en $M_2(\mathbb{R})$, como quizás hayas visto antes, está dado por $ad-bc$. Resulta que una forma sistemática para encontrar matrices $B$ y $D$ como las del ejemplo de arriba es la siguiente:

  • Tomar una matriz $A$.
  • Considerar el polinomio $P(\lambda)=\det(\lambda I – A)$. A este polinomio se le conoce como el polinomio característico de $A$.
  • Encontrar las raíces $\lambda_1$ y $\lambda_2$ de $P(\lambda)$. A estos valores se les llama los eigenvalores de $A$.
  • Encontrar vectores $v_1$ y $v_2$ no cero tales que $(A-\lambda_1I) v_1 =0$ y $(A-\lambda_2 I)v_2 = 0$. Estos simplemente son sistemas lineales homogéneos, que ya sabemos resolver con reducción gaussiana. A estos vectores se les llama eigenvectores de $A$.
  • Usar a $\lambda_1$ y $\lambda_2$ como las entradas de la matriz diagonal $D$.
  • Usar a $v_1$ y $v_2$ como columnas de la matriz $B^{-1}$. Encontrar la inversa de $B^{-1}$ para encontrar a $B$.

¿Cómo se hace en dimensiones más altas? ¿Siempre podemos seguir este proceso esto? ¿Hay algunos tipos de matrices para los que siempre funcione? Estas son otras preguntas que responderemos en el transcurso de estas semanas.

Mientras tanto, veamos qué sucede si aplicamos este método para la matriz $A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}$ del ejemplo. Tenemos que el determinante de $\lambda I-A = \begin{pmatrix}\lambda+4&10\\-3&\lambda – 7\end{pmatrix}$ es el polinomio \begin{align*}P(\lambda)&= (\lambda+4)(\lambda-7)+30\\ &=\lambda^2-3\lambda-28+30\\ &=\lambda^2-3\lambda+2,\end{align*} cuyas raíces son $1$ y $2$. De aquí construimos $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$

Busquemos los eigenvectores. Por un lado, si queremos que suceda que $Av=v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y, 3x+7y)=(x,y),$$ y una de las soluciones es $(x,y)=(2,-1)$. Por otro lado, si queremos que suceda que $Av=2v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y,3x+7y)=(2x,2y),$$ y una de las soluciones es $(x,y)=(-5,3)$. De aquí construimos $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ y podemos hacer reducción gaussiana para encontrar $B$. Observa que obtenemos exactamente las mismas matrices que propusimos en el ejemplo.

Nos gustaría poder hacer esto mismo en dimensiones más altas y entender cuándo y por qué funciona. Para ello, lo primero que necesitamos hacer es entender muy bien el concepto de determinante y aprender a manejar hábilmente sus propiedades principales.

Hay varias formas de definir determinante y quizás ya hayas visto algunas en cursos anteriores. En este curso definiremos determinante mediante transformaciones multilineales. Es un poco más abstracto, pero ayuda a que sea más fácil probar técnicas para trabajar con determinantes y entender por qué funcionan.

Transformaciones multilineales

En el bloque anterior ya hablamos de formas bilineales. Como recordatorio, tomábamos un espacio vectorial real $V$ y una forma bilineal era una función $b:V\times V\to \mathbb{R}$ tal que cada que fijábamos una entrada, la función era lineal en la otra. La palabra «forma» la usábamos porque la imagen caía en el campo.

Generalizaremos esta idea para más entradas, y para cuando la imagen cae en cualquier espacio vectorial. Trabajaremos en espacios vectoriales sobre un campo $F$, que puedes pensar que es $\mathbb{R}$ o $\mathbb{C}$.

Definición. Sean $V_1,\ldots, V_d$ y $W$ espacios vectoriales sobre $F$. Una función $f:V_1\times \ldots \times V_d\to W$ es multilineal si cada que fijamos una $i$ y para cada $j\neq i$ fijamos vectores $v_j$ en $V_j$, la transformación $$V_i\to W$$ dada por $$v_i\mapsto f(v_1,v_2,\ldots,v_d)$$ es lineal.

Aclaración. De nuevo, es muy importante no confundir una transformación multilineal con una transformación lineal del espacio vectorial $V_1\times \ldots \times V_d$ a $W$.

Ejemplo 1. Consideremos $\mathbb{R}^3=\mathbb{R}\times \mathbb{R} \times \mathbb{R}$ y consideramos la transformación $T:\mathbb{R}^3\to \mathbb{R}$ dada por $T(x,y,z)=xyz.$ Afirmamos que esta es una transformación multilineal.

Si fijamos $y$ y $z$, tenemos que mostrar que la transformación $x\mapsto xyz$ es lineal, lo cual es cierto pues para $x_1,x_2$ reales y $r$ real se cumple que
\begin{align*}
T(x_1+rx_2,y,z)&=(x_1+rx_2)yz\\
&=x_1yz + rx_2yz\\
&=T(x_1,y,z)+rT(x_2,y,z).
\end{align*}

De manera similar se prueba para las otras entradas.

Sin embargo, $T$ no es una transformación lineal. Por ejemplo, no saca escalares ya que $T(1,1,1)=1\cdot 1\cdot 1=1$ y $$T(2,2,2)=8\neq 2 = 2T(1,1,1).$$

$\square$

Las transformaciones multilineales son muy generales, y ayudan a crear algo que se llama el producto tensorial. Sin embargo, para los fines que necesitamos ahora, no hace falta tanta generalidad. Sólo nos enfocaremos en las transformaciones multilineales cuando $V_1=V_2=\ldots=V_d$, es decir, en transformaciones $f:V^d\to W$.

Definición. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$.

Ejemplo 2. Si $V$ es un espacio vectorial real y $W=\mathbb{R}$, entonces toda forma bilineal $b:V\times V\to \mathbb{R}$ es una transformación $2$-lineal.

Ejemplo 3. Tomemos $V=\mathbb{R}^3$ y $d=4$. Tomemos las siguientes formas lineales en $V$:
\begin{align*}
l_1(x,y,z)&=x+y+z\\
l_2(x,y,z)&=3x-2y+z\\
l_3(x,y,z)&=y\\
l_4(x,y,z)&=x+z.
\end{align*}

Consideremos la transformación $T:V^4\to \mathbb{R}$ dada por $$T(v_1,v_2,v_3,v_4)=l_1(v_1)l_2(v_2)l_3(v_3)l_4(v_4),$$ por ejemplo, si $v_1=(1,0,0)$, $v_2=(0,1,0)$, $v_3=(0,1,1)$ y $v_4=(1,1,1)$, tenemos que

\begin{align*}
l_1(v_1)&=l_1(1,0,0)=1+0+0=1\\
l_2(v_2)&=l_2(0,1,0)=0-2+0=-2\\
l_3(v_3)&=l_3(0,1,1)=1\\
l_4(v_4)&=l_4(1,1,1)=1+1=2,
\end{align*}

y por lo tanto $$T(v_1,v_2,v_3,v_4)=(1)(-2)(1)(2)=-4.$$

Tenemos que $T$ es $4$-lineal pues para cada $i$, al fijar las tres entradas $v_j$ con $j\neq i$ tenemos que $T(v_1,v_2,v_3,v_4)$ es de la forma $cl_i(v_i)$ con $c$ un escalar. Como $l_i$ es una forma lineal, $cl_i$ también.

$\triangle$

Nos interesan un tipo todavía más restringido de transformaciones multilineales. Para definirlas, tenemos que hacer una pequeña desviación hacia el tema de permutaciones.

Permutaciones y signos

Tomemos un entero positivo y usemos $[n]$ para hablar del conjunto de los enteros de $1$ a $n$, es decir, $[n]:=\{1,2,\ldots,n\}$.

Definicion. Una permutación de $[n]$ es una función biyectiva $\sigma: [n]\to [n]$.

En otras palabras, una permutación básicamente «revuelve los elementos» de $[n]$. Usualmente expresamos a la permutación con la notación $$\begin{pmatrix} 1 & 2 & \ldots & n\\ \sigma(1) & \sigma(2) & \ldots & \sigma(n)\end{pmatrix}$$

Ejemplo 1. La función $\sigma:[3]\to [3]$ tal que $\sigma(1)=2$, $\sigma(2)=3$ y $\sigma(3)=1$ es una permutación que manda al conjunto ordenado $(1,2,3)$ al conjunto ordenado $(2,3,1)$. La expresamos como $$\begin{pmatrix} 1& 2 & 3\\ 2 & 3 & 1\end{pmatrix}.$$

$\triangle$

Como las permutaciones son funciones, entonces podemos componerlas. Para evitar complicar la notación, no pondremos el signo de composición $\circ$, sino simplemente permutaciones adyacentes. La composición usualmente no es conmutativa.

Ejemplo 2. Tomemos la permutación $\sigma_1:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 1 & 4\end{pmatrix}$$ y la permutación $\sigma_2:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 3 & 1\end{pmatrix}.$$

¿Qué hace la función $\sigma_1 \sigma_2$? Es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_1(\sigma_2(1))&=\sigma_1(4)=4,\\
\sigma_1(\sigma_2(2))&=\sigma_1(2)=2,\\
\sigma_1(\sigma_2(3))&=\sigma_1(3)=1,\\
\sigma_1(\sigma_2(4))&=\sigma_1(1)=3,
\end{align*}

es decir, la composición es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 1 & 3\end{pmatrix}.$$

Por otro lado, la función $\sigma_2\sigma_1$ hace algo un poco diferente. También es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_2(\sigma_1(1))&=\sigma_2(3)=3,\\
\sigma_2(\sigma_1(2))&=\sigma_2(2)=2,\\
\sigma_2(\sigma_1(3))&=\sigma_2(1)=4,\\
\sigma_2(\sigma_1(4))&=\sigma_2(4)=1,
\end{align*}

así que es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 4 & 1\end{pmatrix}.$$

$\triangle$

Al conjunto de permutaciones de $[n]$ le llamamos $S_n$. Tomemos una permutación $\sigma$ en $S_n$. Para dos elementos $i<j$ en $[n]$, decimos que $\sigma$ los invierte si $\sigma(i)>\sigma(j)$.

Definición. Sea $\sigma$ un elemento de $S_n$. Decimos que el signo de $\sigma$ es $1$ si invierte una cantidad par de parejas, y es $-1$ si invierte una cantidad impar de parejas. Al signo de $\sigma$ lo denotamos $\text{sign}(\sigma)$.

Ejemplo 3. La permutación $$\begin{pmatrix}1& 2 & 3 & 4 & 5\\ 5 & 2 & 1 & 4 & 3\end{pmatrix}$$ invierte a la pareja $(1,2)$ pues $\sigma(1)=5>2=\sigma(2)$. Todas las parejas que invierte son $(1,2)$, $(1,3)$, $(1,4)$, $(1,5)$, $(2,3)$, $(4,5)$. Estas son $6$ parejas, que son una cantidad par, así que la permutación tiene signo $1$.

La permutación identidad en $S_n$ no invierte ninguna pareja, así que tiene signo $1$.

$\triangle$

En la siguiente entrada combinaremos estas nociones de permutaciones y de transformaciones multilineales para hablar de antisimetría y alternancia. Por el momento, reflexiona en lo siguiente: si $\sigma$ es una permutación en $S_n$ y $f:V^n\to W$ es una transformación $n$-lineal, entonces la transformación $\sigma f:V^n \to W$ definida por $$(\sigma f)(x_1,x_2,\ldots,x_n) = f(x_{\sigma(1)},x_{\sigma(2)},\ldots,x_{\sigma(n)})$$ también es una transformación $n$-lineal.

Más adelante…

En esta primera entrada de la cuarta unidad hemos visto cómo la intuición que obtuvimos cuando estudiamos formas bilineales, nos ha ayudado a entender el concepto de formas multilineales. En las siguientes entradas del blog, abordaremos el concepto de determinante y aprenderemos cómo se usa.

Para la definición de determinante y para demostrar algunas de sus propiedades , usaremos lo que aprendimos en esta entrada sobre las transformaciones multilineales. Veremos que es una herramienta del álgebra lineal bastante útil y entender detalladamente cómo funciona será fundamental para abordar uno de los teoremas más importantes del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Toma $T:V^d\to W$ una transformación $d$-lineal. Muestra que si de entre $x_1,\ldots,x_d$ elementos de $V$ alguno de ellos es el vector $0$, entonces $T(x_1,\ldots,x_d)=0$.
  • Muestra que la transformación del ejemplo de transformaciones multilineales también es lineal en la segunda y tercera entradas.
  • Supón que $l_1,\ldots,l_d$ son formas lineales de $V$ al campo $F$. Muestra que $f:V^d\to F$ dada por $$f(x_1,\ldots,x_d)=l_1(x_1)\ldots l_d(x_d)$$ es una transformación $d$-lineal.
  • Encuentra una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}$ que no sea una transformación multilineal.
  • Muestra que la composición de dos permutaciones siempre es una permutación.
  • Muestra que para dos permutaciones $\sigma_1$ y $\sigma_2$ se tiene que $$\text{sign}(\sigma_1\sigma_2)=\text{sign}(\sigma_1)\text{sign}(\sigma_2).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»