Archivo de la etiqueta: alternante

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Por Blanca Radillo

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo F es Z2, y el siguiente ejemplo lo expone:

Ejemplo. Sea f:Z2×Z2Z2 definido como f(x,y)=xy. Claramente f es bilineal, pero no es alternate ya que f(1,1)=10. Por otro lado, f es antisimétrica, porque f(x,y)+f(y,x)=xy+yx=2xy=0.

De manera natural surge la pregunta: ¿cómo podemos construir una transformación d-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo d-lineal f.

Problema. Sea f:VdW una transformación d-lineal. Demuestra que

A(f):=σSdsign(σ)σ(f)

es un mapeo d-lineal antisimétrico.

Solución. Es fácil ver que A(f) es una transformación d-lineal, dado que A(f) es una combinación lineal de mapeos d-lineales. Queremos probar que, para τSd, τ(A(f))=sign(τ)A(f). Notemos que

τ(A(f))=σSdsign(σ)τ(σ(f))=σSdsign(σ)(τσ)(f).

Usando el hecho que sign(τ)sign(σ)=sign(τσ) y que {τσ:σSd}=Sd, obtenemos que

sign(τ)τ(A(f))=σSdsign(τσ)(τσ)(f)=ηSdsign(η)(η)(f)=A(f).

Por lo tanto, τ(A(f))=sign(τ)A(f).

◻

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma n-lineal alternante, y además que cualquier otra forma n-lineal alternante varía de det(b1,,bn) únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema 1. Sea V un espacio vectorial sobre F de dimensión finita. Sea e1,,en una base de V y sea T:VV una transformación lineal. Demuestra que para todo v1,,vnV tenemos que

i=1ndet(v1,,vi1,T(vi),vi+1,,vn)=Tr(T)det(v1,,vn),

donde todos los determinantes están calculados en la base canónica y Tr(T) es la traza de la matriz de T (con respecto a la base canónica).

Solución. Definimos el mapeo ϕ:VnF como

ϕ(v1,,vn)=i=1ndet(v1,,vi1,T(vi),vi+1,,vn).

Esta transformación es la suma de transformaciones n-lineales, por lo tanto ϕ es n-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que v1=v2, entonces

ϕ(v1,v1,v3,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)+i=3ndet(v1,v1,,vi1,T(vi),vi+1,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)=det(T(v1),v1,v3,,vn)det(T(v1),v1,v3,,vn)=0,

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar α tal que

ϕ(v1,,vn)=αdet(v1,,vn)

para todo v1,,vn. Sea A=[aij] la matriz de T con respecto a la base canónica. Si tomamos v1=e1,,vn=en, por el mismo teorema tenemos que

α=ϕ(e1,,en)=i=1ndet(e1,,ei1,j=1najiej,ei+1,,en)=i=1nj=1najidet(e1,,ei1,ej,ei+1,,en)=i=1naii=Tr(T).

Por lo tanto, obtenemos lo que queremos.

◻

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema 2. Sea n un número impar y sean A,BMn(R) matrices tal que A2+B2=0n. Prueba que la matriz ABBA no es invertible.

Solución. Notemos que

(A+iB)(AiB)=A2+B2+i(BAAB)=i(BAAB).

Por la propiedad del determinante de un producto, tenemos que

det(A+iB)det(AiB)=indet(BAAB).

Suponemos que ABBA es invertible, entonces det(BAAB)0. Además sabemos que

det(AiB)=det(A+iB)=det(A+iB),

esto implica que |det(A+iB)|2=indet(BAAB). Como consecuencia, in es un número real, contradiciendo al hecho que n es impar. Por lo tanto det(BAAB)=0.

◻

Problema 3. Para 1i,jn, definimos aij como el número de divisores positivos en común de i y j y definimos bij igual a 1 si j divide i e igual a 0 si no.

  1. Probar que A=BtB, donde A=[aij] y B=[bij].
  2. ¿Qué podemos decir de la forma de B?
  3. Calcula det(A).

Solución. 1) Fijando i,j tenemos que

det(BtB)ij=k=1nbikbjk.

Notemos que bikbjk no es cero (bij,bjk=1) si y sólo si k divide a i y a j, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan i y j. Por lo tanto det(BtB)ij=aij.

2) Si i<j, no es posible que j divida a i. Entonces bij=0 para todo i<j, esto significa que B es, al menos, triangular inferior. Un dato más que podemos asegurar es que bii=1 para toda i, por lo tanto, al menos, todos los términos de la diagonal de B son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que det(B)=det(tB) y usando el inciso (1), tenemos que det(A)=det(BtB)=(detB)2. Pero por el inciso (2), detB=1, concluimos que detA=1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial V de dimensión finita n1 sobre un campo F, una transformación lineal T:VV y una forma n-lineal f:VnF, se puede mostrar que la transformación Tf:VnF dada por Tf(x1,,xn)=f(T(x1),,T(xn)) también es una forma n-lineal. Además, se puede mostrar que si f es alternante, entonces Tf también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea V un espacio vectorial de dimensión finita n1 sobre el campo F. Para cualquier transformación lineal T:VV existe un único escalar detT en F tal que f(T(x1),,T(xn))=detTf(x1,,xn) para cualquier forma n-lineal alternante f:VnF y cualquier elección x1,,xn de vectores en V.

Demostración. Fijemos una base B=(b1,,bn) cualquiera de V. Llamemos g a la forma n-lineal alternante det(b1,,bn). Por la discusión de arriba, la asignación Tg:VnF dada por (x1,,xn)g(T(x1),,T(xn)) es una forma n-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que Tg=Tg(b1,,bn)g. Afirmamos que detT:=Tg(b1,,bn) es el escalar que estamos buscando.

En efecto, para cualquier otra forma n-lineal alternante f, tenemos por el mismo teorema que f=f(b1,,bn)g. Usando la linealidad de T y la igualdad anterior, se tiene que

Tf=f(b1,,bn)Tg=f(b1,,bn)detTg=detTf.

Con esto se prueba que detT funciona para cualquier forma lineal f. La unicidad sale eligiendo (x1,,xn)=(b1,,bn) y f=g en el enunciado del teorema, pues esto forza a que detT=g(T(b1),,T(bn)).

◻

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar detT del teorema anterior es el determinante de la transformación lineal T.

Para obtener el valor de detT, podemos entonces simplemente fijar una base B=(b1,,bn) y el determinante estará dado por detT=det(b1,,bn)(T(b1),,T(bn)). Como el teorema también prueba unicidad, sin importar que base B elijamos este número siempre será el mismo.

Ejemplo 1. Vamos a encontrar el determinante de la transformación lineal T:R3R3 dada por T(x,y,z)=(2z,2y,2x). Para ello, usaremos la base canónica de R3. Tenemos que
T(1,0,0)=(0,0,2)=2e3T(0,1,0)=(0,2,0)=2e2T(0,0,1)=(2,0,0)=2e1.

De acuerdo al teorema anterior, podemos encontrar al determinante de T como detT=det(e1,e2,e3)(2e3,2e2,2e1).

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas 1 y 3 su signo cambia en 1. Usando la 3-linealidad en cada entrada, podemos sacar un factor 2 de cada una. Así, tenemos:
detT=det(e1,e2,e3)(2e3,2e2,2e1)=det(e1,e2,e3)(2e1,2e2,2e3)=8det(e1,e2,e3)(e1,e2,e3)=8.

Concluimos entonces que el determinante de T es 8.

Ejemplo 2. Vamos ahora a encontrar el determinante de la transformación T:Rn[x]Rn[x] que deriva polinomios, es decir, tal que T(p)=p. Tomemos q0=1,q1=x,,qn=xn la base canónica de Rn[x].

Notemos que, T(1)=0, de modo que los vectores T(1),,T(xn) son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que det(q0,,qn)(T(q0),,T(qn))=0. Concluimos entonces que detT=0.

Determinantes de matrices

La expresión detT=det(b1,,bn)(T(b1),,T(bn)) para una transformación lineal T también nos permite poner al determinante en términos de las entradas de la matriz de T con respecto a la base B. Recordemos que dicha matriz AT=[aij] tiene en la columna i las coordenadas de bi en la base B. En otras palabras, para cada i se cumple que T(bi)=j=1najibi.

Usando esta notación, obtenemos que detT=σSnsign(σ)a1σ(1)anσ(n), de manera que podemos expresar a detT en términos únicamente de su matriz en la base B.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz A en Mn(F) de entradas A=[aij], el determinante de A es detA=σSnsign(σ)a1σ(1)anσ(n). A detA también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

detA=|a11a12a1na21a22a2nan1an2ann.|

Ejemplo. Si queremos calcular el determinante de una matriz en M2(F), digamos A=(abcd), debemos considerar dos permutaciones: la identidad y la transposición (1,2).

La identidad tiene signo 1 y le corresponde el sumando ad. La transposición tiene signo 1 y le corresponde el sumando bc. Así, |abcd|=adbc.

Retomando la discusión antes de la definición, tenemos entonces que detT=detAT, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de T depende de la base elegida, pero como vimos, el determinante de T no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean A y P matrices en Mn(F) con P invertible. El determinante de A y el de P1AP son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que aij=0 si i>j. Vamos a estudiar la expresión σSnsign(σ)a1σ(1)anσ(n).

Si una permutación σ no es la identidad, entonces hay un entero i que no deja fijo, digamos σ(i)i. Tomemos a i como el mayor entero que σ no deja fijo. Notemos que σ(i) tampoco queda fijo por σ pues σ(σ(i))=σ(i) implica σ(i)=i, ya que σ es biyectiva, y estamos suponiendo σ(i)i. Por la maximalidad de i, concluimos que σ(i)<i.Entonces el sumando correspondiente a σ es 0 pues tiene como factor a la entrada aiσ(i)=0.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es 1. De esta forma,
det(A)=σSnsign(σ)a1σ(1)anσ(n)=a11ann.

◻

Más adelante…

En esta entrada planteamos cómo se define el concepto de matriz para transformaciones lineales y cómo esta definición se extiende naturalmente a la definición del determinante de una matriz, recordando que a cada transformación lineal se le puede asociar una matriz y viceversa.

En las siguientes entradas vamos a ver qué propiedades que cumplen los determinantes y aprenderemos diferentes técnicas para calcularlos. A lo largo de la unidad, desarrollaremos bastante práctica en el cálculo y la manipulación de los determinantes, ya sea el determinante de un conjunto de vectores, de una transformación lineal o de una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transformación Tf definida en la entrada es n-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal T:RnRn dada por T(x1,x2,,xn)=(x2,x3,,x1).
  • Calcula por definición el determinante de las matrices (3241) y (1241391416).
  • Calcula por definición el determinante de la matriz (1112344916) y compáralo con el de la matriz de 3×3 del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes de vectores e independencia lineal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.

En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.

Determinantes de vectores

Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.

Definición. Sea B=(b1,,bn) una base de un espacio vectorial V de dimensión finita n y x1,,xn vectores de V. Cada uno de los xi se puede escribir como xi=j=1najibj.

El determinante de x1,,xn con respecto a (b1,,bn) es σSnsign(σ)a1σ(1)anσ(n), y lo denotamos por det(b1,,bn)(x1,,xn).

Observa que estamos sumando tantos términos como elementos en Sn. Como existen n! permutaciones de un conjunto de n elementos, entonces la suma de la derecha tiene n! sumandos.

Ejemplo. Consideremos la base b1=1, b2=1+x y b3=1+x+x2 del espacio vectorial R2[x] de polinomios con coeficientes reales y grado a lo más 2. Tomemos los polinomios v1=1, v2=2x y v3=3x2. Vamos a calcular el determinante de v1,v2,v3 con respecto a la base (b1,b2,b3).

Para hacer eso, lo primero que tenemos que hacer es expresar a v1,v2,v3 en términos de la base. Hacemos esto a continuación:
v1=1b1+0b2+0b3v2=2b1+2b2+0b3v3=0b13b2+3b3.

De aquí, obtenemos
a11=1,a21=0,a31=0,a12=2,a22=2,a32=0,a13=0,a23=3,a33=3.

Si queremos calcular el determinante, tenemos que considerar las 3!=321=6 permutaciones en S3. Estas permutaciones son

σ1=(123123)σ2=(123132)σ3=(123213)σ4=(123231)σ5=(123321)σ6=(123312).

Los signos de σ1,,σ6 son, como puedes verificar, 1, 1, 1, 1, 1 y 1, respectivamente.

El sumando correspondiente a σ1 es
(1)sign(σ1)a1σ1(1)a2σ1(2)a3σ1(3)(2)=1a11a22a33(3)=1123=6.

El sumando correspondiente a σ2 es
(4)sign(σ2)a1σ2(1)a2σ2(2)a3σ2(3)(5)=(1)a11a23a32(6)=(1)1(3)0=0.

Continuando de esta manera, se puede ver que los sumandos correspondientes a σ1,,σ6 son +6,0,0,+0,0,+0, respectivamente de modo que el determinante es 6.

La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.

Proposición. Sea B=(b1,,bn) una base de un espacio vectorial V de dimensión finita n. El determinante de B con respecto a sí mismo es 1.

Demostración. Cuando escribimos a bi en términos de la base b, tenemos que bi=j=1najibj. Como la expresión en una base es única, debemos tener aii=1 y aji=0 si ji. Ahora, veamos qué le sucede al determinante σSnsign(σ)a1σ(1)anσ(n).

Si σ es una permutación tal que σ(i)i para alguna i, entonces en el producto del sumando correspondiente a σ aparece aiσ(i)=0, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando σ es la permutación identidad.

Como el signo de la identidad es 1 y cada aii es 1, tenemos que el determinante es
σSnsign(σ)a1σ(1)anσ(n)=a11ann=11=1.

◻

El determinante es una forma n-lineal alternante

La razón por la cual hablamos de transformaciones n-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.

Teorema. Sea B=(b1,,bn) una base de un espacio vectorial V sobre F. Entonces la transformación det(b1,,bn):VnF es una forma n-lineal y alternante.

Demostración. La observación clave para demostrar este resultado es que det(b1,,bn) se puede reescribir en términos de la base dual b1,,bn. En efecto, recuerda que bi es la forma lineal que «lee» la coordenada de un vector v escrito en la base B. De esta forma,

det(b1,,bn)(v1,,vn)=σSn(sign(σ)j=1nbj(vσ(j)))

Para cada permutación σ, el sumando correspondiente es una forma n-lineal, pues es producto de n formas lineales evaluadas en los distintos vectores. Así que det(b1,,bn) es suma de formas n-lineales y por lo tanto es forma n-lineal.

Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a 0 cuando algún par de sus entradas son iguales. Supongamos que ij y que vi=vj. Tomemos τ a la transposición que intercambia a i y a j. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación σ, tenemos que στ tiene signo diferente.

Además, para cualquier σ tenemos que a1σ(1)anσ(n) y a1στ(1)anστ(n) son iguales, pues vi=vj. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es 0.

◻

Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.

Corolario. La forma n-lineal det(b1,,bn) es antisimétrica.

Los determinantes de vectores son las «únicas» formas n-lineales alternantes

Ya vimos que el determinante es una forma n-lineal alternante. Veamos ahora por qué decimos que es «la única». El siguiente resultado dice que cualquier otra forma n-lineal alternante varía de det(b1,,bn) únicamente por un factor multiplicativo.

Teorema. Sea B=(b1,,bn) una base de un espacio vectorial V. Si f:VnF es cualquier forma n-lineal y alternante, entonces f=f(b1,,bn)det(b1,,bn).

Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores x1,,xn. Escribamos a cada xi en términos de la base B: xi=j=1naijbj.

Usando la n-linealidad de f en cada una de las entradas, tenemos que
f(x1,,xn)=i=1na1if(bi,x2,,xn)=i,j=1na1ia2if(bi,bj,x3,,xn)==i1,,in=1na1i1aninf(bi1,,bin).

Aquí hay muchos términos, pero la mayoría de ellos son 0. En efecto, si bik=bil, como f es alternante tendríamos que ese sumando es 0. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe σ en Sn tal que para ik=σ(k).

Por lo tanto, podemos simplificar la expresión anterior a
f(x1,,xn)=σSna1σ(1)anσ(n)f(bσ(1),,bσ(n)).

Como f es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como
=σSnsign(σ)a1σ(1)anσ(n)f(b1,,bn)=f(b1,,bn)det(b1,,bn)(x1,,xn).

Esto es justo lo que queríamos probar.

◻

Los determinantes de vectores caracterizan bases

Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.

Corolario. En un espacio vectorial V de dimensión n son equivalentes las siguientes tres afirmaciones para vectores x1,,xn de V:

  1. El determinante de x1,,xn con respecto a toda base es distinto de 0.
  2. El determinante de x1,,xn con respecto a alguna base es distinto de 0.
  3. x1,,xn es una base de V.

Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.

Ahora, probemos que la afirmación (2) implica la afirmación (3). Como x1,,xn son n vectores y n es la dimensión de V, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a 0. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en x1,,xn, entonces deben ser linealmente independientes y por lo tanto formar una base.

Finalmente, probemos que (3) implica (1). Tomemos B=(b1,,bn) otra base de V. Como det(x1,,xn) es una forma n-lineal, podemos aplicar el teorema anterior y evaluar en x1,,xn para concluir que
det(x1,,xn)(x1,,xn)=det(x1,,xn)(b1,,bn)det(b1,,bn)(x1,,xn).

El término de la izquierda es igual a 1, de modo que ambos factores a la derecha deben ser distintos de 0.

◻

Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de 1, 2x y 3x2 con respecto a la base 1, 1+x y 1+x+x2 es igual a 6. De acuerdo al teorema anterior, esto implica que 1, 2x y 3x2 es un conjunto linealmente independiente de polinomios, y de hecho una base.

Además, el teorema anterior también implica que sin importar que otra base B de R2[x] tomemos, el determinante de 1, 2x y 3x2 con respecto a B también será distinto de 0.

Más adelante…

A lo largo de esta entrada estudiamos la definición de determinantes para un conjunto de vectores y enunciamos sus principales propiedades. En las siguientes entradas vamos a hablar cómo se define el determinante para matrices y para transformaciones lineales. Después de las definiciones, pasaremos a estudiar cómo se calculan los determinantes y veremos cómo se aplican a diferentes problemas de álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuántos sumandos tendrá el determinante de 5 vectores en un espacio vectorial de dimensión 5 con respecto a cualquier base? Da el número de manera explícita.
  • Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a σ1,,σ6 son los que se enuncian.
  • Encuentra el determinante de los vectores (3,1) y (2,4) con respecto a la base ((5,1),(2,3)) de R2.
  • Muestra que los vectores (1,4,5,2), (0,3,2,1), (0,0,1,4) y (0,0,0,1) son linealmente independientes calculando por definición su determinante con respecto a la base canónica de R4.
  • Usa un argumento de determinantes para mostrar que los vectores (1,4,3), (2,2,9), (7,8,27) de R3 no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en M2(R). Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para d un entero positivo y V, W espacios vectoriales sobre un mismo campo, una transformación d-lineal es una transformación multilineal de Vd a W, es decir, una tal que al fijar cualesquiera d1 coordenadas, la función que queda en la entrada restante es lineal.

Con [n] nos referimos al conjunto {1,2,,n}. Una permutación en Sn es una función biyectiva σ:[n][n]. Una permutación invierte a la pareja i<j si σ(i)>σ(j). Si una permutación σ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo sign(σ)=1. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo sign(σ)=1.

Transformaciones n-lineales antisimétricas y alternantes

Tomemos d un entero positivo, V, W espacios vectoriales sobre el mismo campo y σ una permutación en Sd. Si T:VdW es una transformación d-lineal, entonces la función (σT):VdW dada por (σT)(v1,,vd)=T(vσ(1),vσ(2),,vσ(d)) también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como T es lineal en cualquier entrada (al fijar las demás), entonces σT también.

Definición. Decimos que T es antisimétrica si σT=sign(σ)T para cualquier permutación σ en Sd. En otras palabras, T es antisimétrica si σT=T para las permutaciones pares y σT=T para las permutaciones impares.

Definición. Decimos que T es alternante si T(v1,,vd)=0 cuando hay dos vi que sean iguales.

Ejemplo. Consideremos la función T:(R2)2R dada por T((a,b),(c,d))=adbc. Afirmamos que ésta es una transformación 2-lineal alternante y antisimétrica. La parte de mostrar que es 2-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si (a,b)=(c,d), entonces T((a,b),(c,d))=0. Para ello, basta usar la definición: T((a,b),(a,b))=abab=0.

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en S2, la identidad id y la permutación σ que intercambia a 1 y 2. La primera tiene signo 1 y la segunda signo 1.

Para la identidad, tenemos (idT)((a,b),(c,d))=σ((a,b),(c,d)), así que (idT)=T=sign(id)T, como queremos.

Para σ, tenemos que σT es aplicar T pero «con las entradas intercambiadas». De este modo:
(σT)((a,b),(c,d))=T((c,d),(a,b))=cbda=(adbc)=T((a,b),(c,d)).

Esto muestra que (σT)=T=sign(σ)T.

◻

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo F en el que estamos trabajando la ecuación 2x=0 sólo tenga la solución x=0. Esto no pasa, por ejemplo, en Z2. Pero sí pasa en Q, R y C.

Proposición. Sean V y W espacios vectoriales sobre un campo donde 2x=0 sólo tiene la solución x=0. Sea d un entero positivo. Una transformación d-lineal T:VdW es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que T es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para ij tenemos que xi=xj.

Tomemos la permutación σ:[d][d] tal que σ(i)=j, σ(j)=i y σ(k)=k para todo k distinto de i y j. A esta permutación se le llama la transposición (i,j). Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo 1.

Usando la hipótesis de que T es antisimétrica con la transposición (i,j), tenemos que
T(x1,,xi,,xj,,xn)=T(x1,,xj,,xi,,xn)=T(x1,,xi,,xj,,xn),

en donde en la segunda igualdad estamos usando que xi=xj. De este modo, 2T(x1,,xi,,xj,,xn)=0, y por la hipótesis sobre el campo, tenemos que T(x1,,xi,,xj,,xn)=0. Así, cuando dos entradas son iguales, la imagen es 0, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que T es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces σ la transposición (i,j). Tenemos que mostrar que σT=sign(σ)T=T.

Usemos que T es alternante. Pondremos en las entradas i y j a la suma de vectores xi+xj, de modo que T(x1,,xi+xj,,xi+xj,,xn)=0. Usando la n-linealidad de T en las entradas i y j para abrir el término a la izquierda, tenemos que
0=T(x1,,xi,,xi,,xn)+T(x1,,xi,,xj,,xn)+T(x1,,xj,,xi,,xn)+T(x1,,xj,,xj,,xn).

Usando de nuevo que T es alternante, el primero y último sumando son cero. Así, T(x1,,xi,,xj,,xn)=T(x1,,xj,,xi,,xn).

En otras palabras, al intercambiar las entradas i y j se cambia el signo de T, que precisamente quiere decir que (σT)=sign(σ)T.

◻

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea T:VdW una transformación d-lineal y alternante. Supongamos que v1,,vd son linealmente dependientes. Entonces T(v1,v2,,vd)=0.

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es vd y que tenemos vd=α1v1++αd1vd1 para ciertos escalares α1,,αd1.

Usando la d-linealidad de T, tenemos que
T(v1,v2,,vd1,vd)=T(v1,,vd1,i=1d1αivi)=i=1d1αiT(v1,,vd1,vi).

Usando que T es alternante, cada uno de los sumandos del lado derecho es 0, pues en el i-ésimo sumando tenemos que aparece dos veces el vector vi entre las entradas de T. Esto muestra que T(v1,,vd)=0, como queríamos mostrar.

◻

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial V de dimensión n y tomamos una base B=(b1,,bn). Definiremos el determinante con respecto a B de un conjunto de vectores (v1,v2,,vn) , al cual denotaremos por det(b1,,bn)(v1,,vn)de V de la manera siguiente.

A cada vector vi lo ponemos como combinación lineal de elementos de la base: vi=j=1najibj. El determinante det(b1,,bn)(v1,,vn) es σS(n)sign(σ)a1σ(1)a2σ(1)anσ(n).

Observa que esta suma tiene tantos sumandos como elementos en Sn, es decir, como permutaciones de [n]. Hay n! permutaciones, así que esta suma tiene muchos términos incluso si n no es tan grande.

Veremos que para cualquier base B, el determinante con respecto a B es una forma d-lineal alternante, y que de hecho las únicas formas d-lineales alternantes en V «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación T:VV definiremos al determinante de T como el determinante det(b1,,bn)(T(b1),,T(bn)), y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz A en Mn(F), definiremos su determinante como el determinante de la transformación TA:FnFn tal que TA(X)=AX. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para T:VV, S:VV y para matrices A,B en Mn(F) se tiene que

det(TS)=det(T)det(S)det(AB)=det(A)det(B).

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función T:(R2)2R dada por T((a,b),(c,d))=adbc es 2-lineal. Para esto, tienes que fijar (a,b) y ver que es lineal en la segunda entrada, y luego fijar (c,d) y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo 1. Ojo: sólo se intercambia el par (i,j), pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones n-lineales es una transformación n-lineal. Muestra que al multiplicar por un escalar una transformación n-lineal, también se obtiene una transformación n-lineal.
  • ¿Es cierto que la suma de transformaciones n-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»