Archivo de la etiqueta: determinante

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema. Considera los vectores

v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)

en \mathbb{R}^4. Prueba que para cualquier elección de x\in\mathbb{R}, los vectores v_1,v_2,v_3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v_1,v_2,v_3, es decir,

A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.

Sabemos que v_1,v_2,v_3 son linealmente independiente si y sólo si \text{dim(span}(v_1,v_2,v_3))=3, ya que \text{rank}(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3\times 3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,

lo que implica que es invertible, y por lo tanto v_1,v_2, v_3 son vectores linealmente independientes.

\square

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre \mathbb{R} o sobre \mathbb{C}. Como \mathbb{R}\subset \mathbb{C}, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en \mathbb{R} se cumplen en \mathbb{C}. En este caso particular, si las soluciones de una matriz en M_{m,n}(\mathbb{R}) son soluciones de la misma matriz pero vista como elemento en M_{m,n}(\mathbb{C}). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea A\in M_{m,n}(F) y sea F_1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F_1^n, entonces tiene una solución no trivial en F^n.

Demostración. Dado que el sistema tiene una solución no trivial en F_1^n, r:=\text{rank}(A) < n vista como elemento en M_{m,n}(F_1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de M_{m,n}(F_1) o de M_{m,n}(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de F^n de dimensión n-r>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en F^n.

\square

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. Sea S_a el siguiente sistema lineal:

\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.

Notemos que

\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,

entonces si a\neq 1/8, A es invertible, y por lo tanto \text{rank}(A)=3, mientras que si a=1/8, A no es invertible y \text{rank}(A)=2 ya que la submatriz es invertible

\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.

Además, si la matriz (A,b) es igual a

\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, \text{rank}(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como \text{rank}(A)=3 para todo a\neq 1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

\square

Problema. Sean a,b,c números reales dados. Resuelve el sistema lineal

\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.

Solución. La matriz del sistema es

A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.

No es difícil ver que \text{det}(A)=4abc. Si abc\neq 0, usando la regla de Cramer, la única solución al sistema está dada por

x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}

y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},

resolviendo los determinantes obtenemos que

x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.

Ahora, si abc=0, entonces A no es invertible (\text{rank}(A)<3). El sistema es consistente si y sólo si \text{rank}(A)=\text{rank}(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc\neq 0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c \neq 0; caso 2) b=0 y a=c\neq 0; caso 3) c=0 y a=b\neq 0, tenemos infinitas soluciones descritas como, para todo w\in \mathbb{R}: caso 1) (0,w,1/b-w); caso 2) (w,0,1/a-w); caso 3) (w,1/a-w,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

\square

Álgebra Lineal I: Problemas de cálculo de determinantes

Para esta entrada del blog haremos uso de las propiedades vistas en la entrada de propiedades de determinantes para facilitar las cuentas a la hora de calcular determinantes de matrices que un primera instancia podrían parecer complicadas. Asimismo, haciendo uso de estas propiedades, se demostrará el teorema de expansión de Laplace.

Problemas resueltos

Problema. Considera la siguiente matriz

    \[A=\begin{pmatrix}1 & 1 & 1\\1 & 2 & 1\\1 & 1 & 2\end{pmatrix}\]

y calcula \det (A^{-1}).

Solución. Como el determinante es multiplicativo, sabemos que \det(A^{-1})=\frac{1}{\det A} , por lo que nos bastará con calcular \det A.
Es fácil ver que \det A = 1(4-1)- 1(2-1)+1(1-2)=2-1-1=1.
Así, \det (A^{-1})=1.

\square

Problema. Sea A\in M_n(\mathbb{R}).

  1. Muestra que si n^2-n+1 entradas de A son iguales a 0, entonces \det A =0.
  2. Muestra que se puede escoger A de tal manera que \det A \neq 0 tiene n^2-n+1 entradas iguales.
  3. Muestra que si n^2-n+2 entradas de A son iguales, entonces \det A = 0.

Demostración.

  1. Afirmamos que la matriz A tiene una columna en la que todas las entradas son cero. Supongamos que cada columna de A tiene a los más n-1 ceros, entonces la matriz A tiene a lo más n^2 -n ceros, lo cuál contradice nuestra hipótesis, por lo tanto existe una columna en la cuál todas las entradas son iguales a cero. Por lo tanto \det A = 0.
  2. Consideremos la matriz A=[a_{ij}] dado por a_{ij}=1 si i\neq j y a_{ij}=i si i=j. De esta manera nos aseguramos de que n^2-n+1 entradas son iguales a 1, pero \det A \neq 0, pues si sustraemos el primer renglón de cada uno de los siguientes renglones obtenemos una matriz triangular superior con entradas diagonales distintas de cero, por lo que \det A \neq 0.
  3. Si A tiene n^2-n+2 entradas iguales (digamos a un número k), entonces A tiene a lo más n-2 entradas distintas a k. Por lo tanto, a lo más n-2 columnas de A contienen una entrada distinta de k, es decir, al menos dos columnas de A tienen todas sus entradas iguales a k, entonces \rank(A)<n. Por consiguiente \det A=0.

\square

Teorema de Expansión de Laplace

Sea A=[a_{ij}]\in M_n(F) una matriz y sea C_{i,j} el cofactor de a_{ij}.

(a) (Expansión con respecto a una columna j) Para cada j\in\{1,2,\dots , n\} tenemos

    \[\det A = \displaystyle\sum _{i=1}^n a_{ij}C_{ij}.\]

(b) (Expansión con respecto a una columna i). Para cada i\in \{1,2,\dots , n\} tenemos

    \[\det A = \displaystyle\sum _{j=1}^n a_{ij}C_{ij}.\]

Demostración. (a) Tomemos j\in \{1,2,\dots , n\} fija , y sea B=(e_1,\dots, e_n) la base canónica de F^n y sea C_1,\dots, C_n \in F^n las columnas de A, tales que C_k=\displaystyle\sum_{i=1}^{n} a_{ik}e_i para toda k. Se sigue que

    \[\det A = \det _{B}(C_1, \dots, C_n)=\det_B(C_1,\dots, C_{j-1}, \displastyle\sum_{i=1}^{n}a_{ij}e_i, C_{j+1},\dots C_n)\]

    \[=\displaystyle\sum_{i=1}^n a_{ij}\det_B(C_1,\dots, C_{j-1}, e_i, C_{j+1},\dots , C_n ).\]

Nos falta ver que X_{ij}:=\det_B(C_1,\dots, C_{j-1}, e_i, C_{j+1},\dots , C_n)= C_{ij}. Mediante una serie de n-j intercambios de columnas, podemos poner la j-ésima columna del determinante X_{ij} en la última posición, y mediante una sucesión de n-i intercambios de renglones podemos poner el i-ésimo renglón en la última posición, lo que nos da

    \[X_{ij}=(-1)^{n-1+n-j}=\det \begin{pmatrix}a_{11} & \dots & a_{i,j-1} & a_{1,j+1} & \dots & a_{1n} & 0\\\vdots &  \vdots & \vdots & \ddots & \vdots & \vdots & \vdots\\a_{n1} & \dots & a_{n,j-1} & a_{n,j+1} & \dots & a_{nn} & 0\\a_{i1} & \dots & a_{i,j-1} & a_{i,j+1} & \dots & a_{in} & 1\end{pmatrix}.\]

El último determinante es precisamente C_{ij}, y como (-1)^{n-i+n-j}=(-1)^{i+j} se sigue el resultado deseado.

(b) La prueba para este inciso se sigue del inciso anterior y tomando en cuenta que \det A = \det (^tA).

\square

Problema 3. Sean x,y,z \in \mathbb{R}, A=\begin{pmatrix}0 & y & z\\z & x & 0\\y & 0 & x\end{pmatrix}

y B=\begin{pmatrix}0 & z & y\\y & x & 0\\z & 0 & x\end{pmatrix}. Calcula el determinante de la matriz

    \[C=\begin{pmatrix}y^2+z^2 & xy & xz\\xy & x^2+z^2 & yz\\xz & yz & x^2 + y^2\end{pmatrix}.\]

Solución. Note que ^tA=B, entonces \det A = \det B. Calculemos \det A

    \[\det A = -z(yx)+y(-zx)=-2xyz\]

Además notemos que \begin{pmatrix}0 & y & z\\z & x & 0\\y & 0 & x\end{pmatrix} \begin{pmatrix}0 & z & y\\y & x & 0\\z & 0 & x\end{pmatrix} = \begin{pmatrix}y^2+z^2 & xy & xz\\xy & x^2+z^2 & yz\\xz & yz & x^2 + y^2\end{pmatrix}

o bien, AB=C.
Así, \det C= (\det A)^2= (-2xyz)^2 = 4x^2y^2z^2.

\square

Álgebra Lineal I: Técnicas básicas de cálculo de determinantes

Introducción

Ya definimos a los determinantes para vectores, para transformaciones y para matrices. Además, mostramos algunas propiedades básicas de determinantes y las usamos para resolver varios problemas. Como hemos discutido, los determinantes guardan información importante sobre una transformación lineal o sobre una matriz. También ayudan a implementar la técnica de diagonalización la cual introdujimos hace algunas entradas y en la cual profundizaremos después. Es por esta razón que es importante tener varias técnicas para el cálculo de determinantes.

Fuera de este curso, los determinantes sirven en muchas otras áreas de las matemáticas. Cuando se hace cálculo de varias variables ayudan a enunciar el teorema del cambio de variable. En combinatoria ayudan a calcular el número de árboles generadores de una gráfica. Más adelante en tu formación matemática es probable que te encuentres con otros ejemplos.

Calculo de determinantes de 2\times 2

Como ya discutimos anteriormente, una matriz en M_2(F), digamos A=\begin{pmatrix}a&b\\ c&d\end{pmatrix} tiene determinante ad-bc.

Problema. Calcula el determinante de la matriz

    \[\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}^8.\]

Solución. Por la fórmula para el determinante de las matrices de 2\times 2, se tiene que \begin{vmatrix} 0 & 1\\ 1 & 1\end{vmatrix} = 0\cdot 1 - 1\cdot 1 = -1.

Como el determinante es multiplicativo, \det(A^2)=\det(A)\det(A)=(\det(A))^2, e inductivamente se puede mostrar que para todo entero positivo n se tiene que \det(A^n)=(\det(A))^n. De esta forma, el determinante que buscamos es (-1)^8=1.

\square

Observa que hubiera tomado más trabajo elevar la matriz a la octava potencia. Aunque esto usualmente no es recomendable, en este problema hay algo interesante que sucede con esta matriz. Llamémosla A=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}. Haciendo las cuentas para las primeras potencias, se tiene que

    \begin{align*}A&=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}\\A^2&=\begin{pmatrix} 1 & 1\\ 1 & 2\end{pmatrix}\\A^3&=\begin{pmatrix} 1 & 2\\ 2 & 3\end{pmatrix}\\A^4&=\begin{pmatrix} 2 & 3\\ 3 & 5\end{pmatrix}\\A^5&=\begin{pmatrix} 3 & 5\\ 5 & 8\end{pmatrix}\end{align*}

Aquí aparece la sucesión de Fibonacci, dada por F_0=0, F_1=1 y F_{n+2}=F_{n+1}+F_n para n\geq 0, cuyos primeros términos son

    \[0,1,1,2,3,5,8,13,21,\ldots.\]

De hecho se puede probar por inducción que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix}.\]

Así, por un lado el determinante de la matriz A^n es F_{n-1}F_{n+1}-F_n^2, usando la fórmula de determinante de 2\times 2. Por otro lado, es (-1)^n, por el argumento del problema. Con esto hemos demostrado que para cualquier entero n tenemos la siguiente identidad para los números de Fibonacci:

    \[F_{n-1}F_{n+1}-F_n^2 = (-1)^n.\]

Cálculo de determinantes de 3\times 3

Para calcular el determinante de una matriz en M_3(F) por definición, digamos de A=\begin{pmatrix}a&b&c\\ d&e&f\\ g&h&i\end{pmatrix}, tenemos que hacer una suma de 3!=6 términos. Si se hacen las cuentas de manera explícita, el valor que se obtiene es

    \[aei+bfg+cdh-ceg-afh-bdi.\]

Esto se puede recordar mediante el siguiente diagrama, en el cual se ponen la primera y la segunda columna de nuevo, a la derecha. Las diagonales hacia abajo son términos positivos y las diagonales hacia arriba son términos negativos.

Cálculo de determinantes de matrices de 3x3
Cálculo de determinantes de 3\times 3

Veamos un ejemplo de un problema en el que se puede aprovechar esta técnica.

Problema. Determina para qué reales a,b,c se tiene que los vectores (a,b,0), (a,0,b) y (0,a,b) son una base de \mathbb{R}^3.

Solución. Para que estos vectores sean una base de \mathbb{R}^3, basta con que sean linealmente independientes, pues son 3. Como hemos visto en entradas anteriores, para que sean linealmente independientes, es necesario y suficiente que el determinante de la matriz \begin{pmatrix}a&b&0\\ a&0&b\\ 0&a&b\end{pmatrix} sea distinto de cero.

Usando la técnica de arriba, hacemos siguiente diagrama:

De aquí, vemos que el determinante es

    \[0+0+0-0-a^2b-ab^2=-ab(a+b).\]

Esta expresión es igual a cero si a=0, si b=0 o si a+b=0. En cualquier otro caso, el determinante no es cero, y por lo tanto los vectores forman una base.

\square

Ten mucho cuidado. Esta técnica no funciona para matrices de 4\times 4 o más. Hay una forma sencilla de convencerse de ello. Por ejemplo, el determinante de una matriz de 4\times 4 debe tener 4!=24 sumandos. Si intentamos copiar la técnica de arriba, tendremos solamente 8 sumandos (4 en una diagonal y 4 en otra). Para cuando tenemos matrices de 4\times 4 o más, tenemos que recurrir a otras técnicas.

Reducción gaussiana para determinantes

Cuando vimos el tema de sistemas de ecuaciones hablamos del algoritmo de reducción gaussiana, y vimos que este siempre lleva una matriz en M_{m,n}(F) a su forma escalonada reducida mediante operaciones elementales. Cuando aplicamos el algoritmo a matrices en M_n(F), siempre llegamos a una matriz diagonal, en donde sabemos fácilmente calcular el determinante: es simplemente el producto de las entradas en la diagonal.

Por esta razón, es fundamental para el cálculo de determinantes saber qué le hacen las operaciones elementales al determinante de una matriz.

Teorema. Las operaciones elementales tienen el siguiente efecto en el determinante de una matriz A:

  1. Si todos los elementos de un renglón o columna de A se multiplican por \lambda, entonces el determinante se multiplica por \lambda.
  2. Cuando se intercambian dos renglones o columnas de A, el determinante se multiplica por -1.
  3. Si a un renglón de A se le suma un múltiplo escalar de otro renglón, entonces el determinante no cambia. Sucede algo análogo para columnas.

Demostración. El punto 1 ya lo demostramos en la entrada anterior, en donde vimos que el determinante es homogéneo.

Para los puntos 2 y 3, usemos que si e_1,\ldots e_n es la base canónica de F^n, el determinante de una matriz con renglones R_1,\ldots,R_n es

    \[\det_{(e_1,\ldots,e_n)}(R_1,\ldots,R_n).\]

Intercambiar los renglones i y j es hacer \det_{(e_1,\ldots,e_n)}(R_{\sigma(1)},\ldots,R_{\sigma(n)}) para la transposición \sigma que intercambia i y j. Como el determinante es antisimétrico y \sigma tiene signo -1, obtenemos la conclusión.

Hagamos ahora el tercer punto. Tomemos i\neq j y un escalar \lambda. Si al i-ésimo renglón de A le sumamos \lambda veces el j-ésimo renglón de A, esto es lo mismo que multiplicar a A por la izquierda por la matriz B que tiene unos en la diagonal y \lambda en la entrada (i,j). La matriz B es triangular, de modo que su determinante es el producto de las entradas, que es 1. De esta forma,

    \[\det(BA)=\det(B)\det(A)=\det(A).\]

\square

Así, una estrategia para calcular el determinante de una matriz es hacer reducción gaussiana hasta llegar a una matriz diagonal (incluso es suficiente que sea triangular superior) de determinante \Delta. Si en el camino se hicieron r intercambios de renglones y se multiplicaron los renglones por escalares \lambda_1,\ldots,\lambda_s, entonces el determinante de A será

    \[\frac{(-1)^r \Delta}{\lambda_1\cdot\ldots\cdot \lambda_s}.\]

Otras propiedades para calcular determinantes

Aquí recolectamos otras propiedades de determinantes que pueden ayudar a calcularlos. Ya mostramos todas ellas, salvo la número 2. Esta la mostramos después de la lista.

  1. Si se descompone una columna de una matriz como suma de dos columnas, entonces el determinantes es la suma de los determinantes en los que ponemos cada columna en vez de la original.
  2. Si A es una matriz en M_n(\mathbb{C}), entonces el determinante de la matriz conjugada \overline{A} es el conjugado del determinante de A.
  3. El determinante es multiplicativo.
  4. Si A es una matriz en M_n(F), el determinante de \lambda A es \lambda^n veces el determinante de A.
  5. El determinante de una matriz triangular es el producto de sus entradas en la diagonal.
  6. El determinante de una matriz invertible es el inverso multiplicativo del determinante de la matriz.
  7. Una matriz tiene el mismo determinante que su transpuesta.

Proposición. Si A es una matriz en M_n(\mathbb{C}), entonces el determinante de la matriz conjugada \overline{A} es el conjugado del determinante de A.

Demostración. La conjugación compleja abre sumas y productos. Aplicando esto repetidas veces obtenemos la siguiente cadena de igualdades:

    \begin{align*}\overline{\det(A)}&=\overline{\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\&=\sum_{\sigma \in S_n} \overline{\text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\&=\sum_{\sigma \in S_n} \text{sign}(\sigma)\overline{a_{1\sigma(1)}}\cdot\ldots\cdot \overline{a_{n\sigma(n)}}\\&=\det(\overline{A}).\end{align*}

\square

Hay una última técnica que es fundamental para el cálculo de determinantes: la expansión de Laplace. En algunos textos incluso se usa para definir el determinante. Probablemente la conoces: es la que consiste en hacer el determinante “con respecto a una fila o columna” y proceder de manera recursiva. Hablaremos de ella más adelante y veremos por qué funciona.

Dos problemas de cálculo de determinantes

Problema. Considera la matriz

    \[A=\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}.\]

Calcula los siguientes determinantes:

  • \det A
  • \det(^t A)
  • \det(A^{-1})
  • \det(^t A A)
  • \det(-2A)

Solución. Hagamos primero el determinante de la matriz A. Para ello, haremos operaciones elementales como sigue

    \begin{align*}&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}\\\to&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & -\frac{14}{5} & \frac{2}{5} & 1\end{pmatrix}\\\to &\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & -\frac{12}{5} & \frac{33}{5}\end{pmatrix}\\\to& \begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & 0 & \frac{189}{25}\end{pmatrix}.\end{align*}

En el primer paso sumamos 1/5 veces el primer renglón al último. Luego, sumamos 14/5 veces el segundo renglón al último. Finalmente, sumamos 12/25 veces el tercer renglón al último. De esta forma, nunca cambiamos el determinante de la matriz. Así, del determinante de A es el mismo que el de la matriz final, que por ser triangular superior es el producto de las entradas en su diagonal. De este modo,

    \[\det(A) = 5\cdot 1 \cdot 5 \cdot \frac{189}{5} = 189.\]

El determinante de una matriz es igual al de su transpuesta, así que \det(^t A)=\det(A). El determinante \det(A^{-1}) es el inverso multiplicativo de \det(A), así que es \frac{1}{189}.

Como el determinante es multiplicativo,

    \[\det({^tA}A)=\det({^tA})\det(A)=189\cdot 189=35721.\]

Finalmente, usando que el determinante es homogéneo y que estamos en M_4(\mathbb{R}), tenemos que

    \begin{align*}\det(-2A)&=(-2)^4\det(A)\\&=16\cdot 189\\&=3024.\end{align*}

\square

Problema. Sean a,b,c números complejos. Calculando el determinante de la matriz

    \[A=\begin{pmatrix}a&b&c\\ c&a&b\\ b&c&a\end{pmatrix}\]

en M_3(\mathbb{C}) de dos formas distintas, muestra que

    \[a^3+b^3+c^3-3abc=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).\]

Solución. Usando la técnica para determinantes de 3\cdot 3 tenemos que por un lado,

    \begin{align*}\det(A) &= a^3 + b^3 + c^3 - abc - bca - cab\\&=a^3+b^3+c^3-3abc.\end{align*}

Por otro lado, el determinante no cambia si al primer renglón le sumamos los otros dos, así que el determinante de A también es

    \[\begin{vmatrix}a+b+c&a+b+c&a+b+c\\ c&a&b\\ b&c&a\end{vmatrix}.\]

Como el determinante es homogéneo, podemos factorizar a+b+c de la primera entrada para obtener que

    \[\det(A)=(a+b+c)\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix}.\]

Aplicando de nuevo la fórmula de determinantes de 3\times 3, tenemos que

    \[\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix} = a^2+b^2+c^2-ab-bc-ca.\]

Concluimos entonces que

    \[\det(A)=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).\]

Igualando ambas expresiones para \det(A) obtenemos la identidad deseada.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Sea \alpha un número real. Encuentra el determinante de la matriz

        \[\begin{pmatrix}\sin \alpha & \cos \alpha \\ -\cos \alpha & \sin \alpha \end{pmatrix}.\]

  • Determina para qué valores de a la matriz

        \[\begin{pmatrix} a & 0 & a & 0 & a \\0 & a & 0 & a & 0 \\ 0 & 0 & a & 0 & 0 \\ 0 & a & 0 & a & 0 \\ a & 0 & a & 0 & a \end{pmatrix}\]

    es invertible.
  • Encuentra el determinante de la matriz

        \[\begin{pmatrix} 2 & 1 & 0 & 0 & 0 \\0 & 2 & 1 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 1 & 0 & 0 & 0 & 2 \end{pmatrix}.\]

  • Sea x un número complejo. Muestra que el determinante de la matriz

        \[\begin{pmatrix}3x^2-6x+5&2x^2-4x+2&x^2-2x\\ 2x^2-4x+2&2x^2+2x+1&x^2-x\\ x^2-2x&x^2-x&x^2\end{pmatrix}\]

    es x^6. Sugerencia. Hay una solución simple, factorizando a la matriz como el producto de dos matrices triangulares, una superior y una inferior, una transpuesta de la otra.
  • Muestra que si A=\begin{pmatrix}0& 1 \\ 1 & 1\end{pmatrix}, entonces

        \[A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix},\]

    donde \{F_n\} es la sucesión de Fibonacci. Muestra que para los números de Fibonacci se satisface que

        \[F_{2n}=F_n(F_{n+1}+F_{n-1}).\]

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial V de dimensión finita n\geq 1 sobre un campo F, una transformación lineal T:V\to V y una forma n-lineal f:V^n\to F, se puede mostrar que la transformación

    \[T_f:V^n\to F\]

dada por

    \[T_f(x_1,\ldots,x_n)=f(T(x_1),\ldots,T(x_n))\]

también es una forma n-lineal. Además, se puede mostrar que si f es alternante, entonces T_f también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea V un espacio vectorial de dimensión finita n\geq 1 sobre el campo F. Para cualquier transformación lineal T:V\to V existe un único escalar \det T en F tal que

    \[f(T(x_1),\ldots,T(x_n))=\det T\cdot f(x_1,\ldots, x_n)\]

para cualquier forma n-lineal alternante f:V^n\to F y cualquier elección x_1,\ldots,x_n de vectores en V.

Demostración. Fijemos una base B=(b_1,\ldots,b_n) cualquiera de V. Llamemos g a la forma n-lineal alternante \det_{(b_1,\ldots,b_n)}. Por la discusión de arriba, la asignación T_g:V^n\to F dada por

    \[(x_1,\ldots,x_n)\mapsto g(T(x_1),\ldots,T(x_n))\]

es una forma n-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que

    \[T_g = T_g(b_1,\ldots,b_n) \cdot g.\]

Afirmamos que \det T:= T_g(b_1,\ldots, b_n) es el escalar que estamos buscando.

En efecto, para cualquier otra forma n-lineal alternante f, tenemos por el mismo teorema que

    \[f=f(b_1,\ldots,b_n) \cdot g.\]

Usando la linealidad de T y la igualdad anterior, se tiene que

    \begin{align*}T_f &= f(b_1,\ldots,b_n)\cdot T_g\\&=f(b_1,\ldots,b_n) \cdot \det T \cdot g\\&= \det T \cdot f.\end{align*}

Con esto se prueba que \det T funciona para cualquier forma lineal f. La unicidad sale eligiendo (x_1,\ldots,x_n)=(b_1,\ldots,b_n) y f=g en el enunciado del teorema, pues esto forza a que

    \[\det T = g(T(b_1),\ldots,T(b_n)).\]

\square

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar \det T del teorema anterior es el determinante de la transformación lineal T.

Para obtener el valor de \det T, podemos entonces simplemente fijar una base B=(b_1,\ldots,b_n) y el determinante estará dado por

    \[\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n)).\]

Como el teorema también prueba unicidad, sin importar que base B elijamos este número siempre será el mismo.

Ejemplo. Vamos a encontrar el determinante de la transformación lineal T:\mathbb{R}^3 \to \mathbb{R}^3 dada por

    \[T(x,y,z)=(2z,2y,2x).\]

Para ello, usaremos la base canónica de \mathbb{R}^3. Tenemos que

    \begin{align*}T(1,0,0)&=(0,0,2)=2e_3\\T(0,1,0)&=(0,2,0)=2e_2\\T(0,0,1)&=(2,0,0)=2e_1.\end{align*}

De acuerdo al teorema anterior, podemos encontrar al determinante de T como

    \[\det T = \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1).\]

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas 1 y 3 su signo cambia en -1. Usando la 3-linealidad en cada entrada, podemos sacar un factor 2 de cada una. Así, tenemos:

    \begin{align*}\det T &= \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1)\\&= -\det_{(e_1,e_2,e_3)}(2e_1,2e_2,2e_3)\\&=-8\det_{(e_1,e_2,e_3)}(e_1,e_2,e_3)\\&=-8.\end{align*}

Concluimos entonces que el determinante de T es -8.

\square

Ejemplo. Vamos ahora a encontrar el determinante de la transformación T:\mathbb{R}_n[x]\to \mathbb{R}_n[x] que deriva polinomios, es decir, tal que T(p)=p'. Tomemos q_0=1,q_1=x,\ldots,q_n=x^n la base canónica de \mathbb{R}_n[x].

Notemos que, T(1)=0, de modo que los vectores T(1),\ldots,T(x^n) son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que

    \[\det_{(q_0,\ldots,q_n)}(T(q_0),\ldots,T(q_n))=0.\]

Concluimos entonces que \det T = 0.

\square

Determinantes de matrices

La expresión

    \[\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n))\]

para una transformación lineal T también nos permite poner al determinante en términos de las entradas de la matriz de T con respecto a la base B. Recordemos que dicha matriz A_T=[a_{ij}] tiene en la columna i las coordenadas de b_i en la base B. En otras palabras, para cada i se cumple que

    \[T(b_i)=\sum_{j=1}^n a_{ji}b_i.\]

Usando esta notación, obtenemos que

    \[\det T = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},\]

de manera que podemos expresar a \det T en términos únicamente de su matriz en la base B.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz A en M_n(F) de entradas A=[a_{ij}], el determinante de A es

    \[\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.\]

A \det A también lo escribimos a veces en notación de “matriz con barras verticales” como sigue:

    \begin{align*}\det A = \begin{vmatrix}a_{11} & a_{12} & \ldots & a_{1n}\\a_{21} & a_{22} & \ldots & a_{2n}\\\vdots & & \ddots & \vdots\\a_{n1} & a_{n2} & \ldots & a_{nn}.\end{vmatrix}\end{align*}

Ejemplo. Si queremos calcular el determinante de una matriz en M_2(F), digamos

    \[A=\begin{pmatrix} a & b \\ c & d \end{pmatrix},\]

debemos considerar dos permutaciones: la identidad y la transposición (1,2).

La identidad tiene signo 1 y le corresponde el sumando ad. La transposición tiene signo -1 y le corresponde el sumando bc. Así,

    \[\begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.\]

\square

Retomando la discusión antes de la definición, tenemos entonces que \det T = \det A_T, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de T depende de la base elegida, pero como vimos, el determinante de T no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean A y P matrices en M_n(F) con P invertible. El determinante de A y el de P^{-1}AP son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que a_{ij}=0 si i>j. Vamos a estudiar la expresión

    \[\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.\]

Si una permutación \sigma no es la identidad, entonces hay un entero i que no deja fijo, digamos \sigma(i)\neq i. Tomemos a i como el mayor entero que \sigma no deja fijo. Notemos que \sigma(i) tampoco queda fijo por \sigma pues \sigma(\sigma(i))=\sigma(i) implica \sigma(i)=i, ya que \sigma es biyectiva, y estamos suponiendo \sigma(i)\neq i. Por la maximalidad de i, concluimos que \sigma(i)<i.Entonces el sumando correspondiente a \sigma es 0 pues tiene como factor a la entrada a_{i\sigma(i)}=0.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es 1. De esta forma,

    \begin{align*}\det(A) &= \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\\&=a_{11}\cdot \ldots \cdot a_{nn}.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que la transformación T_f definida en la entrada es n-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal T:\mathbb{R}^n \to \mathbb{R}^n dada por

        \[T(x_1,x_2,\ldots,x_n)=(x_2,x_3,\ldots,x_1).\]

  • Calcula por definición el determinante de las matrices

        \[\begin{pmatrix} 3 & 2 \\ 4 & 1\end{pmatrix}\]

    y

        \[\begin{pmatrix} 1 & 2 & 4 \\ 1 & 3 & 9 \\ 1 & 4 & 16 \end{pmatrix}.\]

  • Calcula por definición el determinante de la matriz

        \[\begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 4 \\ 4 & 9 & 16\end{pmatrix}\]

    y compáralo con el de la matriz de 3\times 3 del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Álgebra Lineal I: Determinantes de vectores e independencia lineal

Introducción

En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.

En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.

Determinantes de vectores

Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.

Definición. Sea B=(b_1,\ldots,b_n) una base de un espacio vectorial V de dimensión finita n y x_1,\ldots,x_n vectores de V. Cada uno de los x_i se puede escribir como

    \[x_i=\sum_{j=1}^n a_{ji}b_j.\]

El determinante de x_1,\ldots,x_n con respecto a (b_1,\ldots,b_n) es

    \[\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},\]

y lo denotamos por \det_{(b_1,\ldots,b_n)} (x_1,\ldots,x_n).

Observa que estamos sumando tantos términos como elementos en S_n. Como existen n! permutaciones de un conjunto de n elementos, entonces la suma de la derecha tiene n! sumandos.

Ejemplo. Consideremos la base b_1=1, b_2=1+x y b_3=1+x+x^2 del espacio vectorial \mathbb{R}_2[x] de polinomios con coeficientes reales y grado a lo más 2. Tomemos los polinomios v_1=1, v_2=2x y v_3=3x^2. Vamos a calcular el determinante de v_1, v_2, v_3 con respecto a la base (b_1,b_2,b_3).

Para hacer eso, lo primero que tenemos que hacer es expresar a v_1, v_2, v_3 en términos de la base. Hacemos esto a continuación:

    \begin{align*}v_1&= 1\cdot b_1 + 0 \cdot b_2 + 0 \cdot b_3\\v_2&= -2\cdot b_1 + 2 \cdot b_2 + 0 \cdot b_3\\v_3&= 0 \cdot b_1 - 3 \cdot b_2 +3 b_3.\end{align*}

De aquí, obtenemos

    \begin{align*}a_{11}&=1, a_{21}=0, a_{31}=0,\\a_{12}&=-2, a_{22}=2, a_{32}=0,\\a_{13}&=0, a_{23}=-3, a_{33}=3.\end{align*}

Si queremos calcular el determinante, tenemos que considerar las 3!=3\cdot 2 \cdot 1 = 6 permutaciones en S_3. Estas permutaciones son

    \begin{align*}\sigma_1 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 3\end{pmatrix}\\\sigma_2 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 3 & 2\end{pmatrix}\\\sigma_3 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 1 & 3\end{pmatrix}\\\sigma_4 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 3 & 1\end{pmatrix}\\\sigma_5 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 2 & 1\end{pmatrix}\\\sigma_6 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 1 & 2\end{pmatrix}.\end{align*}

Los signos de \sigma_1,\ldots,\sigma_6 son, como puedes verificar, 1, -1, -1, 1, -1 y 1, respectivamente.

El sumando correspondiente a \sigma_1 es

(1)   \begin{align*}\text{sign}(\sigma_1) &a_{1\sigma_1(1)}a_{2\sigma_1(2)}a_{3\sigma_1(3)}\\&= 1 \cdot a_{11}a_{22}a_{33}\\&=1\cdot 1\cdot 2 \cdot 3 = 6.\end{align*}

El sumando correspondiente a \sigma_2 es

(2)   \begin{align*}\text{sign}(\sigma_2) &a_{1\sigma_2(1)}a_{2\sigma_2(2)}a_{3\sigma_2(3)}\\&= (-1) \cdot a_{11}a_{23}a_{32}\\&=(-1) \cdot 1\cdot (-3) \cdot 0 = 0.\end{align*}

Continuando de esta manera, se puede ver que los sumandos correspondientes a \sigma_1,\ldots,\sigma_6 son

    \[+6,-0,-0,+0,-0,+0,\]

respectivamente de modo que el determinante es 6.

\square

La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.

Proposición. Sea B=(b_1,\ldots,b_n) una base de un espacio vectorial V de dimensión finita n. El determinante de B con respecto a sí mismo es 1.

Demostración. Cuando escribimos a b_i en términos de la base b, tenemos que

    \[b_i=\sum_{j=1}^n a_{ji} b_j.\]

Como la expresión en una base es única, debemos tener a_{ii}=1 y a_{ji}=0 si j\neq i. Ahora, veamos qué le sucede al determinante

    \[\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.\]

Si \sigma es una permutación tal que \sigma(i)\neq i para alguna i, entonces en el producto del sumando correspondiente a \sigma aparece a_{i\sigma(i)}=0, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando \sigma es la permutación identidad.

Como el signo de la identidad es 1 y cada a_{ii} es 1, tenemos que el determinante es

    \begin{align*}\sum_{\sigma \in S_n} \text{sign}&(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)} \\&=a_{11}\cdot\ldots\cdot a_{nn}\\ &= 1\cdot\ldots\cdot 1 \\&  = 1.\end{align*}

\square

El determinante es una forma n-lineal alternante

La razón por la cual hablamos de transformaciones n-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.

Teorema. Sea B=(b_1,\ldots,b_n) una base de un espacio vectorial V sobre F. Entonces la transformación \det_{(b_1,\ldots,b_n)}:V^n \to F es una forma n-lineal y alternante.

Demostración. La observación clave para demostrar este resultado es que \det_{(b_1,\ldots,b_n)} se puede reescribir en términos de la base dual b_1^\ast, \ldots, b_n^\ast. En efecto, recuerda que b_i^\ast es la forma lineal que “lee” la coordenada de un vector v escrito en la base B. De esta forma,

    \begin{align*}\det_{(b_1,\ldots,b_n)}&(v_1,\ldots,v_n)\\&=\sum_{\sigma\in S_n}\left(\text{sign}(\sigma) \prod_{j=1}^n b_j^\ast(v_{\sigma(j)})\right)\\\end{align*}

Para cada permutación \sigma, el sumando correspondiente es una forma n-lineal, pues es producto de n formas lineales evaluadas en los distintos vectores. Así que \det_{(b_1,\ldots,b_n)} es suma de formas n-lineales y por lo tanto es forma n-lineal.

Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a 0 cuando algún par de sus entradas son iguales. Supongamos que i\neq j y que v_i=v_j. Tomemos \tau a la transposición que intercambia a i y a j. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación \sigma, tenemos que \sigma\tau tiene signo diferente.

Además, para cualquier \sigma tenemos que

    \[a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\]

y

    \[a_{1\sigma\tau(1)}\cdot\ldots\cdot a_{n\sigma\tau(n)}\]

son iguales, pues v_i=v_j. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es 0.

\square

Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.

Corolario. La forma n-lineal \det_{(b_1,\ldots,b_n)} es antisimétrica.

Los determinantes de vectores son las “únicas” formas n-lineales alternantes

Ya vimos que el determinante es una forma n-lineal alternante. Veamos ahora por qué decimos que es “la única”. El siguiente resultado dice que cualquier otra forma n-lineal alternante varía de \det_{(b_1,\ldots,b_n)} únicamente por un factor multiplicativo.

Teorema. Sea B=(b_1,\ldots,b_n) una base de un espacio vectorial V. Si f:V^n \to F es cualquier forma n-lineal y alternante, entonces

    \[f=f(b_1,\ldots,b_n)\det_{(b_1,\ldots,b_n)}.\]

Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores x_1,\ldots,x_n. Escribamos a cada x_i en términos de la base B:

    \[x_i=\sum_{j=1}^n a_{ij}b_j.\]

Usando la n-linealidad de f en cada una de las entradas, tenemos que

    \begin{align*}f(x_1,\ldots,x_n)&=\sum_{i=1}^n a_{1i} f(b_i,x_2,\ldots,x_n)\\&=\sum_{i,j=1}^n a_{1i}a_{2i} f(b_i,b_j,x_3,\ldots,x_n)\\&=\ldots\\&=\sum_{i_1,\ldots,i_n = 1}^n a_{1i_1}\ldots a_{ni_n} f(b_{i_1},\ldots,b_{i_n}).\end{align*}

Aquí hay muchos términos, pero la mayoría de ellos son 0. En efecto, si b_{i_k}=b_{i_l}, como f es alternante tendríamos que ese sumando es 0. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe \sigma en S_n tal que para i_k=\sigma(k).

Por lo tanto, podemos simplificar la expresión anterior a

    \[f(x_1,\ldots,x_n)=\sum_{\sigma \in S_n}a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_{\sigma(1)},\ldots,b_{\sigma(n)}).\]

Como f es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como

    \begin{align*}&=\sum_{\sigma \in S_n} \text{sign}(\sigma) a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_1,\ldots,b_n)\\&=f(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots, x_n). \end{align*}

Esto es justo lo que queríamos probar.

\square

Los determinantes de vectores caracterizan bases

Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.

Corolario. En un espacio vectorial V de dimensión n son equivalentes las siguientes tres afirmaciones para vectores x_1,\ldots,x_n de V:

  1. El determinante de x_1,\ldots,x_n con respecto a toda base es distinto de 0.
  2. El determinante de x_1,\ldots,x_n con respecto a alguna base es distinto de 0.
  3. x_1,\ldots,x_n es una base de V.

Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.

Ahora, probemos que la afirmación (2) implica la afirmación (3). Como x_1,\ldots,x_n son n vectores y n es la dimensión de V, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a 0. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en x_1,\ldots, x_n, entonces deben ser linealmente independientes y por lo tanto formar una base.

Finalmente, probemos que (3) implica (1). Tomemos B=(b_1,\ldots,b_n) otra base de V. Como \det_{(x_1,\ldots,x_n)} es una forma n-lineal, podemos aplicar el teorema anterior y evaluar en x_1,\ldots,x_n para concluir que

    \begin{align*}\det_{(x_1,\ldots,x_n)}&(x_1,\ldots,x_n)&\\&=\det_{(x_1,\ldots,x_n)}(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots,x_n).\end{align*}

El término de la izquierda es igual a 1, de modo que ambos factores a la derecha deben ser distintos de 0.

\square

Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de 1, 2x y 3x^2 con respecto a la base 1, 1+x y 1+x+x^2 es igual a 6. De acuerdo al teorema anterior, esto implica que 1, 2x y 3x^2 es un conjunto linealmente independiente de polinomios, y de hecho una base.

Además, el teorema anterior también implica que sin importar que otra base B de \mathbb{R}_2[x] tomemos, el determinante de 1, 2x y 3x^2 con respecto a B también será distinto de 0.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Cuántos sumandos tendrá el determinante de 5 vectores en un espacio vectorial de dimensión 5 con respecto a cualquier base? Da el número de manera explícita.
  • Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a \sigma_1,\ldots,\sigma_6 son los que se enuncian.
  • Encuentra el determinante de los vectores (3,1) y (2,4) con respecto a la base ((5,1), (2,3)) de \mathbb{R}^2.
  • Muestra que los vectores (1,4,5,2), (0,3,2,1), (0,0,-1,4) y (0,0,0,1) son linealmente independientes calculando por definición su determinante con respecto a la base canónica de \mathbb{R}^4.
  • Usa un argumento de determinantes para mostrar que los vectores (1,4,3), (2,-2,9), (7,8,27) de \mathbb{R}^3 no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.