Archivo de la etiqueta: transpuesta

Álgebra Lineal I: Técnicas básicas de cálculo de determinantes

Introducción

Ya definimos a los determinantes para vectores, para transformaciones y para matrices. Además, mostramos algunas propiedades básicas de determinantes y las usamos para resolver varios problemas. Como hemos discutido, los determinantes guardan información importante sobre una transformación lineal o sobre una matriz. También ayudan a implementar la técnica de diagonalización la cual introdujimos hace algunas entradas y en la cual profundizaremos después. Es por esta razón que es importante tener varias técnicas para el cálculo de determinantes.

Fuera de este curso, los determinantes sirven en muchas otras áreas de las matemáticas. Cuando se hace cálculo de varias variables ayudan a enunciar el teorema del cambio de variable. En combinatoria ayudan a calcular el número de árboles generadores de una gráfica. Más adelante en tu formación matemática es probable que te encuentres con otros ejemplos.

Calculo de determinantes de 2\times 2

Como ya discutimos anteriormente, una matriz en M_2(F), digamos A=\begin{pmatrix}a&b\\ c&d\end{pmatrix} tiene determinante ad-bc.

Problema. Calcula el determinante de la matriz

    \[\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}^8.\]

Solución. Por la fórmula para el determinante de las matrices de 2\times 2, se tiene que \begin{vmatrix} 0 & 1\\ 1 & 1\end{vmatrix} = 0\cdot 1 - 1\cdot 1 = -1.

Como el determinante es multiplicativo, \det(A^2)=\det(A)\det(A)=(\det(A))^2, e inductivamente se puede mostrar que para todo entero positivo n se tiene que \det(A^n)=(\det(A))^n. De esta forma, el determinante que buscamos es (-1)^8=1.

\square

Observa que hubiera tomado más trabajo elevar la matriz a la octava potencia. Aunque esto usualmente no es recomendable, en este problema hay algo interesante que sucede con esta matriz. Llamémosla A=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}. Haciendo las cuentas para las primeras potencias, se tiene que

    \begin{align*}A&=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}\\A^2&=\begin{pmatrix} 1 & 1\\ 1 & 2\end{pmatrix}\\A^3&=\begin{pmatrix} 1 & 2\\ 2 & 3\end{pmatrix}\\A^4&=\begin{pmatrix} 2 & 3\\ 3 & 5\end{pmatrix}\\A^5&=\begin{pmatrix} 3 & 5\\ 5 & 8\end{pmatrix}\end{align*}

Aquí aparece la sucesión de Fibonacci, dada por F_0=0, F_1=1 y F_{n+2}=F_{n+1}+F_n para n\geq 0, cuyos primeros términos son

    \[0,1,1,2,3,5,8,13,21,\ldots.\]

De hecho se puede probar por inducción que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix}.\]

Así, por un lado el determinante de la matriz A^n es F_{n-1}F_{n+1}-F_n^2, usando la fórmula de determinante de 2\times 2. Por otro lado, es (-1)^n, por el argumento del problema. Con esto hemos demostrado que para cualquier entero n tenemos la siguiente identidad para los números de Fibonacci:

    \[F_{n-1}F_{n+1}-F_n^2 = (-1)^n.\]

Cálculo de determinantes de 3\times 3

Para calcular el determinante de una matriz en M_3(F) por definición, digamos de A=\begin{pmatrix}a&b&c\\ d&e&f\\ g&h&i\end{pmatrix}, tenemos que hacer una suma de 3!=6 términos. Si se hacen las cuentas de manera explícita, el valor que se obtiene es

    \[aei+bfg+cdh-ceg-afh-bdi.\]

Esto se puede recordar mediante el siguiente diagrama, en el cual se ponen la primera y la segunda columna de nuevo, a la derecha. Las diagonales hacia abajo son términos positivos y las diagonales hacia arriba son términos negativos.

Cálculo de determinantes de matrices de 3x3
Cálculo de determinantes de 3\times 3

Veamos un ejemplo de un problema en el que se puede aprovechar esta técnica.

Problema. Determina para qué reales a,b,c se tiene que los vectores (a,b,0), (a,0,b) y (0,a,b) son una base de \mathbb{R}^3.

Solución. Para que estos vectores sean una base de \mathbb{R}^3, basta con que sean linealmente independientes, pues son 3. Como hemos visto en entradas anteriores, para que sean linealmente independientes, es necesario y suficiente que el determinante de la matriz \begin{pmatrix}a&b&0\\ a&0&b\\ 0&a&b\end{pmatrix} sea distinto de cero.

Usando la técnica de arriba, hacemos siguiente diagrama:

De aquí, vemos que el determinante es

    \[0+0+0-0-a^2b-ab^2=-ab(a+b).\]

Esta expresión es igual a cero si a=0, si b=0 o si a+b=0. En cualquier otro caso, el determinante no es cero, y por lo tanto los vectores forman una base.

\square

Ten mucho cuidado. Esta técnica no funciona para matrices de 4\times 4 o más. Hay una forma sencilla de convencerse de ello. Por ejemplo, el determinante de una matriz de 4\times 4 debe tener 4!=24 sumandos. Si intentamos copiar la técnica de arriba, tendremos solamente 8 sumandos (4 en una diagonal y 4 en otra). Para cuando tenemos matrices de 4\times 4 o más, tenemos que recurrir a otras técnicas.

Reducción gaussiana para determinantes

Cuando vimos el tema de sistemas de ecuaciones hablamos del algoritmo de reducción gaussiana, y vimos que este siempre lleva una matriz en M_{m,n}(F) a su forma escalonada reducida mediante operaciones elementales. Cuando aplicamos el algoritmo a matrices en M_n(F), siempre llegamos a una matriz triangular, en donde sabemos fácilmente calcular el determinante: es simplemente el producto de las entradas en la diagonal. Nota cómo lo anterior también se cumple para las matrices diagonales, pues son un caso particular de matrices triangulares.

Por esta razón, es fundamental para el cálculo de determinantes saber qué le hacen las operaciones elementales al determinante de una matriz.

Teorema. Las operaciones elementales tienen el siguiente efecto en el determinante de una matriz A:

  1. Si todos los elementos de un renglón o columna de A se multiplican por \lambda, entonces el determinante se multiplica por \lambda.
  2. Cuando se intercambian dos renglones o columnas de A, el determinante se multiplica por -1.
  3. Si a un renglón de A se le suma un múltiplo escalar de otro renglón, entonces el determinante no cambia. Sucede algo análogo para columnas.

Demostración. El punto 1 ya lo demostramos en la entrada anterior, en donde vimos que el determinante es homogéneo.

Para los puntos 2 y 3, usemos que si e_1,\ldots e_n es la base canónica de F^n, el determinante de una matriz con renglones R_1,\ldots,R_n es

    \[\det_{(e_1,\ldots,e_n)}(R_1,\ldots,R_n).\]

Intercambiar los renglones i y j es hacer \det_{(e_1,\ldots,e_n)}(R_{\sigma(1)},\ldots,R_{\sigma(n)}) para la transposición \sigma que intercambia i y j. Como el determinante es antisimétrico y \sigma tiene signo -1, obtenemos la conclusión.

Hagamos ahora el tercer punto. Tomemos i\neq j y un escalar \lambda. Si al i-ésimo renglón de A le sumamos \lambda veces el j-ésimo renglón de A, esto es lo mismo que multiplicar a A por la izquierda por la matriz B que tiene unos en la diagonal y \lambda en la entrada (i,j). La matriz B es triangular, de modo que su determinante es el producto de las entradas, que es 1. De esta forma,

    \[\det(BA)=\det(B)\det(A)=\det(A).\]

\square

Así, una estrategia para calcular el determinante de una matriz es hacer reducción gaussiana hasta llegar a una matriz diagonal (incluso es suficiente que sea triangular superior) de determinante \Delta. Si en el camino se hicieron r intercambios de renglones y se multiplicaron los renglones por escalares \lambda_1,\ldots,\lambda_s, entonces el determinante de A será

    \[\frac{(-1)^r \Delta}{\lambda_1\cdot\ldots\cdot \lambda_s}.\]

Otras propiedades para calcular determinantes

Aquí recolectamos otras propiedades de determinantes que pueden ayudar a calcularlos. Ya mostramos todas ellas, salvo la número 2. Esta la mostramos después de la lista.

  1. Si se descompone una columna de una matriz como suma de dos columnas, entonces el determinantes es la suma de los determinantes en los que ponemos cada columna en vez de la original.
  2. Si A es una matriz en M_n(\mathbb{C}), entonces el determinante de la matriz conjugada \overline{A} es el conjugado del determinante de A.
  3. El determinante es multiplicativo.
  4. Si A es una matriz en M_n(F), el determinante de \lambda A es \lambda^n veces el determinante de A.
  5. El determinante de una matriz triangular es el producto de sus entradas en la diagonal.
  6. El determinante de una matriz invertible es el inverso multiplicativo del determinante de la matriz.
  7. Una matriz tiene el mismo determinante que su transpuesta.

Proposición. Si A es una matriz en M_n(\mathbb{C}), entonces el determinante de la matriz conjugada \overline{A} es el conjugado del determinante de A.

Demostración. La conjugación compleja abre sumas y productos. Aplicando esto repetidas veces obtenemos la siguiente cadena de igualdades:

    \begin{align*}\overline{\det(A)}&=\overline{\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\&=\sum_{\sigma \in S_n} \overline{\text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\&=\sum_{\sigma \in S_n} \text{sign}(\sigma)\overline{a_{1\sigma(1)}}\cdot\ldots\cdot \overline{a_{n\sigma(n)}}\\&=\det(\overline{A}).\end{align*}

\square

Hay una última técnica que es fundamental para el cálculo de determinantes: la expansión de Laplace. En algunos textos incluso se usa para definir el determinante. Probablemente la conoces: es la que consiste en hacer el determinante «con respecto a una fila o columna» y proceder de manera recursiva. Hablaremos de ella más adelante y veremos por qué funciona.

Dos problemas de cálculo de determinantes

Problema. Considera la matriz

    \[A=\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}.\]

Calcula los siguientes determinantes:

  • \det A
  • \det(^t A)
  • \det(A^{-1})
  • \det(^t A A)
  • \det(-2A)

Solución. Hagamos primero el determinante de la matriz A. Para ello, haremos operaciones elementales como sigue

    \begin{align*}&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}\\\to&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & -\frac{14}{5} & \frac{2}{5} & 1\end{pmatrix}\\\to &\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & -\frac{12}{5} & \frac{33}{5}\end{pmatrix}\\\to& \begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & 0 & \frac{189}{25}\end{pmatrix}.\end{align*}

En el primer paso sumamos 1/5 veces el primer renglón al último. Luego, sumamos 14/5 veces el segundo renglón al último. Finalmente, sumamos 12/25 veces el tercer renglón al último. De esta forma, nunca cambiamos el determinante de la matriz. Así, del determinante de A es el mismo que el de la matriz final, que por ser triangular superior es el producto de las entradas en su diagonal. De este modo,

    \[\det(A) = 5\cdot 1 \cdot 5 \cdot \frac{189}{5} = 189.\]

El determinante de una matriz es igual al de su transpuesta, así que \det(^t A)=\det(A). El determinante \det(A^{-1}) es el inverso multiplicativo de \det(A), así que es \frac{1}{189}.

Como el determinante es multiplicativo,

    \[\det({^tA}A)=\det({^tA})\det(A)=189\cdot 189=35721.\]

Finalmente, usando que el determinante es homogéneo y que estamos en M_4(\mathbb{R}), tenemos que

    \begin{align*}\det(-2A)&=(-2)^4\det(A)\\&=16\cdot 189\\&=3024.\end{align*}

\square

Problema. Sean a,b,c números complejos. Calculando el determinante de la matriz

    \[A=\begin{pmatrix}a&b&c\\ c&a&b\\ b&c&a\end{pmatrix}\]

en M_3(\mathbb{C}) de dos formas distintas, muestra que

    \[a^3+b^3+c^3-3abc=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).\]

Solución. Usando la técnica para determinantes de 3\cdot 3 tenemos que por un lado,

    \begin{align*}\det(A) &= a^3 + b^3 + c^3 - abc - bca - cab\\&=a^3+b^3+c^3-3abc.\end{align*}

Por otro lado, el determinante no cambia si al primer renglón le sumamos los otros dos, así que el determinante de A también es

    \[\begin{vmatrix}a+b+c&a+b+c&a+b+c\\ c&a&b\\ b&c&a\end{vmatrix}.\]

Como el determinante es homogéneo, podemos factorizar a+b+c de la primera entrada para obtener que

    \[\det(A)=(a+b+c)\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix}.\]

Aplicando de nuevo la fórmula de determinantes de 3\times 3, tenemos que

    \[\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix} = a^2+b^2+c^2-ab-bc-ca.\]

Concluimos entonces que

    \[\det(A)=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).\]

Igualando ambas expresiones para \det(A) obtenemos la identidad deseada.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Sea \alpha un número real. Encuentra el determinante de la matriz

        \[\begin{pmatrix}\sin \alpha & \cos \alpha \\ -\cos \alpha & \sin \alpha \end{pmatrix}.\]

  • Determina para qué valores de a la matriz

        \[\begin{pmatrix} a & 0 & a & 0 & a \\0 & a & 0 & a & 0 \\ 0 & 0 & a & 0 & 0 \\ 0 & a & 0 & a & 0 \\ a & 0 & a & 0 & a \end{pmatrix}\]

    es invertible.
  • Encuentra el determinante de la matriz

        \[\begin{pmatrix} 2 & 1 & 0 & 0 & 0 \\0 & 2 & 1 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 1 & 0 & 0 & 0 & 2 \end{pmatrix}.\]

  • Sea x un número complejo. Muestra que el determinante de la matriz

        \[\begin{pmatrix}3x^2-6x+5&2x^2-4x+2&x^2-2x\\ 2x^2-4x+2&2x^2+2x+1&x^2-x\\ x^2-2x&x^2-x&x^2\end{pmatrix}\]

    es x^6. Sugerencia. Hay una solución simple, factorizando a la matriz como el producto de dos matrices triangulares, una superior y una inferior, una transpuesta de la otra.
  • Muestra que si A=\begin{pmatrix}0& 1 \\ 1 & 1\end{pmatrix}, entonces

        \[A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix},\]

    donde \{F_n\} es la sucesión de Fibonacci. Muestra que para los números de Fibonacci se satisface que

        \[F_{2n}=F_n(F_{n+1}+F_{n-1}).\]

Más adelante…

En esta entrada vimos varias formas para calcular el determinante de una matriz. Cuando nos enfrentemos con un problema que requiere el cálculo de un determinante, tenemos que elegir la que más nos convenga (o la que requiera menos pasos). La mejor forma de desarrollar un poco de «intuición» al momento de elegir el mejor método para calcular determinantes es haciendo ejercicios.

A continuación pondremos en práctica lo que aprendimos en esta entrada haciendo varios ejercicios de cálculo de determinantes.

Entradas relacionadas

Álgebra Lineal I: Propiedades de determinantes

Introducción

Para esta entrada enunciaremos y demostraremos algunas de las propiedades más importantes de los determinantes tanto para transformaciones lineales como para matrices. Estas propiedades de determinantes y en general el concepto de determinante tiene numerosas aplicaciones en otras áreas de las matemáticas como el cálculo de volúmenes n-dimensionales o el wronskiano en ecuaciones diferenciales, sólo por mencionar algunos, por eso es importante analizar a detalle el determinante de los distintos tipos de matrices y transformaciones lineales que conocemos.

Como recordatorio, veamos qué hemos hecho antes de esta entrada. Primero, transformaciones multilineales. De ellas, nos enfocamos en las que son alternantes y antisimétricas. Definimos el determinante para un conjunto de vectores con respecto a una base, y vimos que, en cierto sentido, son las únicas formas n-lineal alternantes en un espacio vectorial de dimensión n. Gracias a esto, pudimos mostrar que los determinantes para transformaciones lineales están bien definidos, y con ellos motivar la definición de determinante para matrices.

El determinante es homogéneo

La primera de las propiedades de determinantes que enunciaremos tiene que ver con «sacar escalares» del determinante.

Teorema. Sea A una matriz en M_n(F).

  1. Si multiplicamos un renglón o una columna de A por un escalar \lambda, entonces su determinante se multiplica por \lambda.
  2. Se tiene que \det(\lambda A)=\lambda^n A.

Demostración. 1. Sea A_j la matriz obtenida me multiplicar el j-ésimo renglón por \lambda. Siguiendo la definición de determinante vista en la entrada de ayer (determinantes de matrices) vemos que

    \begin{align*}\det A_j&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots \lambda a_{j\sigma(j)}\dots a_{n\sigma(n)}\\&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda a_{1\sigma(1)}\dots a_{n\sigma(n)}\\&= \lambda \det A.\end{align*}

La demostración para la j-ésima columna queda como tarea moral.

2. Sea \lamda A=[\lambda a_{ij}], entonces por definición tenemos

    \begin{align*}\det (\lambda A)&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)(\lambda a_{1\sigma(1)})\dots (\lambda a_{n\sigma(n)})\\&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda^n a_{1\sigma(1)}\dots a_{n\sigma(n)}\\&=\lambda^n \cdot \det A\end{align*}

De manera alternativa, podemos aplicar el primer inciso n veces, una por cada renglón.

\square

Aquí arriba hicimos la prueba explícita a partir de la definición. Una forma alternativa de proceder es notar que el determinante de una matriz es precisamente el determinante \det (de vectores) con respecto a la base canónica de F^n evaluada en los renglones de A. Al multiplicar uno de los renglones por \lambda, el vector entrada de \det se multiplica por \lambda. El resultado se sigue inmediatamente de que \det es una forma n-lineal.

El determinante es multiplicativo

Quizás de entre las propiedades de determinantes, la más importante es que es multiplicativo. Mostraremos esto a continuación.

Teorema. Sea V un espacio vectorial de dimensión finita y transformaciones lineales T_1:V\to V, T_2:V\to V. Se tiene que

    \[\det(T_1\circ T_2) = \det T_1\cdot \det T_2.\]

Demostración. Sea (v_1,\dots , v_n) una base cualquiera de V. Del resultado visto en la entrada anterior y la definición de determinante, se sigue que

    \begin{align*}\det (T_1 \circ T_2)&= \det _{(v_1,\dots , v_n)}(T_1(T_2(v_1)),\dots , T_1(T_2(v_n)))\\&=\det T_1 \cdot \det_{(v_1,\dots , v_n)}(T_2(v_1), \dots , T_2(v_n))\\&= \det T_1 \cdot \det T_2.\end{align*}

\square

Observa cómo la demostración es prácticamente inmediata, y no tenemos que hacer ningún cálculo explícito en términos de coordenadas. La demostración de que el determinante es multiplicativo para las matrices también es muy limpia.

Teorema. Sean A y B matrices en M_n(F). Se tiene que

    \[\det(AB)=\det A \cdot \det B.\]

Demostración. Sean V=F^n, T_1:V\to V la transformación lineal definida por x\mapsto Ax y similarmente T_2:V\to V la transformación lineal definida por x\mapsto Bx. Sabemos que A, B, AB son las matrices asociadas a T_1, T_2, T_1\circ T_2 con respecto a la base canónica, respectivamente.

Recordemos que para una transformación lineal T en V, \det T = \det A_T, para una matriz que la represente en cualquier base. Entonces

    \begin{align*}\det(AB)&=\det A_{T_1\circ T_2}\\&= \det T_1\circ T_2\\&=\det T_1 \cdot \det T_2\\&=\det A_{T_1} \cdot \det A_{T_2} \\&= \det A \cdot \det B.\end{align*}

\square

Nota que hubiera sido muy complicado demostrar que el determinante es multiplicativo a partir de su definición en términos de permutaciones.

El determinante detecta matrices invertibles

Otra de las propiedades fundamentales del determinante es que nos ayuda a detectar cuándo una matriz es invertible. Esto nos permite agregar una equivalencia más a la lista de equivalencias de matrices invertibles que ya teníamos.

Teorema. Una matriz A en M_n(F) es invertible si y sólo si \det A\neq 0.

Demostración. Supongamos que A es invertible, entonces existe B\in M_n(F) tal que AB=I_n=BA.
Así,

1=\det I_n = \det (AB) = \det A \cdot \det B.

Como el lado izquierdo es 1, ambos factores del lado derecho son distintos de 0. Por lo tanto \det A \neq 0. Nota que además esta parte de la prueba nos dice que \det A^{-1}=(\det A)^{-1}.

Ahora supongamos que \det A \neq 0. Sea (e_1, \dots , e_n) la base canónica de F^n y C_1,\dots , C_n las columnas de A. Como \det_{(e_1,\ldots,e_n)} es una forma lineal alternante, sabemos que si C_1,\ldots,C_n fueran linealmente dependientes, la evaluación daría cero. Ya que la columna C_i es la imagen bajo A de e_i, entonces

\det A =\det _{(e_1,\dots , e_n)}(C_1, \dots , C_n) \neq 0.

Por lo tanto los vectores C_1, \dots , C_n son linealmente independientes y así \text{rank}(A)=n. Se sigue que A es una matriz invertible.

\square

Determinante de transformación y matriz transpuesta

Una cosa que no es totalmente evidente a partir de la definición de determinante para matrices es que el determinante no cambia si transponemos una matriz o una transformación lineal. Esta es la última de las propiedades de determinantes que probaremos ahora.

Teorema. Sea A una matriz en M_n(F). Se tiene que

    \[\det({^tA})=\det A.\]

Demostración. Por definición

\det({^tA})=\displaystyle\sum_{\sigma \in S_n}\text{sign}(\sigma^{-1})a_{\sigma^{-1}(1)1 \dots a_{\sigma^{-1}(n)n}}.

Luego, para cualquier permutación \sigma se tiene

    \[a_{\sigma(1)1}\dots a_{\sigma(n)n}=a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}\]

pues a_{i\sigma^{-1}(i)}=a_{\sigma(j)j}, donde j=\sigma^{-1}(i).
También vale la pena notar que

    \[\text{sign}(\sigma^{-1})=\text{sign}(\sigma)^{-1}=\text{sign}(\sigma).\]

De lo anterior se sigue que

    \begin{align*}\det({^tA})&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma^{-1})a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}\\&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots a_{n\sigma(n)}\\&=\det A.\end{align*}

\square

Teorema. Sea V un espacio vectorial de dimensión finita T:V\to V una transformación lineal. Se tiene que

    \[\det(^t T) = \det T.\]

Demostración. Sea A la matriz asociada a T, entonces ^tA es la matriz asociada a ^tT. Luego

    \[\det (^tT)=\det (^tA)=\det A = \det T.\]

\square

Veamos un ejemplo de un problema en el que podemos aplicar algunas de las propiedades anteriores.

Problema. Sea A\in M_n(F) una matriz antisimétrica para algún n impar. Demuestra que \det(A)=0.

Demostración. Como A=-A^t, entonces \det A = \det (- {^tA}), pero \det A = \det ({^tA}).
Se sigue que

    \begin{align*}\det ({^tA}) &= \det  (-{^tA})\\&=(-1)^n \det ({^tA})\\&=-\det ({^tA}).\end{align*}

Concluimos \det (^tA)=0

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que al multiplicar una columna de una matriz por \lambda, entonces su determinante se multiplica por \lambda.
  • Demuestra que si una matriz tiene dos columnas iguales, entonces su determinante es igual a cero.
  • Analiza cómo es el determinante de una matriz antisimétrica A\in M_n(F) con n par.
  • Formaliza la frase «el determinante detecta transformaciones invertibles» en un enunciado matemático. Demuéstralo.

Más adelante…

En esta entrada enunciamos y demostramos varias propiedades de los determinantes. Ahora, vamos a ponerlas en práctica resolviendo algunos problemas.

En las siguientes entradas, que constituyen la parte final del curso, vamos a hablar de diferentes técnicas para calcular el determinante de una matriz y obtendremos sus eigenvalores y eigenvectores. Vamos a ver cómo esto nos conduce a uno de los teoremas más importantes del curso de Algebra Lineal I: el teorema espectral.

Entradas relacionadas

Álgebra Lineal I: Ortogonalidad y transformación transpuesta

Introducción

En entradas anteriores ya estudiamos la noción de espacio dual y la de ortogonalidad. También vimos cómo a partir de la ortogonalidad podemos definir subespacios como intersección de hiperplanos. Como veremos a continuación, la ortogonalidad también nos permite definir qué quiere decir que consideremos la «transformación transpuesta» de una transformación lineal.

Antes de comenzar, vale la pena recordar también que cada transformación lineal entre espacios de dimensión finita puede ser expresada mediante una matriz que depende de la elección de bases de los espacios vectoriales. Como tal vez te imaginarás, la transformación transpuesta tendrá como matriz a la matriz transpuesta de la transformación original.

Esta intuición nos dice que hay que tener cuidado. Supongamos que estamos trabajando sobre un campo F. Si tenemos espacios vectoriales V de dimensión n, W de dimensión m y una tranformación lineal T:V\to W, recordemos que, tras elegir bases, T está representada por una matriz A en M_{m,n}(F), es decir, con m filas y n columnas.

Pero la matriz transpuesta ^t A es de n filas y m columnas, así que típicamente no representará a una transformación de V a W, pues las dimensiones no necesariamente coinciden. Podríamos intentar construir una transformación de W a V para que las dimensiones coincidan, pero resulta que esto no es «tan natural», por razones en las que no profundizaremos.

Lo que sí resulta muy natural y fácil de definir es una transformación de W^\ast a V^\ast, lo cual tendrá sentido pues ya probamos que \dim W^\ast = \dim W y \dim V^\ast = \dim V, así que será representada por una matriz en M_{n,m}. Es un poco más difícil conceptualmente, pero las consecuencias matemáticas son más bonitas y útiles. Sin decir más, comenzamos con la teoría.

Definición y ejemplo de transformación transpuesta

Para definir «transformación transpuesta», le hacemos como sigue.

Definición. Sean V y W espacios vectoriales sobre un campo F y sea T:V\to W una transformación lineal. Definimos la transformación transpuesta de T, como la transformación ^tT:W^\ast \to V^\ast tal que a cada forma lineal l en W^\ast la manda a la forma lineal ^tT(l) en V^\ast para la cual

    \[(^tT(l))(v)=l(T(v)).\]

Otra forma de escribir a la definición es mediante la notación de emparejamiento canónico:

    \[\langle ^tT(l),v\rangle=\langle l, T(v)\rangle.\]

Veamos un ejemplo para entender mejor la definición.

Ejemplo. Considera a V=M_{2}(\mathbb{R}) y W=\mathbb{R}^2. Considera la transformación lineal T:V\to W dada por

    \[T\begin{pmatrix} a& b\\ c&d\end{pmatrix}=(a+b,c+d).\]

La transformación ^t T va a mandar a una forma lineal l de W a una forma lineal ^tT(l) de V. Las formas lineales l en W se ven de la siguiente forma

    \[l(x,y)=rx+sy.\]

La forma lineal ^tT(l) en V debe satisfacer que ^tT(l)=l\circ T. En otras palabras, para cualquier matriz \begin{pmatrix} a& b\\ c&d\end{pmatrix} se debe tener

    \begin{align*}(^t T(l)) \begin{pmatrix} a& b\\ c&d\end{pmatrix} &= l(a+b,c+d)\\&=r(a+b)+s(c+d)\\&=ra+rb+sc+sd.\end{align*}

Si tomamos la base canónica E_{11}, E_{12}, E_{21}, E_{22} de V y la base canónica e_1,e_2 de W, observa que la transformación T tiene como matriz asociada a la matriz

    \[\begin{pmatrix} 1 & 1 & 0 & 0\\ 0 & 0 & 1 & 1\end{pmatrix}\]

(recuerda que se obtiene poniendo como columnas a los vectores coordenada de las imágenes de la base).

Por otro lado, los vectores de la base dual e_1^\ast y e_2^\ast «leen las coordenadas», de modo que e_1^\ast(x,y)=x y e_2^\ast(x,y)=y. Por lo que vimos arriba, (^t T)(e_1) es entonces la forma lineal a+b y (^t T)(e_2) es la forma lineal c+d. En términos de la base dual en V^\ast, estos son E_{11}^\ast + E_{12}^\ast y E_{21}^\ast+ E_{22}^\ast respectivamente. De esta forma, la transformación ^t T tiene matriz asociada

    \[\begin{pmatrix}1&0\\1&0\\0&1\\0&1\end{pmatrix}.\]

\square

Nota que en el ejemplo la transformación transpuesta tiene como matriz a la matriz transpuesta de la transformación original. Esto es algo que queremos que pase siempre, y más abajo lo demostramos.

Propiedades básicas de transformación transpuesta

Observa que la definición no necesita que V y W sean de dimensión finita. A continuación enunciamos y probamos algunos resultados que se valen también en el contexto de dimensión infinita.

Teorema 1. Tomemos V,W,Z espacios vectoriales sobre un campo F y c en F. Sean T_1,T_2: V \to W transformaciones lineales. Sea T_3:W\to Z una transformación lineal. Se cumple todo lo siguiente:

  1. ^tT_1 es una transformación lineal.
  2. ^t(T_1+cT_2)= {^tT_1} + c^tT_2.
  3. ^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3.
  4. Si V=W y T_1 es invertible, entonces ^t T_1 también lo es y (^t T_1)^{-1}= {^t (T_1^{-1})}.

Para tener un poco más de intuición, observa cómo estas propiedades son análogas a las de transposición para matrices.

Demostración. Las partes 1 y 2 se demuestran usando cuidadosamente las definiciones. Haremos la demostración de 1 y la demostración de 2 queda como tarea moral. Para probar 1, necesitamos probar que ^tT_1:W^\ast \to V^\ast es lineal, así que tomemos l_1, l_2 en W^\ast y a un escalar en F. Tenemos que demostrar que

    \[^tT_1(l_1+a l_2)=  {^tT_1(l_1)}+ a  ^tT_1(l_2).\]

Ésta es una igualdad de formas lineales en V^\ast, y para mostrar su validez tenemos que mostrar que se vale en cada v\in V. Por un lado,

    \begin{align*} ^tT_1(l_1+a l_2)(v) &= (l_1+a l_2)(T_1(v))\\&=l_1(T_1(v))+a l_2(T_1(v)).\end{align*}

Por otro lado,

    \begin{align*} (^tT_1(l_1)+ a  ^tT_1(l_2))(v)&= {^tT_1(l_1)(v)}+ a  ^tT_1(l_2)(v)\\&= l_1(T_1(v)) + a  l_2(T_1(v)).\end{align*}

En ambos casos obtenemos el mismo resultado, así que ^tT_1(l_1+a l_2) y ^tT_1(l_1)+ a  ^tT_1(l_2) son iguales, mostrando que ^t T_1 es lineal.

Pasemos a la parte 3. La igualdad ^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3 es una igualdad de transformaciones de Z^\ast a V^\ast. Para verificar su veracidad, hay que ver que son iguales en cada elemento en su dominio. Tomemos entonces una forma lineal l en Z^\ast. Queremos verificar la veracidad de

    \[^t(T_3\circ T_1)(l) = (^t T_1 \circ ^t T_3)(l),\]

que es una igualdad de formas lineales en V^\ast, de modo que tenemos que verificarla para cada v en V. Por un lado,

    \begin{align*} ^t(T_3\circ T_1)(l)(v)&=l((T_3\circ T_1)(v))\\&=l(T_3(T_1(v))),\end{align*}

Por otro,

    \begin{align*}(^t T_1 \circ ^t T_3)(l)(v)&=(^tT_1(^t T_3 (l)))(v)\\&=(^t T_3 (l))(T_1(v))\\&=l(T_3(T_1(v))).\end{align*}

En ambos casos obtenemos el mismo resultado.

Para la parte 4 basta notar que si V=W y T_1 es invertible, entonces tiene una inversa S:V\to V, y por la parte 3 tenemos que

    \[^t S\circ ^t T_1 = {^t(T_1\circ S)} = {^t \text{Id}_V} = \text{Id}_{V^\ast},\]

mostrando que ^t T_1 tiene inversa ^tS. Observa que estamos usando que la transpuesta de la transformación identidad es la identidad. Esto no lo hemos probado, pero lo puedes verificar como tarea moral.

\square

La matriz transpuesta es la matriz de la transformación transpuesta

Cuando estamos trabajando en espacios de dimensión finita, podemos mostrar que la matriz que le toca a la transformación transpuesta es precisamente la transpuesta de la matriz que le toca a la transformación original. Hacemos esto más preciso en el siguiente resultado.

Teorema 2. Sea T:V\to W una transformación lineal entre espacios de dimensión finita y B y B' bases de V y W respectivamente. Si A es la matriz de T con respecto a B y B', entonces ^t A es la matriz de la transformación ^t T:W^\ast \to V^\ast con respecto a las bases duales B'^\ast y B^\ast.

Demostración. Necesitamos definir algo de notación. Llamemos n=\dim V, m=\dim W, B=\{b_1,\ldots, b_n\}, B'=\{c_1,\ldots, c_m\} y A=[a_{ij}]. Recordemos que la matriz A está hecha por las coordenadas de las imágenes de la base B en términos de la base B', es decir, que por definición tenemos que para toda j=1,\ldots, n:

(1)   \begin{equation*}T(b_j)=\sum_{i=1}^{m} a_{ij} c_i.\end{equation*}

La transformación ^t T:W^\ast \to V^\ast va de un espacio de dimensión m a uno de dimensión n, así que en las bases B'^\ast y B^\ast se puede expresar como una matriz de n filas y m columnas. Afirmamos que ésta es la matriz ^t A. Para ello, basta mostrar que las coordenadas de las imágenes de la base B'^\ast en términos de la base B^\ast están en las filas de A, es decir, que para todo i=1, \ldots, m tenemos que

    \[^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast.\]

La anterior es una igualdad de formas lineales en V^\ast, de modo que para ser cierta tiene que ser cierta evaluada en todo v en V. Pero por linealidad, basta que sea cierta para todo b_j en la base B. Por un lado, usando (1),

    \begin{align*}^tT(c^\ast_i)(b_j)&=c^\ast_i(T(b_j))\\&=c^\ast_i \left(\sum_{k=1}^{m} a_{kj} c_i\right)\\&=\sum_{k=1}^{m} a_{kj} c^\ast_i(c_k)\\&=a_{ij},\end{align*}

en donde estamos usando que por definición de base dual c_i^\ast (c_i)= 1 y c_j^\ast (c_i)=0 si i\neq j. Por otro lado,

    \begin{align*}\left(\sum_{k=1}^{n} a_{ik} b_k^\ast\right)(b_j)&= \sum_{k=1}^{n} a_{ik} b_k^\ast(b_j)\\&=a_{ij},\end{align*}

en donde estamos usando linealidad y la definición de base dual para B.

Con esto concluimos la igualdad

    \[^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast,\]

que muestra que podemos leer las coordenadas de las evaluaciones de ^t T en B'^\ast en términos de la base B^\ast en las filas de A, por lo tanto podemos leerlas en las columnas de ^t A. Esto muestra que ^t A es la matriz correspondiente a esta transformación en términos de las bases duales.

\square

Kernel e imagen de la transformación transpuesta

Finalmente, el siguiente resultado nos habla acerca de cómo están relacionadas las transformaciones transpuestas y la ortogonalidad.

Teorema 3. Sea T:V\to W una transformación lineal entre espacios vectoriales de dimensión finita. Entonces

    \[\ker (^t T) = (\Ima (T))^\bot,\quad \ker (T)=(\Ima (^t T))^\bot\]

y

    \[\Ima (^t T) = (\ker(T))^\bot\,\quad \Ima (T)=(\ker(^t T))^\bot.\]

Demostración. Demostraremos la igualdad \ker (^t T) = (\Ima (T))^\bot. Notemos que l \in \ker(^t T) si y sólo si (^t T)(l)=0, lo cual sucede si y sólo si l\circ T = 0. Pero esto último sucede si y sólo si para todo v en V se tiene que l(T(v))=0, que en otras palabras quiere decir que l(w)=0 para todo w en \Ima (T). En resumen, l\in \ker(^t T) pasa si y sólo si l se anula en todo \Ima (T) es decir, si y sólo si está en (\Ima (T))^\bot.

El resto de las igualdades se demuestran de manera análoga, o alternativamente, usando la bidualidad canónica. Es un buen ejercicio hacerlo y se deja como tarea moral.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que la transpuesta de la transformación lineal T:\mathbb{R}^2\to \mathbb{R}^2 dada por T(x,y)=T(7x+8y,6x+7y) es invertible. Encuentra a su transpuesta y a la inversa de la transpuesta explícitamente.
  • Muestra la parte 2 del Teorema 1.
  • Muestra que la transpuesta de la transformación identidad es la identidad.
  • Demuestra el resto de las igualdades del Teorema 3.
  • Encuentra la transpuesta de la transformación traza que va de M_n(\mathbb{R}) a los reales. Recuerda que esta transformación manda a una matriz A=[a_{ij}] a la suma de sus entradas en la diagonal principal, es decir

        \[A\mapsto a_{11}+a_{22}+\ldots+a_{nn}.\]

Más adelante…

En esta entrada enunciamos un resultado muy importante: deda una transformación lineal T, su transformación transpuesta tiene como matriz asociada la matirz transpuesta de la matriz asociada de T. Este resultado nos permitirá calcular fácilmente la transpuesta de una transformación, como veremos en la entrada de problemas de este tema.

En la siguiente entrada del blog hablaremos por primera vez de formas bilineales: vamos a ver cómo nuestra discusión de transformaciones lineales facilitará mucho abordar este tema.

Entradas relacionadas