Archivo de la etiqueta: determinantes

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización PJQ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en n incógnitas en R consiste en fijar reales a1,,an,b y determinar los valores de las variables x1,,xn tales que a1x1+a2x2++anxn=b.

Si a1,,an no son todos cero, los puntos (x1,,xn) en Rn que son solución a la ecuación definen un hiperplano en Rn.

Un sistema de ecuaciones lineales con m ecuaciones y n variables consiste en fijar, para i en {1,,m} y j en {1,,n} a reales aij y bi, y determinar los valores de las variables x1,,xn que simultáneamente satisfacen todas las m ecuaciones
{a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm.

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si A es la matriz de m×n de entradas [aij], X es el vector de variables (x1,,xn) y b es el vector de reales b1,,bm, entonces el sistema de ecuaciones anterior se reescribe simplemente como AX=b.

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

{7a+2b+2c+2d+2e=20202a+7b+2c+2d+2e=10102a+2b+7c+2d+2e=02a+2b+2c+7d+2e=10102a+2b+2c+2d+7e=2020.

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que 15(a+b+c+d+e)=0, de donde 2(a+b+c+d+e)=0. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que
{5a=20205b=10105c=05d=10105e=2020.

De aquí, si el sistema tiene alguna solución, debe suceder que
a=20205=404b=20205=202c=20205=0d=20205=202e=20205=404.

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

◻

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de n variables y n incógnitas, entonces es de la forma AX=b con una matriz A cuadrada de n×n. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si A es una matriz cuadrada invertible de n×n y b es un vector de n entradas, entonces el sistema lineal de ecuaciones AX=b tiene una solución única y está dada por X=A1b.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

{147a+85b+210c+483d+133e=791a+245b+226c+273d+154e=77119a+903b+217c+220d+168e=777189a+154b210c203d108e=7777229a+224b+266c133d+98e=77777.

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

A=(147852104831339124522627315411990321722016818915421020310822922426613398)

es invertible. Mostraremos que su determinante no es 0. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como A es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de det(A) al dividirse entre 7 se puede primero reducir las entradas de A módulo 7, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo 7, tenemos la matriz

B=(0100000200000300000450000).

El determinante de la matriz B es (12345)=120. Así,
det(A)det(B)=1206(mod7).

Concluimos que det(A) es un entero que no es divisible entre 7, por lo cual no puede ser cero. Así, A es invertible.

◻

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero 7 es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea A una matriz invertible de n×n con entradas reales y b=(b1,,bn) un vector de reales. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x1,,xn) dada por xi=detAidetA, en donde Ai es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible A de n×n con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es 1 ó 1.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de A tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que det(A)det(A1)=det(I)=1. La única forma en la que dos enteros tengan producto 1 es si ambos son 1 o si ambos son 1. Esto muestra una de las implicaciones.

Ahora, supongamos que A tiene determinante ±1. Si tenemos una matriz B de columnas C1,,Cn, entonces para j en {1,,n} la j-ésima columna de AB es ACj. De este modo, si D1,,Dn son las columnas de A1, se debe cumplir para cada j en {1,,n} que ADj=ej, en donde ej es el j-ésimo elemento de la base canónica. Para cada j fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la i-ésima entrada de Cj, que es la entrada xij de la matriz A1, está dada por xij=det(Aij)det(A)=±det(Aij), donde Aij es la matriz obtenida de colocar al vector ej en la i-ésima columna de A.

La matriz Aij tiene entradas enteras, así que xij=±det(Aij) es un número entero. Así, A1 es una matriz de entradas enteras.

◻

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea A una matriz de m×n con entradas reales, (b1,,bm) un vector de reales y (x1,,xn) un vector de incógnitas. Supongamos que A tiene rango r. Entonces:

  • El sistema AX=b tiene al menos una solución X0 si y sólo si el rango de la matriz de m×(n+1) obtenida de colocar el vector b como columna al final de la matriz A también tiene rango r.
  • El conjunto solución del sistema AX=(0,0,,0) es un subespacio vectorial S de Rn de dimensión nr.
  • Toda solución al sistema AX=b se obtiene de sumar X0 y un elemento de S.

Problema. Encuentra todos los polinomios p(x) con coeficientes reales y de grado a lo más 3 tales que p(2)=3 y p(3)=2.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de p(x). Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos p(x)=ax3+bx2+cx+d. La hipótesis implica que

{8a+4b+2c+d=p(2)=327a+9b+3c+d=p(3)=2.

El rango de la matriz (842127931) es a lo más 2, pues tiene 2 renglones. Pero es al menos 2, pues los dos vectores columna (2,3) y (1,1) son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada (84213279312) es de rango 2. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales a y b y notamos que ahora

{2c+d=38a4b3c+d=227a9b

es un sistema en 2 variables, y como det(2131)=1, tiene una única solución para c y d. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que
c=119a5bd=5+30a+6b.

Así, concluimos que los polinomios p(x) solución consisten de elegir cualesquiera reales a y b y tomar p(x)=ax3+bx2(1+19a+5b)x+(5+20a+6b).

◻

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz A. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Propiedades del polinomio característico

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si A es una matriz en Mn(F), entonces la expresión det(λInA) es un polinomio en λ de grado n con coeficientes en F. A partir de ello, definimos el polinomio característico de A como χA(λ)=det(λInA).

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz (0100201007060030).

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:
|λ1002λ1007λ6003λ|.

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

λ|λ107λ603λ|+2|1007λ603λ|.

Para calcular los determinantes de cada una de las matrices de 3×3 podemos aplicar la fórmula por diagonales para obtener:
λ|λ107λ603λ|=λ(λ318λ+7λ)=λ(λ311λ)=λ411λ2

y
2|1007λ603λ|=2(λ2+18)=2λ2+36.

Concluimos que el polinomio característico es
λ413λ2+36=(λ24)(λ29)=(λ+2)(λ2)(λ+3)(λ3).

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son 2,2,3,3.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor 2, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo (2InA)X=0.

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si A=[aij] es una matriz triangular superior en Mn(F), entonces su polinomio característico es χA(λ)=i=1n(λaii).

Demostración. Como A es triangular superior, entonces λInA también, y sus entradas diagonales son precisamente λaii para i=1,,n. Como el determinante de una matriz triangular es el producto de sus entradas en la diagonal, tenemos que χA(λ)=i=1n(λaii).

◻

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea A una matriz en Mn(F). Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:
χA(λ)=det(λInA)=det(t(λInA))=det(λ(tIn)tA)=det(λIntA)=χtA(λ).

◻

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios (x1)2(x+1)y(x+1)2(x1) tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean A y P matrices en Mn(F) con P invertible. Entonces A y P1AP tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que det(P)det(P1)=1 y que el determinante es multiplicativo:

χP1AP(λ)=det(P)χP1AP(λ)det(P)1=det(P)det(λInP1AP)det(P1)=det(P(λInP1AP)P1)=det(λPP1PP1APP1)=det(λInA)=χA(λ)

◻

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si A y B son matrices en Mn(F), entonces χA(λ) y χB(λ) son cada uno polinomios de grado n, así que su producto es un polinomio de grado 2n, que por lo tanto no puede ser igual al polinomio característico χAB(λ) pues este es de grado n. Así mismo, χA2(λ) no es χA(λ)2.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea A una matriz en Mn(F) y χA(λ) su polinomio característico. Entonces χA(λ) es de la forma λn(trA)λn1++(1)ndetA.

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio χA es mónico, es decir, tiene coeficiente principal 1,
  • que el coeficiente del término de grado n1 es trA y
  • el coeficiente libre es (1)ndetA.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:
χA(0)=det(0InA)=det(A)=(1)ndet(A).

Esto muestra el tercer punto.

Para el coeficiente del término de grado n1 y el coeficiente principal analicemos con más detalle la fórmula del determinante
|λa11a12a1na21λa22a1nan1an2λann|
en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado n es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado n1, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más n2.

De este modo, los únicos términos de grado n y n1 vienen del producto (λa11)(λann).

El único término de grado n viene de elegir λ en todos los factores, y se obtiene el sumando λn, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado n1 se obtienen de elegir λ en n1 factores y un término del estilo aii. Al considerar todas las opciones, el término de grado n1 es (a11+a22++ann)λn1=(trA)λn1, que era lo último que debíamos mostrar.

◻

Ejemplo. El teorema anterior muestra que si A es una matriz en M2(F), es decir, de 2×2, entonces χA(λ)=λ2(trA)λ+detA. De manera explícita en términos de las entradas tendríamos entonces que si A=(abcd), entonces su polinomio característico es λ2(a+d)λ+(adbc).

Como ejemplo, si A=(5283), entonces su polinomio característico es λ22λ+1=(λ1)2. Su único eigenvalor sería entonces 1.

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para A una matriz en Mn(F), el espectro de A es el conjunto de eigenvalores de A. Lo denotamos por spec(A)

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea A una matriz en Mn(F) y λ un eigenvalor de A. La multiplicidad algebraica de λ es el mayor entero mλ tal que (xλ)mλ divide a χA(x).

Cuando estamos en C, por el teorema fundamental del álgebra todo polinomio de grado n se puede factorizar en exactamente n términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz A en Mn(C), su polinomio característico se puede factorizar como sigue:

χA(λ)=j=1n(λλj),

en donde λ1,,λn son eigenvalores de A, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de λn1 es (λ1++λn) y que el coeficiente libre es (1)nλ1λn. Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea A una matriz en Mn(C)

  • La traza A es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir: trA=λspec(A)mλλ.
  • El determinante de A es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir: detA=λspec(A)λmλ.

Veamos un problema en donde se usa este teorema.

Problema. Sea A una matriz en Mn(C) tal que A24A+3In=0. Muestra que el determinante de A es una potencia de 3.

Solución. Sea λ un eigenvalor de A y v un eigenvector para λ. Tenemos que A2v=A(λv)=λ(Av)=λ2v. De esta forma, tendríamos que
0=(A24A+3In)v=(λ2v4λv+3v)=(λ24λ+3)v.

Como v no es el vector 0, debe suceder que λ24λ+3=0. Como λ24λ+3=(λ3)(λ1), entonces λ=1 ó λ=3. Con esto concluimos que los únicos posibles eigenvectores de A son 1 y 3.

Como A es una matriz en C, tenemos entonces que su polinomio característico es de la forma (x1)a(x3)b con a y b enteros no negativos tales que a+b=n. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es 1a3b=3b, con lo que queda demostrado que es una potencia de 3.

◻

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor λ de una matriz A puede repetirse.

Definición. Sea A una matriz en Mn(F) y λ un eigenvalor de A. La multiplicidad geométrica de λ es la dimensión del kernel de la matriz λInA pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz A en Mn(F) es diagonalizable si y sólo si su polinomio característico χA(λ) se puede factorizar en términos lineales en F[λ] y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz A=(0110) tiene como polinomio característico a χA(λ)=λ2+1. Este polinomio no se puede factorizar en R[x], así que A no es diagonalizable con matrices de entradas reales.

Sin embargo, en C tenemos la factorización en términos lineales λ2+1=(λ+i)(λi), que dice que i y i son eigenvalores de multiplicidad algebraica 1. Se puede mostrar que la multiplicidad geométrica también es 1. Así, A sí es diagonalizable con matrices de entradas complejas.

◻

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si A es una matriz en Mn(F) y p es un polinomio en F[λ] de la forma p(λ)=a0+a1λ+a2λ2++anλn, definimos a la matriz p(A) como la matriz a0In+a1A+a2A2++anAn.

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si A es una matriz en Mn(F) y χA(x) es su polinomio característico, entonces χA(A)=On.

Ejemplo. Tomemos de nuevo a la matriz A=(0110) del ejemplo anterior. Su polinomio característico es x2+1. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:
A2+I2=(0110)(0110)+(1001)=(1001)+(1001)=(0000).

◻

Más adelante…

En esta entrada estudiamos algunas propiedades de los eigenvalores y eigenvectores de transformaciones lineales y matrices; vimos cómo obtener eigenvalores de una matriz a partir del polinomio característico y enunciamos dos teoremas muy importantes como parte opcional del curso.

En la siguiente entrada haremos varios ejercicios para desarrollar un poco de práctica al obtener los eigenvalores y eigenvectores de una transformación lineal y de una matriz.

Entradas relacionadas

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz (5012321200050240).
  • Sea A una matriz en Mn(F). ¿Cómo es el polinomio característico de A en términos del polinomio característico de A?
  • Tomemos A una matriz en Mn(F) y k un entero positivo. Muestra que si λ es un eigenvalor de la matriz A, entonces λk es un eigenvalor de la matriz Ak.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de 2×2.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en Mm,n(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación XAX de FnFm. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en Mm,n(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C1,,Cn a las columnas de A. Sabemos que r=dimspan(C1,,Cn).

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1i1<<irn tal que las columnas Ci1,,Cir de A cumplen span(C1,,Cn)=span(Ci1,,Cir). Así, la matriz B hecha por columnas Ci1,,Cir está en Mm,r(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F1,,Fm son las filas de B, tenemos que r=dimspan(F1,,Fm). De nuevo, por el lema de Steinitz, existen enteros 1j1<<jrm tales que span(F1,,Fm)=span(Fi1,,Fir). De esta forma, la matriz C hecha por las filas Fj1,,Fjr está en Mr(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i1,,ir y todas las filas en posiciones distintas a j1,,jr. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces dr. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i1<<in corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas Ci1,,Cid de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
d=dimspan(Ci1,,Cid)dimspan(C1,,Cd)=r,

que es la desigualdad que nos faltaba para terminar la prueba.

◻

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M3,5(R): A=(454720310905093).

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada (442019003). Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4(1)(3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm,

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
A=(a11a12a1na21a22a2nam1am2amn),b=(b1bm) y X=(x1xn), y reescribiendo el sistema como AX=b.

Si C1,,Cn son las columnas de la matriz A, también sabemos que AX=x1C1++xnCn, de modo que el sistema de ecuaciones puede ser escrito como x1C1++xnCn=b.

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean AMn(F) y bFm. Sea (A|b) la matriz en Mn,n+1(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si rank(A)=rank((A|b)).
  • El conjunto de soluciones Sh al sistema homogéneo es un subespacio de Fn de dimensión nrank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces rank(A)=rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si rank(A)=rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:FnFm tal que XAX. Por el teorema de rango-nulidad, tenemos que dimSh=ndimIm(T)=nrank(A). Esto termina la demostración.

◻

Como discutimos con anterioridad, ya que tenemos una solución x0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto x0+Sh:={x0+x:xSh}. En otras palabras, cualquier solución al sistema se puede obtener sumando a x0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=0

Afirmamos que el sistema no tiene solución. La matriz asociada es A=(2313123105). Por lo que sabemos de determinantes de 3×3, podemos calcular su determinante como
|2313123105|=(2)(1)(5)+(3)(10)(1)+(3)(3)(2)(1)(1)(3)(2)(10)(2)(3)(3)(5)=1030+18340+45=0.

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como |2331|=(2)(1)(3)(3)=11 es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz (A|b)=(2311312031050). Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3×3 por expansión de Laplace en la última columna:

|2313103100|=1|31310|0|23310|+0|2331|=1(310+13)=33.

De esta forma, (A|b) tiene una submatriz de 3×3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que rankA=23=rank(A|b), de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x1,,xr y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

a11x1+a12x2++a1rxr=b1a1,r+1xr+1a1,nxna21x1+a22x2++a2rxr=b2a2,r+1xr+1a2,nxnar1x1+ar2x2++arrxr=bmar,r+1xr+1ar,nxn,

Aquí xr+1,,xn son lo que antes llamábamos las variables libres y x1,,xr son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en Mn(F) y b=(b1,,bn) un vector en Fn. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x1,,xn) dada por xi=detAidetA, en donde Ai es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por X=(x1,,xn)=A1b.

Si C1,,Cn son las columnas de A, que (x1,,xn) sea solución al sistema quiere decir que x1C1++xnCn=b.

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:
detAi=det(C1,,Ci1,b,Ci+1,,Cn)=det(C1,,Ci1,j=1nxjCj,Ci+1,,Cn)=j=1nxjdet(C1,,Ci1,Cj,Ci+1,,Cn)=xidet(C1,,Ci1,Ci,Ci+1,,Cn)=xidetA

Como A es invertible, su determinante no es 0, de modo que xi=detAidetA, como queríamos.

◻

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=3

En un ejemplo anterior vimos que la matriz asociada A=(2313123105) tiene rango 2. Se puede verificar que la matriz aumentada (A|b)=(2311312031053) también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 32=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(1)(3)(3)=110, entonces el sistema de ecuaciones original es equivalente al subsistema

2x+3y=1+z3xy=2z.

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
x=|1+z32z1|11=15z11y=|21+z32z|11=3+7z11.

De esta forma, las soluciones al sistema original están dadas por (15z11,3+7z11,z)=(111,311,0)+z(511,711,1).

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector (511,711,1), y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular (111,311,0).

◻

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2×2 con un parámetro θ. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto (x,y) del plano tal que al rotarse en θ alrededor del origen, llega al punto (a,b) » .

Problema. Sea a,b,θ números reales. Encuentra las soluciones x,y al sistema de ecuaciones
xcosθysinθ=axsinθ+ycosθ=b.

Solución. La matriz asociada al sistema es A=(cosθsinθsinθcosθ) que tiene determinante detA=cos2θ+sin2θ=1.

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

x=|asinθbcosθ|detA=acosθ+bsinθy=|cosθasinθb|detA=bcosθasinθ.

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz A=(201324523125).
  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=(5832) y AX=(58133).
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en Mn(R) con entradas enteras y de determinante 1, y b es un vector en Rn con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?
  • Considera un sistema de ecuaciones con coeficientes en un campo F1 y una extensión de campo F2. Muestra que si el sistema tiene una solución en F2, entonces también tiene una solución en F1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Por Blanca Radillo

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo F es Z2, y el siguiente ejemplo lo expone:

Ejemplo. Sea f:Z2×Z2Z2 definido como f(x,y)=xy. Claramente f es bilineal, pero no es alternate ya que f(1,1)=10. Por otro lado, f es antisimétrica, porque f(x,y)+f(y,x)=xy+yx=2xy=0.

De manera natural surge la pregunta: ¿cómo podemos construir una transformación d-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo d-lineal f.

Problema. Sea f:VdW una transformación d-lineal. Demuestra que

A(f):=σSdsign(σ)σ(f)

es un mapeo d-lineal antisimétrico.

Solución. Es fácil ver que A(f) es una transformación d-lineal, dado que A(f) es una combinación lineal de mapeos d-lineales. Queremos probar que, para τSd, τ(A(f))=sign(τ)A(f). Notemos que

τ(A(f))=σSdsign(σ)τ(σ(f))=σSdsign(σ)(τσ)(f).

Usando el hecho que sign(τ)sign(σ)=sign(τσ) y que {τσ:σSd}=Sd, obtenemos que

sign(τ)τ(A(f))=σSdsign(τσ)(τσ)(f)=ηSdsign(η)(η)(f)=A(f).

Por lo tanto, τ(A(f))=sign(τ)A(f).

◻

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma n-lineal alternante, y además que cualquier otra forma n-lineal alternante varía de det(b1,,bn) únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema 1. Sea V un espacio vectorial sobre F de dimensión finita. Sea e1,,en una base de V y sea T:VV una transformación lineal. Demuestra que para todo v1,,vnV tenemos que

i=1ndet(v1,,vi1,T(vi),vi+1,,vn)=Tr(T)det(v1,,vn),

donde todos los determinantes están calculados en la base canónica y Tr(T) es la traza de la matriz de T (con respecto a la base canónica).

Solución. Definimos el mapeo ϕ:VnF como

ϕ(v1,,vn)=i=1ndet(v1,,vi1,T(vi),vi+1,,vn).

Esta transformación es la suma de transformaciones n-lineales, por lo tanto ϕ es n-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que v1=v2, entonces

ϕ(v1,v1,v3,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)+i=3ndet(v1,v1,,vi1,T(vi),vi+1,,vn)=det(T(v1),v1,v3,,vn)+det(v1,T(v1),v3,,vn)=det(T(v1),v1,v3,,vn)det(T(v1),v1,v3,,vn)=0,

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar α tal que

ϕ(v1,,vn)=αdet(v1,,vn)

para todo v1,,vn. Sea A=[aij] la matriz de T con respecto a la base canónica. Si tomamos v1=e1,,vn=en, por el mismo teorema tenemos que

α=ϕ(e1,,en)=i=1ndet(e1,,ei1,j=1najiej,ei+1,,en)=i=1nj=1najidet(e1,,ei1,ej,ei+1,,en)=i=1naii=Tr(T).

Por lo tanto, obtenemos lo que queremos.

◻

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema 2. Sea n un número impar y sean A,BMn(R) matrices tal que A2+B2=0n. Prueba que la matriz ABBA no es invertible.

Solución. Notemos que

(A+iB)(AiB)=A2+B2+i(BAAB)=i(BAAB).

Por la propiedad del determinante de un producto, tenemos que

det(A+iB)det(AiB)=indet(BAAB).

Suponemos que ABBA es invertible, entonces det(BAAB)0. Además sabemos que

det(AiB)=det(A+iB)=det(A+iB),

esto implica que |det(A+iB)|2=indet(BAAB). Como consecuencia, in es un número real, contradiciendo al hecho que n es impar. Por lo tanto det(BAAB)=0.

◻

Problema 3. Para 1i,jn, definimos aij como el número de divisores positivos en común de i y j y definimos bij igual a 1 si j divide i e igual a 0 si no.

  1. Probar que A=BtB, donde A=[aij] y B=[bij].
  2. ¿Qué podemos decir de la forma de B?
  3. Calcula det(A).

Solución. 1) Fijando i,j tenemos que

det(BtB)ij=k=1nbikbjk.

Notemos que bikbjk no es cero (bij,bjk=1) si y sólo si k divide a i y a j, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan i y j. Por lo tanto det(BtB)ij=aij.

2) Si i<j, no es posible que j divida a i. Entonces bij=0 para todo i<j, esto significa que B es, al menos, triangular inferior. Un dato más que podemos asegurar es que bii=1 para toda i, por lo tanto, al menos, todos los términos de la diagonal de B son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que det(B)=det(tB) y usando el inciso (1), tenemos que det(A)=det(BtB)=(detB)2. Pero por el inciso (2), detB=1, concluimos que detA=1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Propiedades de determinantes

Por Ayax Calderón

Introducción

Para esta entrada enunciaremos y demostraremos algunas de las propiedades más importantes de los determinantes tanto para transformaciones lineales como para matrices. Estas propiedades de determinantes y en general el concepto de determinante tiene numerosas aplicaciones en otras áreas de las matemáticas como el cálculo de volúmenes ndimensionales o el wronskiano en ecuaciones diferenciales, sólo por mencionar algunos, por eso es importante analizar a detalle el determinante de los distintos tipos de matrices y transformaciones lineales que conocemos.

Como recordatorio, veamos qué hemos hecho antes de esta entrada. Primero, transformaciones multilineales. De ellas, nos enfocamos en las que son alternantes y antisimétricas. Definimos el determinante para un conjunto de vectores con respecto a una base, y vimos que, en cierto sentido, son las únicas formas n-lineal alternantes en un espacio vectorial de dimensión n. Gracias a esto, pudimos mostrar que los determinantes para transformaciones lineales están bien definidos, y con ellos motivar la definición de determinante para matrices.

El determinante es homogéneo

La primera de las propiedades de determinantes que enunciaremos tiene que ver con «sacar escalares» del determinante.

Teorema. Sea A una matriz en Mn(F).

  1. Si multiplicamos un renglón o una columna de A por un escalar λ, entonces su determinante se multiplica por λ.
  2. Se tiene que det(λA)=λnA.

Demostración. 1. Sea Aj la matriz obtenida me multiplicar el j-ésimo renglón por λ. Siguiendo la definición de determinante vista en la entrada de ayer (determinantes de matrices) vemos que
detAj=σSnsign(σ)a1σ(1)λajσ(j)anσ(n)=σSnsign(σ)λa1σ(1)anσ(n)=λdetA.

La demostración para la j-ésima columna queda como tarea moral.

2. Sea \lamdaA=[λaij], entonces por definición tenemos

det(λA)=σSnsign(σ)(λa1σ(1))(λanσ(n))=σSnsign(σ)λna1σ(1)anσ(n)=λndetA

De manera alternativa, podemos aplicar el primer inciso n veces, una por cada renglón.

◻

Aquí arriba hicimos la prueba explícita a partir de la definición. Una forma alternativa de proceder es notar que el determinante de una matriz es precisamente el determinante det (de vectores) con respecto a la base canónica de Fn evaluada en los renglones de A. Al multiplicar uno de los renglones por λ, el vector entrada de det se multiplica por λ. El resultado se sigue inmediatamente de que det es una forma n-lineal.

El determinante es multiplicativo

Quizás de entre las propiedades de determinantes, la más importante es que es multiplicativo. Mostraremos esto a continuación.

Teorema. Sea V un espacio vectorial de dimensión finita y transformaciones lineales T1:VV, T2:VV. Se tiene que det(T1T2)=detT1detT2.

Demostración. Sea (v1,,vn) una base cualquiera de V. Del resultado visto en la entrada anterior y la definición de determinante, se sigue que
det(T1T2)=det(v1,,vn)(T1(T2(v1)),,T1(T2(vn)))=detT1det(v1,,vn)(T2(v1),,T2(vn))=detT1detT2.

◻

Observa cómo la demostración es prácticamente inmediata, y no tenemos que hacer ningún cálculo explícito en términos de coordenadas. La demostración de que el determinante es multiplicativo para las matrices también es muy limpia.

Teorema. Sean A y B matrices en Mn(F). Se tiene que det(AB)=detAdetB.

Demostración. Sean V=Fn, T1:VV la transformación lineal definida por xAx y similarmente T2:VV la transformación lineal definida por xBx. Sabemos que A,B,AB son las matrices asociadas a T1,T2,T1T2 con respecto a la base canónica, respectivamente.

Recordemos que para una transformación lineal T en V, detT=detAT, para una matriz que la represente en cualquier base. Entonces

det(AB)=detAT1T2=detT1T2=detT1detT2=detAT1detAT2=detAdetB.

◻

Nota que hubiera sido muy complicado demostrar que el determinante es multiplicativo a partir de su definición en términos de permutaciones.

El determinante detecta matrices invertibles

Otra de las propiedades fundamentales del determinante es que nos ayuda a detectar cuándo una matriz es invertible. Esto nos permite agregar una equivalencia más a la lista de equivalencias de matrices invertibles que ya teníamos.

Teorema. Una matriz A en Mn(F) es invertible si y sólo si detA0.

Demostración. Supongamos que A es invertible, entonces existe BMn(F) tal que AB=In=BA.
Así,

1=detIn=det(AB)=detAdetB.

Como el lado izquierdo es 1, ambos factores del lado derecho son distintos de 0. Por lo tanto detA0. Nota que además esta parte de la prueba nos dice que detA1=(detA)1.

Ahora supongamos que detA0. Sea (e1,,en) la base canónica de Fn y C1,,Cn las columnas de A. Como det(e1,,en) es una forma lineal alternante, sabemos que si C1,,Cn fueran linealmente dependientes, la evaluación daría cero. Ya que la columna Ci es la imagen bajo A de ei, entonces

detA=det(e1,,en)(C1,,Cn)0.

Por lo tanto los vectores C1,,Cn son linealmente independientes y así rank(A)=n. Se sigue que A es una matriz invertible.

◻

Determinante de transformación y matriz transpuesta

Una cosa que no es totalmente evidente a partir de la definición de determinante para matrices es que el determinante no cambia si transponemos una matriz o una transformación lineal. Esta es la última de las propiedades de determinantes que probaremos ahora.

Teorema. Sea A una matriz en Mn(F). Se tiene que det(tA)=detA.

Demostración. Por definición

det(tA)=σSnsign(σ1)aσ1(1)1aσ1(n)n.

Luego, para cualquier permutación σ se tiene

aσ(1)1aσ(n)n=a1σ1(1)anσ1(n)

pues aiσ1(i)=aσ(j)j, donde j=σ1(i).
También vale la pena notar que sign(σ1)=sign(σ)1=sign(σ).

De lo anterior se sigue que

det(tA)=σSnsign(σ1)a1σ1(1)anσ1(n)=σSnsign(σ)a1σ(1)anσ(n)=detA.

◻

Teorema. Sea V un espacio vectorial de dimensión finita T:VV una transformación lineal. Se tiene que det(tT)=detT.

Demostración. Sea A la matriz asociada a T, entonces tA es la matriz asociada a tT. Luego det(tT)=det(tA)=detA=detT.

◻

Veamos un ejemplo de un problema en el que podemos aplicar algunas de las propiedades anteriores.

Problema. Sea AMn(F) una matriz antisimétrica para algún n impar. Demuestra que det(A)=0.

Demostración. Como A=At, entonces detA=det(tA), pero detA=det(tA).
Se sigue que
det(tA)=det(tA)=(1)ndet(tA)=det(tA).

Concluimos det(tA)=0

◻

Más adelante…

En esta entrada enunciamos y demostramos varias propiedades de los determinantes. Ahora, vamos a ponerlas en práctica resolviendo algunos problemas.

En las siguientes entradas, que constituyen la parte final del curso, vamos a hablar de diferentes técnicas para calcular el determinante de una matriz y obtendremos sus eigenvalores y eigenvectores. Vamos a ver cómo esto nos conduce a uno de los teoremas más importantes del curso de Álgebra Lineal I: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que al multiplicar una columna de una matriz por λ, entonces su determinante se multiplica por λ.
  • Demuestra que si una matriz tiene dos columnas iguales, entonces su determinante es igual a cero.
  • Analiza cómo es el determinante de una matriz antisimétrica AMn(F) con n par.
  • Formaliza la frase «el determinante detecta transformaciones invertibles» en un enunciado matemático. Demuéstralo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»