Archivo de la etiqueta: rango

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros k1,,kd que menciona el teorema son únicos.

Teorema. Sea A una matriz nilpotente en Mn(F). Entonces existen únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, y para los cuales A es similar a la siguiente matriz de bloques: (J0,k1000J0,k2000J0,kd).

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de A. Si A es similar una matriz en forma canónica J, entonces existe P invertible tal que A=P1JP, de donde se puede mostrar indutivamente que Ak=P1JkP, mostrando que Ak y Jk son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si A es similar a J entonces todas las potencias de A tienen el mismo rango que todas las potencias de J. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan J0,n es n1, pues ya está en forma escalonada reducida y tiene n1 vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea n un entero positivo, F un campo y J0,n el bloque de Jordan de eigenvalor 0 y tamaño n en Mn(F). Para k=1,,n se tiene que el rango de J0,nk es igual a nk. Para valores de k más grandes, el rango es igual a cero.

Demostración. Si e1,,en es la base canónica de Fn, tenemos que J0,nei=ei1 para i=2,,n y J0,ne1=0. De manera intuitiva, la multiplicación matricial por J0,n va «desplazando los elementos de la base e1,,en a la izquierda, hasta sacarlos». De este modo, J0,nk para k=1,,n hace lo siguiente:

J0,nkei={0para kieikpara ki1.

Así, J0,nk manda a la base e1,,en a los vectores e1,,enk y a k copias del vector cero. Como los primeros son nk vectores linealmente independientes, obtenemos que el rango de J0,nk es nk.

Para valores de k más grandes la potencia se hace la matriz cero, así que su rango es cero.

◻

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde k1,,kd son enteros positivos de suma n y con k1kd:

J=(J0,k1000J0,k2000J0,kd).

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

Jr=(J0,k1r000J0,k2r000J0,kdr).

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los ki por separado, los agruparemos de acuerdo a su valor, que puede ir de 1 a n. Así, para cada j=1,,n definimos mj como la cantidad de valores ki iguales a j. Bajo esta notación, la igualdad k1++kd=n se puede reescribir como m1+2m2+3m3++nmn=n.

Una primera observación es que el rango de J es simplemente la suma de los rangos de cada una de las J0,ki. Cada una de éstas contribuye con rango ki1. Así, en términos de las mj tenemos lo siguiente:

rango(J)=i=1d(ki1)=j=1n(j1)mj=0m1+1m2+2m3++(n1)mn.

De manera similar,

rango(Jr)=i=1drango(J0,kir)=j=1nmjrango(J0,jr).

El término rango(J0,jr) lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las mj salen todas las siguientes igualdades:

n=1m1+2m2+3m3++nmnrango(J)=0m1+1m2+2m3++(n1)mnrango(J2)=0m1+0m2+1m3++(n2)mnrango(J3)=0m1+0m2+0m3++(n3)mnrango(Jn1)=0m1+0m2+0m3++1mn.

A partir de aquí el rango de Jn es 0. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de mj de la sección anterior. Supongamos que A tiene como forma canónica de Jordan tanto a una matriz J con valores mj, como a otra matriz J con valores mj.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier r de 1 a n1 se cumple que rango(Jr)=rango(Ar)=rango(Jr). Así, tanto (m1,,mn) como (m1,,mn) son soluciones al siguiente sistema de ecuaciones en variables x1,,xn.

n=1x1+2x2+3x3++nxnrango(A)=0x1+1x2+2x3++(n1)xnrango(A2)=0x1+0x2+1x3++(n2)xnrango(A3)=0x1+0x2+0x3++(n3)xnrango(An1)=0x1+0x2+0x3++1xn.

Pero este es un sistema de n ecuaciones en n variables y con matriz asociada de determinante 1, así que su solución es única. Esto muestra que (m1,,mn)=(m1,,mn). Entonces, en J y J aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en J como en J, concluimos que J=J.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de A hasta n1.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables xj de la sección anterior.
  4. La forma canónica de Jordan de A tiene xj bloques de tamaño j, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en M7(R): C=(2726613713512553217156311833125110203612361784188161512123458511102512282980159113311498878690232197140988191151952348230160517910013161031440)

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice 3 pues:

C2=(0102093403680668061020900146914897979497941469100273991318261826273900722124074814481472210014193473194629462141930010956365273047304109560011952398479687968119520)

y

C3=(0000000000000000000000000000000000000000000000000).

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de C es 4 y que el rango de C2 es 2. A partir de k3 obtenemos que rango(Ck)=rango(O7)=0. Si queremos encontrar la forma canónica de Jordan de C, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques xj de tamaño j hay:

7=x1+2x2+3x3+4x4+5x5+6x6+7x74=x2+2x3+3x4+4x5+5x6+6x72=x3+2x4+3x5+4x6+5x70=x4+2x5+3x6+4x70=x5+2x6+3x70=x6+2x70=x7

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que x7=x6=x5=x4=0. Así, el sistema queda un poco más simple, como:

7=x1+2x2+3x34=x2+2x32=x3.

De la última igualdad, tenemos x3=2, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño 3. Sustituyendo en la penúltima igualdad obtenemos que 4=x2+4, de donde x2=0. Así, no tendremos ningún bloque de tamaño 2. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que 7=x1+0+6. De aquí obtenemos x1=1, así que la forma canónica de Jordan tendrá un bloque de tamaño 1. En resumen, la forma canónica de Jordan es la matriz (J0,1000J0,3000J0,3). Explícitamente, ésta es la siguiente matriz:

(0000000001000000010000000000000001000000010000000).

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

(0000000001000000010000000000000001000000010000000).

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: M=(11111111111133337777).
    1. Muestra que M es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de M?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente AM5(F) de índice 2.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente AM7(F) de rango 5.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en Mn(R) y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables xi que aparece en la entrada: (123n1n012n2n1001n3n20001200001).
  5. Sea A una matriz nilpotente en Mn(R). Muestra que las matrices A y 5A son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Por Leonardo Ignacio Martínez Sandoval

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de m×n, el rango es un número entero que va de cero a n. Mientras mayor sea, «más información guarda».

Por definición, el rango de una matriz A de m×n es igual a la dimensión del subespacio vectorial de Rm generado por los vectores columna de A. Una matriz de n×n tiene rango n si y sólo si es invertible.

Si pensamos a A como la transformación lineal de Rn a Rm tal que XAX, entonces el rango es precisamente la dimensión de la imagen de A. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean m, n y p enteros. Sea B una matriz de n×p, y A, A matrices de m×n. Sean además P una matriz de n×p cuya transformación lineal asociada es suprayectiva y Q una matriz de r×m cuya transformación lineal asociada es inyectiva. Entonces:

  1. rank(A)min(m,n)
  2. rank(AB)min(rank(A),rank(B))
  3. rank(A+A)rank(A)+rank(A)
  4. rank(QA)=rank(A)
  5. rank(AP)=rank(A)

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices A y B tienen entradas reales. La matriz A es de 3×3, la matriz B es de 2×3 y además AB=(011101112). Determina el valor del producto BA.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto BA es invertible.

Solución. Para empezar, afirmamos que (AB)2=AB. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de AB es 2. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que
rank(BA)rank(A(BA))rank(A(BA)B)=rank((AB)2)=rank(AB)=2.

Así, BA es una matriz de 2×2 de rango 2 y por lo tanto es invertible.

Consideremos ahora el producto (BA)3. Desarrollando y usando que (AB)2=AB, tenemos que

(BA)3=BABABA=B(AB)2A=BABA=(BA)2.

Como BA es invertible, entonces (BA)2 tiene inversa. Si multiplicamos la igualdad (BA)3=(BA)2 por esa inversa, obtenemos que BA=I2.

◻

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices A y B de n×n, se tiene que rank(AB)rank(A)+rank(B)n.

Problema. La matriz A es de 2020×2020. Muestra que:

  • Si A tiene rango 2017, entonces la matriz A673 no puede ser la matriz de 2020×2020 de puros ceros, es decir, O2020.
  • Si A tiene rango 2016, entonces la matriz A673 puede ser la matriz O2020.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si M es una matriz de n×n de rango ns y k es un entero positivo, entonces el rango de la matriz Mk es por lo menos nks. Procedemos por inducción sobre k. Si k=1, el resultado es cierto pues M tiene rango ns=n1s.

Supongamos el resultado para cierto entero k. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que
rank(Ak+1)rank(Ak)+rank(A)n(nks)+(ns)n=n(k+1)s.

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que A673 es una matriz de rango por lo menos 20206733=20202019=1. De esta forma, A673 no puede ser la matriz 0.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz A de 2020×2020 de rango 2016 tal que A673 sea la matriz 0. Para ello, consideremos la matriz A tal que sus primeras 4 columnas sean iguales al vector 0, y que sus columnas de la 5 a la 2020 sean los vectores canónicos e1,,e2016.

Esta matriz claramente es de rango 2016, pues el espacio generado por sus columnas es el espacio generado por e1,,e2016, que es de dimensión 2016. Por otro lado, se puede mostrar inductivamente que para k=1,,505, se tiene que Ak es una matriz en donde sus columnas de 1 a 4k son todas el vector 0, y sus columnas de 4k+1 a 2020 son e1,,e20204k. En particular, A505=O2020, y entonces A673 también es la matriz de puros ceros.

◻

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea A una matriz de m×n con entradas reales. Los siguientes números son todos iguales:

  • El rango de A, es decir, la dimensión del espacio vectorial generado por los vectores columna de A.
  • La dimensión del espacio vectorial generado por los vectores fila de A. Observa que esto es, por definición, el rango de la transpuesta de A.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de A.
  • (Teorema de rango-nulidad) ndimker(A), donde ker(A) es el espacio vectorial de soluciones a AX=0.
  • El tamaño más grande de una submatriz cuadrada de A que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma (abcdbadccdabdcba).

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de 4×4 es un entero de 0 a 4. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando a=b=c=d=0, obtenemos la matriz O4, que tiene rango 0. Si a=b=c=d=1, obtenemos la matriz de puros unos, que tiene rango 1. Además, si a=1 y b=c=d=0, obtenemos la matriz identidad, que tiene rango 4.

Si a=b=1 y c=d=0, obtenemos la matriz A=(1100110000110011). Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz I2=(1001), que tiene rango 2, entonces el rango de A es al menos 2. De esta forma, el rango de A es 2.

Veamos ahora que el rango puede ser 3. Para ello, damos un argumento de determinantes. Llamemos s=a+b+c+d. Sumando las tres últimas filas a la primera y factorizando s, tenemos que
|abcdbadccdabdcba|=|ssssbadccdabdcba|=s|1111badccdabdcba|.

Así, si tomamos a=b=c=1 y d=3, entonces s=0 y por lo tanto la matriz B que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues B tiene como submatriz a (113131311), que es invertible pues su determinante es 33311+27=160.

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son 0,1,2,3,4.

◻

El teorema de factorización PJQ

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización PJQ). Sea A una matriz de m×n y r un entero en {0,,min(m,n)}. El rango de A es igual a r si y sólo si existen matrices invertibles P de m×m y Q de n×n tales que A=PJrQ, en donde Jr es la matriz de m×n cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque, Jr=(IrOr,nrOmr,rOmr,nr).

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema PJQ es inmediato. Si A es de m×n y tiene rango r, entonces su factorización PJQ es de la forma A=PJrQ. Entonces al transponer obtenemos
tA=tQtJrtP.

Esto es de nuevo un factorización PJQ, con tJr la matriz de n×m que indica que tA es de rango r.

Veamos ahora un problema clásico en el que se puede usar la factorización PJQ.

Problema. Sea A una matriz de m×n y rango r. Muestra que:

  • A puede ser escrita como la suma de r matrices de rango 1.
  • A no puede ser escrita como la suma de r1 o menos matrices de rango 1.

Sugerencia pre-solución. Para la primer parte, usa el teorema PJQ. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos A=PJrQ una factorización PJQ de A.

Hagamos la primer parte. Para ello, para cada i=1,,r, consideremos la matriz Li de m×n tal que su i-ésima entrada en la diagonal principal es 1 y el resto de sus entradas son iguales a 0.

Por un lado, Li es de rango 1, pues tiene sólo una columna distinta de cero. De este modo, rank(PLiQ)rank(PLi)rank(Li)=1, y como P y Q son invertibles, rank(PLiQ)rank(Li)1. Así, para cada i=1,,r, se tiene que Li es de rango 1.

Por otro lado, Jr=L1+L2++Lr, así que
A=PJrQ=P(L1+L2++Lr)Q=PL1Q+PL2Q++PLrQ.

Esto expresa a A como suma de r matrices de rango 1.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices B1,,Bs matrices de m×n, entonces
rank(B1+B2++Bs)rank(B1)+rank(B2++Bs)rank(B1)+rank(B2)+rank(B3++Bs)vdotsrank(B1)+rank(B2)++rank(Bs).

Si cada Bi es de rango 1, entonces su suma tiene rango a lo más s.

Así, la suma de r1 o menos matrices de rango 1 tiene rango a lo más r1, y por lo tanto no puede ser igual a A.

◻

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema PJQ, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización PJQ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en n incógnitas en R consiste en fijar reales a1,,an,b y determinar los valores de las variables x1,,xn tales que a1x1+a2x2++anxn=b.

Si a1,,an no son todos cero, los puntos (x1,,xn) en Rn que son solución a la ecuación definen un hiperplano en Rn.

Un sistema de ecuaciones lineales con m ecuaciones y n variables consiste en fijar, para i en {1,,m} y j en {1,,n} a reales aij y bi, y determinar los valores de las variables x1,,xn que simultáneamente satisfacen todas las m ecuaciones
{a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm.

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si A es la matriz de m×n de entradas [aij], X es el vector de variables (x1,,xn) y b es el vector de reales b1,,bm, entonces el sistema de ecuaciones anterior se reescribe simplemente como AX=b.

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

{7a+2b+2c+2d+2e=20202a+7b+2c+2d+2e=10102a+2b+7c+2d+2e=02a+2b+2c+7d+2e=10102a+2b+2c+2d+7e=2020.

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que 15(a+b+c+d+e)=0, de donde 2(a+b+c+d+e)=0. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que
{5a=20205b=10105c=05d=10105e=2020.

De aquí, si el sistema tiene alguna solución, debe suceder que
a=20205=404b=20205=202c=20205=0d=20205=202e=20205=404.

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

◻

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de n variables y n incógnitas, entonces es de la forma AX=b con una matriz A cuadrada de n×n. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si A es una matriz cuadrada invertible de n×n y b es un vector de n entradas, entonces el sistema lineal de ecuaciones AX=b tiene una solución única y está dada por X=A1b.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

{147a+85b+210c+483d+133e=791a+245b+226c+273d+154e=77119a+903b+217c+220d+168e=777189a+154b210c203d108e=7777229a+224b+266c133d+98e=77777.

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

A=(147852104831339124522627315411990321722016818915421020310822922426613398)

es invertible. Mostraremos que su determinante no es 0. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como A es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de det(A) al dividirse entre 7 se puede primero reducir las entradas de A módulo 7, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo 7, tenemos la matriz

B=(0100000200000300000450000).

El determinante de la matriz B es (12345)=120. Así,
det(A)det(B)=1206(mod7).

Concluimos que det(A) es un entero que no es divisible entre 7, por lo cual no puede ser cero. Así, A es invertible.

◻

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero 7 es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea A una matriz invertible de n×n con entradas reales y b=(b1,,bn) un vector de reales. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x1,,xn) dada por xi=detAidetA, en donde Ai es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible A de n×n con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es 1 ó 1.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de A tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que det(A)det(A1)=det(I)=1. La única forma en la que dos enteros tengan producto 1 es si ambos son 1 o si ambos son 1. Esto muestra una de las implicaciones.

Ahora, supongamos que A tiene determinante ±1. Si tenemos una matriz B de columnas C1,,Cn, entonces para j en {1,,n} la j-ésima columna de AB es ACj. De este modo, si D1,,Dn son las columnas de A1, se debe cumplir para cada j en {1,,n} que ADj=ej, en donde ej es el j-ésimo elemento de la base canónica. Para cada j fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la i-ésima entrada de Cj, que es la entrada xij de la matriz A1, está dada por xij=det(Aij)det(A)=±det(Aij), donde Aij es la matriz obtenida de colocar al vector ej en la i-ésima columna de A.

La matriz Aij tiene entradas enteras, así que xij=±det(Aij) es un número entero. Así, A1 es una matriz de entradas enteras.

◻

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea A una matriz de m×n con entradas reales, (b1,,bm) un vector de reales y (x1,,xn) un vector de incógnitas. Supongamos que A tiene rango r. Entonces:

  • El sistema AX=b tiene al menos una solución X0 si y sólo si el rango de la matriz de m×(n+1) obtenida de colocar el vector b como columna al final de la matriz A también tiene rango r.
  • El conjunto solución del sistema AX=(0,0,,0) es un subespacio vectorial S de Rn de dimensión nr.
  • Toda solución al sistema AX=b se obtiene de sumar X0 y un elemento de S.

Problema. Encuentra todos los polinomios p(x) con coeficientes reales y de grado a lo más 3 tales que p(2)=3 y p(3)=2.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de p(x). Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos p(x)=ax3+bx2+cx+d. La hipótesis implica que

{8a+4b+2c+d=p(2)=327a+9b+3c+d=p(3)=2.

El rango de la matriz (842127931) es a lo más 2, pues tiene 2 renglones. Pero es al menos 2, pues los dos vectores columna (2,3) y (1,1) son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada (84213279312) es de rango 2. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales a y b y notamos que ahora

{2c+d=38a4b3c+d=227a9b

es un sistema en 2 variables, y como det(2131)=1, tiene una única solución para c y d. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que
c=119a5bd=5+30a+6b.

Así, concluimos que los polinomios p(x) solución consisten de elegir cualesquiera reales a y b y tomar p(x)=ax3+bx2(1+19a+5b)x+(5+20a+6b).

◻

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz A. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

v1=(1,x,0,1),v2=(0,1,2,1),v3=(1,1,1,1)

en R4. Prueba que para cualquier elección de xR, los vectores v1,v2,v3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v1,v2,v3, es decir,

A=(101x11021111).

Sabemos que v1,v2,v3 son linealmente independiente si y sólo si dim(span(v1,v2,v3))=3, ya que rank(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3×3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

|101021111|=1,

lo que implica que es invertible, y por lo tanto v1,v2,v3 son vectores linealmente independientes.

◻

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre R o sobre C. Como RC, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en R se cumplen en C. En este caso particular, si las soluciones de una matriz en Mm,n(R) son soluciones de la misma matriz pero vista como elemento en Mm,n(C). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea AMm,n(F) y sea F1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F1n, entonces tiene una solución no trivial en Fn.

Demostración. Dado que el sistema tiene una solución no trivial en F1n, r:=rank(A)<n vista como elemento en Mm,n(F1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de Mm,n(F1) o de Mm,n(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de Fn de dimensión nr>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en Fn.

◻

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea Sa el siguiente sistema lineal:

x2y+z=13x+2y2z=22xy+az=3.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=(12132221a)yb=(123).

Notemos que

|12132221a|=8a1,

entonces si a1/8, A es invertible, y por lo tanto rank(A)=3, mientras que si a=1/8, A no es invertible y rank(A)=2 ya que la submatriz es invertible

|1232|=8.

Además, si la matriz (A,b) es igual a

(1211322221a3),

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, rank(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como rank(A)=3 para todo a1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

Problema 3. Sean a,b,c números reales dados. Resuelve el sistema lineal

(b+c)x+by+cz=1ax+(a+c)y+cz=1ax+by+(a+b)z=1.

Solución. La matriz del sistema es

A=(b+cbcaa+ccaba+b).

No es difícil ver que det(A)=4abc. Si abc0, usando la regla de Cramer, la única solución al sistema está dada por

x=|1bc1a+cc1ba+b|4abc,y=|b+c1ca1ca1a+b|4abc

y=|b+cb1aa+c1ab1|4abc,

resolviendo los determinantes obtenemos que

x=a2(bc)24abc,y=b2(ac)24abc,z=c2(ab)24abc.

Ahora, si abc=0, entonces A no es invertible (rank(A)<3). El sistema es consistente si y sólo si rank(A)=rank(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

(b+c)x+by+cz=1c(y+z)=1b(y+z)=1.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c0; caso 2) b=0 y a=c0; caso 3) c=0 y a=b0, tenemos infinitas soluciones descritas como, para todo wR: caso 1) (0,w,1/bw); caso 2) (w,0,1/aw); caso 3) (w,1/aw,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en Mm,n(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación XAX de FnFm. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en Mm,n(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C1,,Cn a las columnas de A. Sabemos que r=dimspan(C1,,Cn).

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1i1<<irn tal que las columnas Ci1,,Cir de A cumplen span(C1,,Cn)=span(Ci1,,Cir). Así, la matriz B hecha por columnas Ci1,,Cir está en Mm,r(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F1,,Fm son las filas de B, tenemos que r=dimspan(F1,,Fm). De nuevo, por el lema de Steinitz, existen enteros 1j1<<jrm tales que span(F1,,Fm)=span(Fi1,,Fir). De esta forma, la matriz C hecha por las filas Fj1,,Fjr está en Mr(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i1,,ir y todas las filas en posiciones distintas a j1,,jr. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces dr. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i1<<in corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas Ci1,,Cid de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
d=dimspan(Ci1,,Cid)dimspan(C1,,Cd)=r,

que es la desigualdad que nos faltaba para terminar la prueba.

◻

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M3,5(R): A=(454720310905093).

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada (442019003). Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4(1)(3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm,

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
A=(a11a12a1na21a22a2nam1am2amn),b=(b1bm) y X=(x1xn), y reescribiendo el sistema como AX=b.

Si C1,,Cn son las columnas de la matriz A, también sabemos que AX=x1C1++xnCn, de modo que el sistema de ecuaciones puede ser escrito como x1C1++xnCn=b.

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean AMn(F) y bFm. Sea (A|b) la matriz en Mn,n+1(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si rank(A)=rank((A|b)).
  • El conjunto de soluciones Sh al sistema homogéneo es un subespacio de Fn de dimensión nrank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces rank(A)=rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si rank(A)=rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:FnFm tal que XAX. Por el teorema de rango-nulidad, tenemos que dimSh=ndimIm(T)=nrank(A). Esto termina la demostración.

◻

Como discutimos con anterioridad, ya que tenemos una solución x0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto x0+Sh:={x0+x:xSh}. En otras palabras, cualquier solución al sistema se puede obtener sumando a x0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=0

Afirmamos que el sistema no tiene solución. La matriz asociada es A=(2313123105). Por lo que sabemos de determinantes de 3×3, podemos calcular su determinante como
|2313123105|=(2)(1)(5)+(3)(10)(1)+(3)(3)(2)(1)(1)(3)(2)(10)(2)(3)(3)(5)=1030+18340+45=0.

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como |2331|=(2)(1)(3)(3)=11 es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz (A|b)=(2311312031050). Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3×3 por expansión de Laplace en la última columna:

|2313103100|=1|31310|0|23310|+0|2331|=1(310+13)=33.

De esta forma, (A|b) tiene una submatriz de 3×3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que rankA=23=rank(A|b), de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x1,,xr y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

a11x1+a12x2++a1rxr=b1a1,r+1xr+1a1,nxna21x1+a22x2++a2rxr=b2a2,r+1xr+1a2,nxnar1x1+ar2x2++arrxr=bmar,r+1xr+1ar,nxn,

Aquí xr+1,,xn son lo que antes llamábamos las variables libres y x1,,xr son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en Mn(F) y b=(b1,,bn) un vector en Fn. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x1,,xn) dada por xi=detAidetA, en donde Ai es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por X=(x1,,xn)=A1b.

Si C1,,Cn son las columnas de A, que (x1,,xn) sea solución al sistema quiere decir que x1C1++xnCn=b.

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:
detAi=det(C1,,Ci1,b,Ci+1,,Cn)=det(C1,,Ci1,j=1nxjCj,Ci+1,,Cn)=j=1nxjdet(C1,,Ci1,Cj,Ci+1,,Cn)=xidet(C1,,Ci1,Ci,Ci+1,,Cn)=xidetA

Como A es invertible, su determinante no es 0, de modo que xi=detAidetA, como queríamos.

◻

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=3

En un ejemplo anterior vimos que la matriz asociada A=(2313123105) tiene rango 2. Se puede verificar que la matriz aumentada (A|b)=(2311312031053) también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 32=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(1)(3)(3)=110, entonces el sistema de ecuaciones original es equivalente al subsistema

2x+3y=1+z3xy=2z.

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
x=|1+z32z1|11=15z11y=|21+z32z|11=3+7z11.

De esta forma, las soluciones al sistema original están dadas por (15z11,3+7z11,z)=(111,311,0)+z(511,711,1).

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector (511,711,1), y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular (111,311,0).

◻

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2×2 con un parámetro θ. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto (x,y) del plano tal que al rotarse en θ alrededor del origen, llega al punto (a,b) » .

Problema. Sea a,b,θ números reales. Encuentra las soluciones x,y al sistema de ecuaciones
xcosθysinθ=axsinθ+ycosθ=b.

Solución. La matriz asociada al sistema es A=(cosθsinθsinθcosθ) que tiene determinante detA=cos2θ+sin2θ=1.

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

x=|asinθbcosθ|detA=acosθ+bsinθy=|cosθasinθb|detA=bcosθasinθ.

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz A=(201324523125).
  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=(5832) y AX=(58133).
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en Mn(R) con entradas enteras y de determinante 1, y b es un vector en Rn con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?
  • Considera un sistema de ecuaciones con coeficientes en un campo F1 y una extensión de campo F2. Muestra que si el sistema tiene una solución en F2, entonces también tiene una solución en F1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»