Archivo de la etiqueta: matrices invertibles

Cálculo Diferencial e Integral III: Sistemas de ecuaciones lineales

Por Alejandro Antonio Estrada Franco

Introducción

En esta entrada daremos un repaso a la teoría de sistemas de ecuaciones lineales. En caso de que quieras leer una versión detallada, puedes comenzar con la entrada de Sistemas de ecuaciones lineales y sistemas homogéneos asociados que forma parte del curso Álgebra Lineal I aquí en el blog.

Nuestra motivación para este repaso comienza como sigue. Supongamos que T:RnRm es una transformación lineal. Tomemos un vector w¯Rm. Es muy natural preguntarse qué vectores v¯ hay en Rn tales que T(v¯)=w¯, en otras palabras, preguntarse cuál es la preimagen de w¯.

Sistemas de ecuaciones lineales

Continuando con la situación planteada en la introducción, si A es la representación matricial de T en una cierta base β, podemos contestar la pregunta planteada resolviendo la ecuación matricial AX=B donde X, B son las representaciones de los vectores v¯, w¯ en la base β, respectivamente. Una vez llegado a este punto, la ecuación AX=B nos conduce a que se deban cumplir varias igualdades. Veamos cuáles son en términos de las entradas de A, X y Y. Pensemos que A=(a11a12a1na21a22a2nam1am2amn).

Pensemos también que X es el vector columna con entradas (incógnitas) x1,,xn, y que B es el vector columna con entradas b1,,bm.

Al realizar las operaciones, la igualdad AX=B se traduce en que se deban cumplir todas las siguientes ecuaciones simultáneamente:

(1){a11x1++a1nxn=b1am1x1++amnxn=bm

Definición. Un sistema de m ecuaciones lineales con n incógnitas es un sistema de ecuaciones de la forma (1). Como discutimos arriba, al sistema también lo podemos escribir de la forma AX=B. A la matriz A le llamamos la matriz de coeficientes. Al vector X le llamamos el vector de incógnitas.

Resolver el sistema (1) se refiere a determinar todos los posibles valores que pueden tomar las incógnitas x1,,xn de manera que se cumplan todas las ecuaciones dadas.

Definición. Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

Un resultado importante que relaciona a los sistemas de ecuaciones con las operaciones elementales que discutimos con anterioridad es el siguiente.

Proposición. Sea AMm,n(R) y e una operación elemental cualquiera (intercambio de renglones, reescalamiento de renglón, o transvección). Entonces el sistema de ecuaciones AX=B es equivalente al sistema de ecuaciones e(A)X=e(B).

En otras palabras, si comenzamos con un sistema de ecuaciones AX=B y aplicamos la misma operación elemental a A y a B, entonces obtenemos un sistema equivalente. Veamos como ejemplo un esbozo de la demostración en el caso del reescalamiento de vectores. Los detalles y las demostraciones para las otras operaciones elementales quedan como ejercicio.

Demostración. Consideremos el rescalamiento e de la j-ésima columna de una matriz por un factor r. Veremos que e(A)X=e(B). Tomemos

A=(a11a1nam1amn),B=(b1bm),X=(x1xn)

Entonces la ecuación matricial AX=B nos produce el siguiente sistema de ecuaciones lineales:
{a11x1++a1nxn=b1am1x1++amnxn=bm.

Tomemos una solución del sistema: X=(x1xn)

La ecuación matricial e(A)X=e(B) nos produce el siguiente sistema de ecuaciones: {a11x1++a1nxn=b1raj1x1++rajnxn=rbj am1x1++amnxn=bm.

Ahora, de cada una de las n ecuaciones, excepto la j-ésima, sabemos que se solucionan al sustituir x1,,xm, resta revisar la j-ésima ecuación. Lo que sí sabemos de que X sea solución es que aj1x1++ajnxn=bj. Así, al multiplicar por r de ambos lados raj1x1++rajnxn=rbj. Así obtenemos que X satisface también a e(A)X=e(B). Inversamente si una solución satisface al sistema e(A)X=e(B) también lo hace para AX=Y. Te recomendamos revisar los detalles por tu cuenta.

◻

Soluciones a sistemas de ecuaciones lineales

La teoría de sistemas de ecuaciones lineales nos dice que tenemos tres posibles situaciones que se pueden presentar cuando estamos resolviendo un sistema de ecuaciones lineales en R: no hay solución, hay una única solución, o tenemos infinidad de soluciones. Por ejemplo, se puede descartar que haya exactamente dos soluciones. En cuanto sucede esto, la cantidad de soluciones se dispara a una infinidad

Haremos una discusión de cuándo se presenta cada caso. De acuerdo con la sección anterior, cualquier operación elemental pasa un sistema de ecuaciones a uno equivalente. Además, de acuerdo con el teorema de reducción gaussiana, cualquier matriz puede ser llevada a la forma escalonada reducida. Así, al aplicar tanto a A como a B las operaciones elementales que llevan A a su forma escalonada reducida Ared, llegamos a un sistema equivalente AredX=C. El comportamiento del conjunto solución de AX=B se puede leer en este otro sistema equivalente como sigue:

  1. Sin solución. El sistema AX=B no tiene solución si en AredX=C hay una igualdad lineal del estilo 0xj1++0xjn=cj, con cj0. En otras palabras, si en Ared hay una fila j de ceros y la entrada cj es distinta de cero.
  2. Infinidad de soluciones. El sistema AX=B tiene una infinidad de soluciones si tiene solución, y además hay por lo menos una columna k de Ared en la que no haya pivote de ninguna fila. Esta columna k corresponde a una variable libre xk que puede tomar cualquier valor, y el sistema tiene soluciones sin importar el valor que se le de a esta variable.
  3. Solución única. Un sistema de ecuaciones con solución, pero sin variables libres tiene una única solución. Esto se puede leer en la matriz Ared, pues se necesita que todas las columnas tengan un pivote de alguna fila.

Pensemos un poco a qué se deben los comportamientos anteriores. Pensemos en que ya llegamos a AredX=C. Iremos determinando los posibles valores de las entradas de X de abajo hacia arriba, es decir, en el orden xn,xn1,,x1. Si xk es variable libre, pongamos el valor que sea. Si xk tiene el pivote de, digamos, la fila j, entonces la ecuación j nos dice 0++0+xk++ajnxn=bj. Esto nos diría que xk=bjaj(k+1)xk+1ajnxn, así que hemos logrado expresar a xk en términos de las variables ya determinadas xk+1,xn.

Matrices equivalentes por filas

Definición. Consideremos IMm(R) la matriz identidad de tamaño m. Una matriz elemental será una matriz que se obtenga de la identidad tras aplicar una operación elemental.

Definición. Sean A,BMm,n(R). Diremos que A es equivalente por filas a B si A se puede obtener al aplicar una sucesión finita de operaciones elementales a B.

Se puede demostrar que «ser equivalente por filas» es una relación de equivalencia en Mm,n(R). Así mismo, se puede demostrar en general que si e es una operación elemental, entonces e(A) es exactamente la misma matriz que multiplicar la matriz elemental e(I) por la izquierda por A, es decir, e(A)=e(I)A. Como tarea moral, convéncete de ambas afirmaciones.

Para realizar la demostración, quizás quieras auxiliarte de la siguiente observación. Tomemos una matriz BMm,n(R) y pensemos en cada columna de B como un vector columna:

B1=(B11Bm1)Bn=(B1nBmn).

Tomemos ahora una matriz AMp,m. Tras realizar las operaciones, se puede verificar que la matriz AB tiene como columnas a los vectores columna AB1,AB2,,ABn.

El siguiente teorema nos da una manera alternativa de saber si dos matrices son equivalentes por filas.

Teorema. Sean A,BMm×n(R). Se tiene que B es equivalente por filas a A si y sólo si B=PA, donde P es una matriz en Mm(R) obtenida como producto de matrices elementales.

Demostración. Por la discusión anterior, si B es equivalente por filas a A, A resulta de la aplicación de una sucesión finita de operaciones elementales a B o, lo que es lo mismo, resulta de una aplicación finita de productos de matrices elementales por la izquierda. Por otro lado, si B=PA, con P=EkE1 producto de matrices elementales, tenemos que E1A es equivalente por filas a A, que E2(E1A) es equivalente por filas a E1A, que E3(E2(E1(A))) equivalente por filas a E2(E1(A)), y así sucesivamente. Usando que ser equivalente por filas es transitivo (por ser relación de equivalencia), concluimos que B es equivalente por filas a A.

◻

¿Qué sucede con los determinantes y las operaciones elementales? La siguiente proposición lo resume.

Proposición. Sea A una matriz en Mn(R) con determinante det(A).

  • Si se intercambian dos filas, el determinante se vuelve det(A).
  • Si se reescala una fila por un real r0, el determinante se vuelve rdet(A).
  • Si se hace una transvección, el determinante no cambia.

Observa que, en particular, si det(A)0, entonces sigue siendo distinto de cero al aplicar operaciones elementales.

Matrices invertibles y sistemas de ecuaciones lineales

En muchas ocasiones nos encontramos en cálculo de varias variables con funciones que van de Rn a sí mismo. Si la función que estamos estudiando es una transformación lineal, entonces corresponde a una matriz cuadrada en Mn(R). En estos casos hay otro concepto fundamental que ayuda, entre otras cosas, para resolver sistemas de ecuaciones lineales: el de matriz invertible. Veremos a continuación que esto interrelaciona a las matrices, las matrices elementales, los sistemas de ecuaciones lineales y a los determinantes.

Definición. Una matriz A cuadrada es invertible por la izquierda (resp. derecha) si existe una matriz B tal que BA=I (resp. AB=I). A B le llamamos la inversa izquierda (resp. derecha) de A. A una matriz invertible por la derecha y por la izquierda, donde la inversa izquierda sea igual a la derecha, simplemente se le llama invertible.

Se puede demostrar que, cuando existe, la matriz izquierda (o derecha) es única. Esto es sencillo. Se puede demostrar también que si B es inversa izquierda y B es inversa derecha, entonces B=B, lo cual no es tan sencillo. Además, se cumplen las siguientes propiedades de matrices invertibles.

Proposición. Sean A,BMn(R)

  1. Si A es invertible, también lo es A1 y (A1)1=A.
  2. Si A y B son invertibles, también lo es AB y (AB)1=B1A1.

Demostración. El inciso 1 es claro; para el inciso 2 tenemos (AB)(B1A1)=A(BB1)A1=A(I)A1=AA1=I =B1(I)B=B1(A1A)B=(B1A1)(AB).

◻

Veamos ahora cómo se conecta la noción de invertibilidad con la de matrices elementales. Como parte de la tarea moral, cerciórate de que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, piensa en otra operación elemental que aplicada sucesivamente a la primera nos de la matriz original. Con más detalle; si denotamos con e a una operación elemental (puede ser cualquiera) denotamos como e1 a la segunda a la cual llamaremos inversa de e; y estas cumplen e(e1)(A)=A=e1(e(A)) para cualquier matriz A a la que se le pueda aplicar e.

Proposición. Toda matriz elemental es invertible.

Demostración. Supongamos que E una matriz elemental correspondiente a la operación unitaria e. Si e1 es la operación inversa de e y E1=e1(I) tenemos: EE1=e(E1)=e(e1(I))=I, y así mismo tenemos E1E=e1(E)=e1(e(I))=I. De esta manera E es invertible y su inversa es E1.

◻

El resultado anterior habla sólo de la invertibilidad de matrices elementales, pero podemos usar a estas para caracterizar a las matrices invertibles.

Teorema. Sea AMn(R), los siguientes enunciados son equivalentes:

  1. A es invertible
  2. A es equivalente por filas a la matriz identidad
  3. A es producto de matrices elementales

Demostración. 12). Supongamos que A invertible, y usemos el teorema de reducción Gaussiana para encontrar la forma escalonada reducida Ared de A mediante una sucesión de operaciones elementales. Por el teorema de la sección de matrices equivalentes por filas, tenemos que R=EkE1A, donde Ek,,E1 son matrices elementales. Cada Ei es invertible, y A es invertible. Por la proposición anterior, tenemos entonces que Ared es invertible. Se puede mostrar que entonces ninguna fila de Ared puede consistir de puros ceros (verifícalo de tarea moral), de modo que toda fila de A tiene pivote (que es igual a 1). Como hay n filas y n columnas, entonces hay exactamente un 1 en cada fila y en cada columna. A Ared no le queda otra opción que ser la matriz identidad.

23). Si A es equivalente por filas a I, entonces hay operaciones elementales que la llevan a I. Como ser equivalente por filas es relación de equivalencia, existen entonces operaciones elementales que llevan I a A. Pero entonces justo A se obtiene de I tras aplicar un producto (por la izquierda) de matrices elementales. Por supuesto, en este producto podemos ignorar a I (o pensarla como un reescalamiento por 1).

31). Finalmente como cada matriz elemental es invertible y todo producto de matrices invertibles es invertible tenemos que 3 implica 1.

◻

Ya que entendemos mejor la invertibilidad, la podemos conectar también con la existencia y unicidad de soluciones en sistemas de ecuaciones lineales.

Teorema. Sea AMn(R); las siguientes afirmaciones son equivalentes:

  1. A es invertible.
  2. Para todo Y, el sistema AX=Y tiene exactamente una solución X.
  3. Para todo Y, el sistema AX=Y tiene al menos una solución X.

Demostración. 12). Supongamos A invertible. Tenemos que X=A1Y es solución pues AX=A(A1)Y=IY=Y. Veamos que la solución es única. Si X y X son soluciones, tendríamos AX=Y=AX. Multiplicando por A1 por la izquierda en ambos lados de la igualdad obtenemos X=X.

23). Es claro pues la única solución es, en particular, una solución.

31). Tomemos los vectores canónicos e^1,e^2,,e^n de Rn. Por (3) tenemos que todos los sistemas AX=e^1,,AX=e^n tienen solución. Tomemos soluciones B1,,Bn para cada uno de ellos y tomemos B como la matriz con columnas B1,,Bn. Por el truco de hacer el producto de matrices por columnas, se tiene que las columnas de AB son AB1=e^1,,ABn=e^n, es decir, AB es la matriz identidad.

◻

En la demostración anterior falta un detalle importante. ¿Puedes encontrar cuál es? Está en la demostración 31). Si quieres saber cuál es y cómo arreglarlo, puedes consultar la entrada Mariposa de 7 equivalencias de matrices invertibles.

Terminamos la teoría de esta entrada con un resultado que conecta invertibilidad y determinantes.

Proposición. Sea AMn(R). A es invertible, si y sólo si, det(A)0.

Demostración. Si A es invertible, entonces se cumple la ecuación I=AA1. Aplicando determinante de ambos lados y usando que es multiplicativo: 1=det(I)=det(AA1)=det(A)det(A1). Como al lado izquierdo tenemos un 1, entonces det(A)0.

Si det(A)0, llevemos A a su forma escalonada reducida Ared. Por la observación hecha al final de la sección de matrices elementales, se tiene que det(Ared)0. Así, en cada fila tenemos por lo menos un elemento no cero. Como argumentamos anteriormente, esto implica Ared=I. Como A es equivalente por filas a I, entonces es invertible.

◻

Mas adelante…

Continuaremos estableciendo herramientas de Álgebra lineal que usaremos en el desarrollo de los temas subsiguientes. En la siguiente entrada hablaremos de eigenvalores y eigenvectores. Con ellos, expondremos un método que proporciona una representación matricial sencilla simple para cierto tipos de transformaciones lineales.

Tarea moral

  1. Demuestra que la relación «es equivalente por filas» es una relación de equivalencia en Mm,n(R).
  2. Sea AMm,nR. Verifica que para cualquier operación elemental e de cualquiera de los tres tipos se cumple que e(A)X=e(B) es equivalente a AX=B. Deberás ver que cualquier solución de uno es solución del otro y viceversa.
  3. Demuestra que si A es invertible, también lo es A1 y que (A1)1=A. Verifica la invertibilidad izquierda y derecha.
  4. Demuestra que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, hay otra que al aplicarla sucesivamente nos regresa a la matriz original.
  5. Prueba que una matriz invertible tiene por lo menos un elemento distinto de cero en cada fila, y por lo menos un elemento distinto de cero en cada columna.

Entradas relacionadas

Álgebra Lineal I: Reducción gaussiana en sistemas lineales AX=b

Por Julio Sampietro

Introducción

Ya usamos el algoritmo de reducción gaussiana para estudiar sistemas de ecuaciones homogéneos. En esta entrada aplicamos lo que hemos aprendido de este método para resolver sistemas de ecuaciones no homogéneos.

Para hacer esto, adaptaremos la técnica para sistemas homogéneos (que en realidad, no es muy diferente) y la usamos para probar un resultado muy importante, llamado el teorema de existencia y unicidad. Damos unos cuantos ejemplos y concluimos con la prometida demostración de la unicidad de la forma escalonada reducida.

Adaptando el vocabulario

Consideramos un sistema lineal AX=b con AMm,n(F) y bFm, con variables x1,,xn que son las coordenadas de XFn. Para resolver el sistema consideramos la matriz aumentada (A|b) obtenida de A al añadir al vector b como columna hasta la derecha.

Ejemplo. Si

A=(012101) y b=(1214)

entonces

(A|b)=(0121210114)

Las operaciones elementales del sistema se traducen entonces en operaciones elementales en la matriz aumentada, por lo que para resolver el sistema podemos primero llevar a la matriz aumentada a su forma escalonada y reducida y después resolver el sistema más sencillo. Esto lo podríamos hacer siempre y cuando al realizar operaciones elementales en la matriz aumentada no se modifique el conjunto de soluciones del sistema. Esto lo garantiza la siguiente proposición.

Proposición. Sea el sistema lineal AX=b. Supongamos que la matriz (A|b) se obtiene a partir de la matriz (A|b) realizando una sucesión finita de operaciones elementales. Entonces los sistemas AX=b y AX=b son equivalentes, es decir, tienen el mismo conjunto de soluciones.

Demostración: Como ya hemos visto anteriormente, realizar operaciones elementales en (A|b) es equivalente a realizar operaciones elementales en las ecuaciones del sistema AX=b, pero ya sabemos que estas no alteran el conjunto de soluciones, pues son reversibles (es decir, podemos siempre deshacer los cambios).

◻

El teorema de existencia y unicidad

Llegamos ahora a otro resultado clave de nuestro estudio de ecuaciones. Es una caracterización que responde a nuestras preguntas: ¿Hay soluciones? ¿Son únicas? Además, nos puede sugerir cómo encontrarlas.

Teorema. (De existencia y unicidad) Supongamos que la matriz (A|b) ha sido llevada a su forma escalonada reducida (A|b) por operaciones elementales.

  1. (Existencia de soluciones) El sistema AX=b es consistente si y sólo si (A|b) no tiene ningún pivote (de filas) en su última columna.
  2. (Unicidad de soluciones) Si el sistema es consistente, entonces tiene una única solución si y sólo si A tiene pivotes (de filas) en cada columna.

Demostración:

  1. Supongamos que (A|b) tiene un pivote en su última columna. Debemos ver que el sistema AX=b no tiene solución. Para esto, basta ver que el sistema AX=b no tiene solución, pues es un sistema equivalente.

    Si el pivote aparece en el i-ésimo renglón entonces este es de la forma (0,,0,1), pues recordemos que los pivotes son iguales a 1 en la forma escalonada reducida. Entonces entre las ecuaciones del sistema AX=b tenemos una de la forma 0x1++0xn=1, que no tiene solución alguna. Así el sistema AX=b no es consistente, y por tanto AX=b tampoco lo es.

    Conversamente, supongamos que (A|b) no tiene un pivote en su última columna. Digamos que A tiene pivotes en las columnas j1<<jkn y sean xj1,,xjk las correspondientes variables pivote y todas las demás variables son libres. Dando el valor cero a todas las variables libres obtenemos un sistema en las variables xj1,,xjk. Este sistema es triangular superior y se puede resolver empezando por la última ecuación, encontrando xjk, luego xjk1 y así sucesivamente. Así encontramos una solución, por lo que el sistema es consistente. Esta solución encontrada también es una solución a AX=b, pues es un sistema equivalente.
  2. Como le podemos dar cualquier valor escalar a las variables libres, el argumento del párrafo anterior nos dice que la solución es única si y sólo si no tenemos variables libres, pero esto pasa si y sólo si los pivotes llegan hasta la última columna de A.

◻

Ten cuidado. En la primer parte, la condición se verifica con (A|b). En la segunda parte, la condición se verifica con A.

Encontrando y contando soluciones

Por simplicidad, asumamos que F=R, es decir que nuestro campo de coeficientes del sistema AX=b es el de los números reales. Procedemos como sigue para encontrar el número de soluciones del sistema:

  1. Consideramos la matriz aumentada (A|b).
  2. Llevamos esta matriz a su forma escalonada reducida (A|b).
  3. Si esta matriz tiene un renglón de la forma (0,,0,1), entonces el sistema es inconsistente.
  4. Si no tiene ningún renglón de esa forma, vemos si todas las columnas de A tienen al pivote de alguna fila:
    • Si en efecto todas tienen pivote, entonces el sistema tiene una única solución.
    • Si no todas tienen pivote, entonces nuestro sistema tiene una infinidad de soluciones.

En el caso en el que hay una o una infinidad de soluciones, además podemos decir exactamente cómo se ven esas soluciones:

  • Haciendo las variables libres iguales a cero (si es que hay), obtenemos una solución X al sistema AX=b.
  • Usamos reducción gaussiana para encontrar todas las soluciones al sistema homogéneo AX=0.
  • Finalmente, usamos el principio de superposición. Todas las soluciones a AX=b son de la forma X más una solución a AX=0.

Problema. Consideremos la matriz

A=(122011244).

Dado bR3, encuentra condiciones necesarias y suficientes en términos de las coordenadas de b para que el sistema AX=b sea consistente.

Solución: Dado b con coordenadas b1,b2 y b3, la matriz aumentada es

(A|b)=(122b1011b2244b3).

Para obtener su forma escalonada reducida sustraemos dos veces el primer renglón del tercero y luego dos veces el segundo del primero, obteniendo así:

(A|b)(100b12b2011b2000b32b1).

Por el teorema anterior, el sistema AX=b es consistente si y sólo si esta matriz no tiene pivotes en la última columna, es decir, necesitamos que la entrada de hasta abajo a la derecha sea cero. Así, el sistema es consistente si y sólo si b32b1=0 o, dicho de otra manera, si y sólo si b3=2b1.

Unicidad de la forma escalonada reducida

Concluimos esta entrada con una demostración de la unicidad de la forma escalonada reducida, usando que si dos matrices A y B que difieren por una sucesión finita de operaciones elementales entonces los sistemas AX=0 y BX=0 son equivalentes. La demostración que presentamos (corta y elegante) se debe a Thomas Yuster, publicada en el año 1983.

Teorema. La forma escalonada reducida es única.

Demostración: Procedemos por inducción sobre n, el número de columnas de AMm,n(F). El resultado es claro para n=1, pues solo tenemos una columna cero o una columna con un 1 hasta arriba. Supongamos pues que el resultado se cumple para n1, y demostremos que se cumple para n. Sea AMm,n(F) y sea AMm,n1(F) la matriz que se obtiene al quitarle la n-ésima columna.

Supongamos que B y C son ambas matrices distintas en forma escalonada reducida obtenidas de A. Dado que una sucesión de operaciones elementales que llevan a A a una forma escalonada reducida también llevan a A a una forma escalonada reducida (si a una matriz escalonada reducida le cortamos una columna, sigue siendo escalonada reducida), podemos aplicar la hipótesis de inducción y concluir que si B y C son distintas entonces difieren en la columna que quitamos y solo en esa.

Sea j tal que bjncjn (por nuestra discusión previa, existe esta entrada, ya que asumimos que BC). Si X es un vector tal que BX=0 entonces CX=0, ya que A,B y C son matrices equivalentes. Luego (BC)X=0. Como B y C difieren solo en la última columna, la j-ésima ecuación del sistema se lee (bjncjn)xn=0, pues los coeficientes previos son cero. Así, xn=0 siempre que BX=0 o CX=0. Se sigue que xn no es una variable libre para B y C, por lo que ambas tienen un pivote en la última columna. Como ambas están en forma escalonada reducida, entonces la última columna tiene necesariamente un 1 en la entrada de hasta abajo y puros ceros en otras entradas, es decir, B y C tienen la misma última columna, una contradicción a nuestras suposiciones.

Se sigue que entonces B=C y queda probado por contradicción el paso inductivo, lo que prueba el teorema.

◻

Más adelante…

El método que describimos en esta entrada es muy flexible y poderoso. Permite resolver sistemas de ecuaciones de la forma AX=b de manera metódica. Esto no quiere decir que ya entendamos todo lo que hay que saber de sistemas lineales. Una vez que hayamos introducido los conceptos de espacio vectorial y subespacio, podremos describir con más precisión cómo son las soluciones a un sistema lineal. Además, más adelante, veremos otras formas en las que se pueden resolver sistemas de ecuaciones usando determinantes. En particular, veremos la regla de Cramer.

Por ahora, nos enfocaremos en una aplicación más de la reducción gaussiana: encontrar inversas de matrices. Veremos esto en la siguiente entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina cuántas soluciones tiene el sistema AX=b con
    A=(011247001) y b=(161)
  • Si A tiene estrictamente más renglones que columnas y b es un vector que no tiene ninguna entrada cero, ¿puede el sistema AX=b ser consistente?
  • Si A tiene estrictamente más columnas que renglones, ¿puede el sistema AX=0 tener una única solución?
  • Si AMm,n(F) es una matriz diagonal, ¿que puedes decir de la consistencia y la unicidad de soluciones del sistema AX=b?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Reducción gaussiana para determinar inversas de matrices

Por Ayax Calderón

Introducción

En entradas anteriores hablamos de las matrices en forma escalonada reducida y de cómo cualquier matriz puede ser llevada a esta forma usando el algoritmo de reducción gaussiana. Usamos esto para resolver sistemas de ecuaciones lineales arbitrarios, es decir, de la forma AX=b. en esta ocasión estudiaremos cómo ver si una matriz es invertible y cómo determinar inversas de matrices mediante el algoritmo de reducción gaussiana.

Inversas de matrices elementales

Recordemos que una matriz AMn(F) es invertible si existe una matriz B tal que AB=BA=In. Dicha matriz B es única, se conoce como la matriz inversa de A y se denota por A1.

Es importante observar que las matrices elementales son invertibles, puesto que las operaciones elementales se pueden revertir (esto también nos dice que la inversa de una matriz elemental también es una matriz elemental). Por ejemplo, si la matriz E se obtiene de In intercambiando los renglones i y j, entonces E1 se obtiene de In haciendo la misma operación, por lo que E1=E. Por otro lado, si E se obtiene de sumar λ veces el renglón j al renglón i en In, entonces E^{-1} se obtiene de sumar λ veces el renglón j al renglón i en In. El argumento para reescalamientos queda como tarea moral.

Debido a su importancia, enunciaremos este resultado como una proposición.

Proposición. Las matrices elementales son invertibles y sus inversas también son matrices elementales. Como consecuencia, cualquier producto de matrices elementales es invertible.

Algunas equivalencias de matrices invertibles

Hasta el momento sólo tenemos la definición de matrices invertibles para verificar si una matriz es invertible o no. Esto es poco práctico, pues dada una matriz, tendríamos que sacar otra «de la nada».

El siguiente resultado empieza a decirnos cómo saber de manera práctica cuándo una matriz cuadrada es invertible. También habla de una propiedad importante que cumplen las matrices invertibles.

Teorema. Para una matriz AMn(F) las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) Ared=In.
(c) A es producto de matrices elementales.

Demostración. Para empezar, notemos que el producto de matrices invertibles es invertible , pues cualquier matriz elemental es invertible y las matrices invertibles son estables bajo productos. Esto prueba que (c) implica (a).

Ahora, supongamos que (a) se satisface. Recordemos que para una matriz AMm,n(F) podemos encontrar una matriz BMm(F) que es producto de matrices elementales y tal que Ared=BA. Como A es invertible (por hipótesis) y B es invertible (por la proposición de la sección anterior), entonces BA es invertible y por consiguiente Ared también lo es. En particular, todos los renglones de Ared son distintos de cero y por lo tanto Ared tiene n pivotes, uno en cada columna. Como Ared está en forma escalonada reducida, necesariamente Ared=In. Esto prueba que (a) implica (b).

Finalmente, supongamos que (b) se satisface. Entonces existe una matriz B, la cual es producto de matrices elementales y tal que BA=In. Por la proposición anterior B es invertible y B1 es producto de matrices elementales. Como BA=In, tenemos que A=B1BA=B1 y así A es producto de matrices elementales, de manera que (b) implica (c).

◻

Ya podemos responder de manera práctica la pregunta «¿A es invertible?». Para ello, basta aplicarle reducción gaussiana a A. Por el teorema anterior, A es invertible si y sólo si la forma escalonada reducida obtenida es In. Por supuesto, esto aún no nos dice exactamente quién es la inversa.

Invertibilidad y sistemas de ecuaciones

La siguiente proposición expresa las soluciones del sistema AX=b cuando A es una matriz cuadrada e invertible. Para facilitar las cosas hay que tener un algoritmo para encontrar la inversa de una matriz. Más adelante veremos uno de estos algoritmos basado en reducción gaussiana.

Proposición. Si AMn(F) es una matriz invertible, entonces para todo bFn el sistema AX=b tiene una única solución, dada por X=A1b.

Demostración. Sea X una solución del sistema. Multiplicando la igualdad AX=b por la izquierda por A1 obtenemos A1(AX)=A1b. Como
A1(AX)=(A1A)X=InX=X,
concluimos que X=A1b, por lo tanto el sistema tiene a lo más una solución. Para ver que esta es en efecto una solución, calculamos
A(A1b)=(AA1)b=Inb=b.

◻

A continuación presentamos un resultado más, que relaciona matrices invertibles con que sus sistemas lineales correspondientes tengan soluciones únicas.

Teorema. Sea AMn(F) una matriz. Las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) Para toda bFn el sistema AX=b tiene una única solución XFn.
(c) Para toda bFn el sistema AX=b es consistente.

Demostración. Ya demostramos que (a) implica (b). Es claro que (b) implica (c) pues si el sistema tiene una única solución, en particular tiene una solución.

Así, supongamos que que (c) se satisface. Sea Ared la forma escalonada reducida de A. Por una proposición ya antes mencionada en esta entrada sabemos que existe una matriz B la cual es producto de matrices elementales (por lo tanto invertible) y tal que Ared=BA. Deducimos que el sistema AredX=Bb tiene al menos una solución para todo bFn (pues si AX=b, entonces AredX=BAX=Bb).

Ahora, para cualquier bFn podemos encontrar b tal que b=Bb, tomando b=B1b. Aquí estamos usando que B es invertible por ser producto de matrices elementales. Concluimos que el sistema AredX=b es consistente para cada bFn, pero entonces cualquier renglón de Ared debe ser distinto de cero (si la fila i es cero, entonces escogiendo cada vector b con la iésima coordenada igual a 1 se obtiene un sistema inconsistente) y, como en la demostración del teorema anterior, se tiene que Ared=In. Usando el teorema anterior concluimos que A es invertible.

◻

Hasta ahora, al tomar un matriz cuadrada A y proponer una inversa B, la definición de invertibilidad nos exige mostrar ambas igualdades AB=In y BA=In. Finalmente tenemos las herramientas necesarias para mostrar que basta mostrar una de estas igualdades para que ambas se cumplan.

Corolario. Sean A,BMn(F) matrices.
(a) Si AB=In, entonces A es invertible y B=A1.
(b) Si BA=In, entonces A es invertible y B=A1.

Demostración. (a) Para cada bFn el vector X=Bb satisface
AX=A(Bb)=(AB)b=b,
por lo tanto el sistema AX=b es consistente para cada bMn(F). Por el teorema anterior, A es invertible. Multiplicando la igualdad AB=In por la izquierda por A1 obtenemos B=A1AB=A1, y así B=A1.
(b) Por el inciso (a), sabemos que B es invertible y A=B1, pero entonces A es invertible y A1=B.

◻

Determinar inversas usando reducción gaussiana

El corolario anterior nos da una manera práctica de saber si una matriz es invertible y, en esos casos, determinar inversas de matrices. En efecto, A es invertible si y sólo si podemos encontrar una matriz X tal que AX=In y de aquí X=A1.

La ecuación AX=In es equivalente a los siguientes sistemas lineales:
AX1=e1,,AX2=e2,,AXn=en.
donde ei es la iésima columna de In y Xi denota la iésima columna de X. Ya sabemos cómo resolver sistemas lineales usando reducción gaussiana. Esto nos da una manera práctica de calcular X: si al menos uno de estos sistemas es inconsistente, entonces A no es invertible; si todos son consistentes, entonces las soluciones X1,,Xn son las columnas de la inversa.

En la práctica, uno puede evitar resolver n sistemas lineales considerando el siguiente truco:

En lugar de tomar n matrices aumentadas [A|ei] considera sólo la matriz aumentada [A|In], en la cual agregamos la matriz In a la derecha de A (de manera que [A|In] tiene 2n columnas). Finalmente sólo hay que encontrar la forma escalonada reducida [A|X] de la matriz de n×2n[A|In]. Si A resulta ser distinto de In, entonces A no es inverible. Si A=In, entonces la inversa de A es simplemente la matriz X.

Ejemplo de determinar inversas

Para ilustrar lo anterior resolveremos el siguiente ejemplo práctico.

Ejemplo. Calcula la inversa de la matriz
A=(1512115930).

Solución. Aplicamos reducción gaussiana a la matriz extendida
[A|I3]=(1511002115010930001)
R22R1(151100013210930001)
R39R1(1511000132100489901)

R15R2(101411500132100489901)
R3+48R2(1014115001321000135105481)
1135R3(101411500132100017916451135)
R1+14R3(10019145141350132100017916451135)
R23R3(1001914514135010131151450017916451135)
De donde
A1=(1914514135131151457916451135).

En el ejemplo anterior hicimos el algoritmo de reducción gaussiana «a mano», pero también pudimos haber usado una herramienta en línea, como la calculadora de forma escalonada reducida de eMathHelp.

Más adelante…

En esta entrada vimos cómo el algoritmo de reducción gaussiana nos permite saber si una matriz es invertible o no. También nos da una forma práctica de determinar inversas. Hay otras formas de hacer esto mediante determinantes. Sin embargo, el método que describimos es bastante rápido y flexible.

Ya que entendemos un poco mejor a las matrices invertibles, el siguiente paso es usarlas para desarrollar nuestra teoría de álgebra lineal. Las matrices invertibles se corresponden con transformaciones lineales que se llaman isomorfismos, las cuales detectan cuándo dos espacios vectoriales son «el mismo».

También más adelante refinaremos el concepto de ser invertible y no. Esta es una clasificación en sólo dos posibilidades. Cuando definamos y estudiamos el rango de matrices y transformaciones lineales tendremos una forma más precisa de decir «qué tanta información guarda una transformación».

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuál sería la operación elemental inversa a aplicar un reescalamiento por un factor c0 en el renglón de una matriz?
  • Encuentra la inversa de la matriz
    (121202120).
    mediante reducción gaussiana.
  • Resuelve el sistema de ecuaciones
    {x+2y+2z=12x+y+2z=42x+2y+z=5
  • Sea AMn(F) una matriz tal que AredIn. Explica por qué A no es invertible.
  • Cuando A no es invertible, la matriz [A|In] tiene forma escalonada reducida [Ared|X], con AredIn. ¿Qué sucede si en este caso haces la multiplicación AX? ¿Y la multiplicación XA?
  • Demuestra la primera proposición de esta entrada para operaciones elementales sobre las columnas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Teorema de reducción gaussiana

Por Julio Sampietro

Introducción

Llegamos a uno de los resultados más importantes del álgebra lineal: el teorema de reducción gaussiana. Como mencionamos en una entrada previa, el teorema nos proporcionará un algoritmo que nos permitirá resolver muchos problemas prácticos: resolver sistemas lineales, invertir matrices, así como temas que veremos más adelante, como determinar la independencia lineal de vectores.

El teorema nos dice que cualquier matriz puede llevarse a una en forma escalonada reducida con solo una cantidad finita de operaciones elementales. La prueba además nos dice cómo hacerlo de una manera más o menos sencilla. Aparte de la demostración, damos una receta un poco más coloquial de cómo trabajar con el algoritmo y finalmente damos un ejemplo, muy importante para aclarar el procedimiento.

Sugerencia antes de empezar

El algoritmo que veremos es uno de esos resultados que es fácil de seguir para una matriz en concreto, pero que requiere de un buen grado de abstracción para entender cómo se demuestra en general. Una fuerte recomendación es que mientras estés leyendo la demostración del siguiente teorema, tengas en mente alguna matriz muy específica, y que vayas realizando los pasos sobre ella. Puedes usar, por ejemplo, a la matriz A=(004203100352).

El teorema de reducción gaussiana

Teorema. Cualquier matriz AMm,n(F) puede llevarse a una en forma escalonada reducida realizando una cantidad finita de operaciones elementales en sus filas.

Demostración: Daremos una demostración algorítmica. Sea AMm,n(F) cualquier matriz. Para auxiliarnos en el algoritmo, vamos a tener registro todo el tiempo de las siguientes dos variables:

  • X es la columna que «nos toca revisar».
  • Y es la cantidad de «filas no triviales» que hemos encontrado.

La variable X empieza siendo 1 y la variable Y empieza siendo 0.

Haremos los siguientes pasos:

Paso 1. Revisaremos la columna X a partir de la fila Y+1 (osea, al inicio Y=0, así que revisamos toda la columna). Si todas estas entradas son iguales a 0, entonces le sumamos 1 a X (avanzamos hacia la derecha) y si X<n, volvemos a hacer este Paso 1. Si X=n, vamos al paso 7.

Paso 2. En otro caso, existe alguna entrada distinta de cero en la columna X, a partir de la fila Y+1. Tomemos la primera de estas entradas. Supongamos que sucede en la fila i, es decir, que es la entrada aiX. Al número en esta entrada aiX le llamamos x.

Paso 3. Hacemos un intercambio entre la fila i y la fila Y+1. Puede pasar que i=Y+1, en cuyo caso no estamos haciendo nada. Independientemente del caso, ahora el número en la entrada (X,Y+1) es x0.

Paso 4. Tomamos la fila Y+1 y la multiplicamos por el escalar 1/x. Esto hace que ahora sea la primer entrada en su fila distinta de cero, y además que sea igual a 1.

Paso 5. De ser necesario, hacemos transvecciones para hacer el resto de las entradas de la columna X iguales a 0. Esto lo podemos hacer pues, si por ejemplo la entrada aiX0, entonces la transvección que a la i-ésima fila le resta aiX veces la (Y+1)-ésima fila hace que la entrada (i,X) se anule.

Paso 6. Le sumamos 1 a Y (para registrar que encontramos una nueva fila no trivial) y le sumamos 1 a X (para avanzar a la columna de la derecha). Si X<n, vamos al Paso 1. Si X=n, vamos al Paso 7.

Paso 7. Reportamos la matriz obtenida como Ared, la forma escalonada reducida de A.

Mostremos que en efecto obtenemos una matriz escalonada reducida. El Paso 3 garantiza que las únicas filas cero están hasta abajo. El Paso 4 garantiza que todos los pivotes son iguales a 1. El ir recorriendo las columnas de izquierda a derecha garantiza que los pivotes quedan «escalonados», es decir de abajo hacia arriba quedan de izquierda a derecha. El Paso 5 garantiza que cada pivote es la única entrada no cero de su columna.

◻

El procedimiento descrito en el teorema se llama reducción gaussiana.

Como vimos en la entrada anterior realizar una operación elemental es sinónimo de multiplicar por una matriz elemental. Como el teorema nos dice que podemos obtener una matriz en forma escalonada reducida realizando una cantidad finita de operaciones elementales, se sigue que podemos obtener una matriz en forma escalonada reducida multiplicando por la izquierda por un número finito de matrices elementales. Al asociar todas estas matrices elementales en un único producto, obtenemos la demostración del siguiente corolario.

Corolario. Para cualquier matriz AMm,n(F) podemos encontrar una matriz BMm(F) que es un producto finito de matrices elementales y que satisface qu Ared=BA.

Un tutorial de reducción gaussiana más relajado

Si bien el teorema nos da la manera formal de hacer el algoritmo, el proceso es en realidad bastante intuitivo una vez que se entiende. Para esto explicamos en unos cuantos pasos en términos más sencillos como hacer la reducción:

  1. Buscamos la primer columna de la matriz que no tenga puros ceros.
  2. Una vez encontrada, buscamos la primer entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos el renglón con esa entrada hasta arriba haciendo un cambio de renglones.
  4. Multiplicamos por el inverso de esa entrada a todo el renglón, para quedarnos así con un 1 hasta arriba.
  5. Sustraemos múltiplos del primer renglón a todos los otros renglones para que todo lo que esté abajo del 1 sea cero.
  6. Buscamos la siguiente columna tal que no sea cero abajo del primer renglón.
  7. Repetimos los pasos anteriores, solo que en lugar de pasar nuestro renglón «hasta arriba» solo lo colocamos en el segundo lugar, y así sucesivamente.

Un ejemplo de reducción gaussiana

La mejor manera de entender el algoritmo de reducción gaussiana es con un ejemplo. Usemos el algoritmo para reducir la matriz

A=(01234101230111131102)M4,5(R).

Aplicando los pasos en orden: Primero identificamos la primer columna que no sea idénticamente cero, y vemos que la primera columna no tiene puros ceros. La primer entrada que no es cero está en el segundo renglón. Así cambiamos el primer y segundo renglón de lugar para subir esa entrada y obtener

A1=(10123012340111131102).

Ahora que la primer entrada del primer renglón es distinta de cero, multiplicamos el primer renglón por 11=1 y obtenemos

A2=(10123012340111131102).

Ahora queremos quitar el 3 del último renglón. Para esto, multiplicamos por 3 el primer renglón y lo sumamos al último y nos queda

A3=(1012301234011113313013(1)03(2)23(3))=(101230123401111012611).

Ya tenemos entonces nuestra primera columna en forma escalonada reducida, pasemos a la segunda. Ya tenemos un 1 en la segunda entrada de la segunda columna, por lo que no hace falta hacer un cambio de renglón o multiplicar por un inverso. Basta entonces con cancelar las otras entradas de la columna, para eso sustraemos el segundo renglón del tercero y cuarto, para obtener

A4=(1012301234001112131400112263114)=(10123012340012300037).

Seguimos entonces con la tercera columna, y observamos que la entrada (3,3) es 1, entonces la transformamos en un 1 multiplicando el tercer renglón por 11=1.

A5=(10123012340012300037).

Ahora tenemos que cancelar las entradas de la tercer columna, para eso sumamos 2 veces el tercer renglón al segundo y una vez el tercer renglón al primero:

A6=(1+00+01+12+23+30201202213224230012300037)=(10000010120012300037).

Ahora pasamos a la siguiente columna. En la entrada (4,4) tenemos un 3, pero queremos un 1, entonces multiplicamos el último renglón por 13:

A7=(100000101200123000173).

Finalmente, cancelamos las entradas restantes de los otros renglones sustrayendo dos veces el último renglón del penúltimo y sumándolo una vez al segundo para obtener

A8=(10000010013001053000173).

Y así termina nuestro algoritmo, y nuestra matriz está en forma escalonada reducida. Las dos cosas más importantes de A8 son que

  • Está en forma escalonada reducida y
  • es equivalente a A, es decir, el sistema de ecuaciones AX=0 y el sistema de ecuaciones A8X=0 tienen exactamente las mismas soluciones.

De hecho, todas las matrices A,A1,A2,,A8 son equivalentes entre sí, pues difieren únicamente en operaciones elementales. Esta propiedad es muy importante, y precisamente es la que nos permite aplicar el algoritmo de reducción gaussiana a la resolución de sistemas lineales.

Una aplicación a un sistema de ecuaciones

Usemos el ejemplo anterior para resolver un sistema de ecuaciones:

Problema. Resolver en los reales el sistema lineal homogéneo AX=0 donde A es la matriz ejemplo de la sección anterior.

Solución: Los sistemas AX=0 y AredX=0 son equivalentes, por lo que basta resolver AredX=0 con Ared la matriz en forma escalonada reducida que encontramos (es decir, A8). Este sistema queda planteado por las siguientes ecuaciones lineales:

{x1=0x2+x53=0x353x5=0x4+73x5=0..

Ya hemos resuelto sistemas de este estilo. Aquí x5 es la variable libre y x1,x2,x3,x4 son variables pivote. Fijando x5 igual a cualquier número real t, obtenemos que las soluciones son de la forma

(0,13t,53t,73t,t),tR.

Más adelante…

El algoritmo de reducción gaussiana es crucial para muchos de los problemas que nos encontramos en álgebra lineal. Por ahora, las aplicaciones principales que veremos es cómo nos permite resolver sistemas de ecuaciones lineales de la forma AX=b y cómo nos permite encontrar inversas de matrices. Sin embargo, más adelante usaremos reducción gaussiana para determinar la dimensión de espacios vectoriales, conjuntos generados, para determinar si ciertos vectores son linealmente independientes, para determinar el rango de una matriz y varias otras cosas más.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Aplica el algoritmo de reducción gaussiana a la matriz (112233004455000066). Para su sistema lineal asociado, encuentra todas las variables pivote y libres y resuélvelo por completo.
  • Aplica el algoritmo de reducción gaussiana a la matriz (080215235031).
  • Considera las matrices A1, A4 y A8 de la sección con el ejemplo del algoritmo de reducción gaussiana. Toma una solución no trivial de A8X=0 y verifica manualmente que también es solución de los sistemas lineales A1X=0 y de A4X=0.
  • Encuentra la matriz B, producto de matrices elementales tal que BA=Ared con A la matriz que usamos en el ejemplo. Para ello, tendrás que multiplicar todas las matrices correspondientes a las operaciones elementales que usamos.
  • Explica qué es lo que garantiza que el algoritmo de reducción gaussiana en efecto hace una cantidad finita de operaciones elementales.
  • Aplica el algoritmo de reducción gaussiana a la matriz A=(02101101). Si haces los pasos correctamente, llegarás a una matriz del estilo Ared=(10ab01cd). Toma el bloque B de 2×2 de la izquierda de A, es decir B=(0211). Toma el bloque C de 2×2 de la derecha de Ared, es decir, C=(abcd). ¿Qué matriz obtienes al hacer el producto BC? ¿Y el producto CB? ¿Por qué crees que pasa esto?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de producto de matrices y matrices invertibles

Por Julio Sampietro

Introducción

Esta sección consta de puros problemas para practicar los conceptos vistos en entradas previas. Las entradas anteriores correspondientes son la de producto de matrices y la de matrices invertibles.

Problemas resueltos

Problema. Encuentra todas las matrices BM3(C) que conmutan con la matriz

A=(100000002).

Solución. Sea

B=(abcdefghi)M3(C).

Calculamos usando la regla del producto:

AB=(abc0002g2h2i)

y

BA=(a02cd02fg02i).

Igualando ambas matrices obtenemos que A y B conmutan si y sólo si se satisfacen las condiciones

{b=d=f=h=02c=c2g=g.

Las últimas dos condiciones son equivalentes a que c=g=0. Cualquier matriz que conmuta con A satisface estas condiciones y conversamente (por nuestro cálculo) si satisface estas ecuaciones conmuta con A. Esto nos deja como parámetros libres a a,e,i, es decir B puede ser cualquier matriz diagonal.

Problema. Considerando las matrices

A=(111041960),B=(110210),

¿cuáles de los productos A2,AB,BA,B2 tienen sentido? Calcula los que si lo tienen.

Solución. Recordamos que los productos tienen sentido si el número de columnas de la matriz de la izquierda sea el mismo que el número de filas de la matriz de la derecha. Entonces no podemos realizar los productos BA o B2 pues esta condición no se cumple (por ejemplo, B tiene 3 columnas, A tiene 2 filas, y estos números difieren). Calculamos entonces usando la regla del producto:

A2=(1011091049333),AB=(011893).

Problema. Considera la matriz A=(110011001)

  • Demuestra que A satisface que (AI3)3=O3
  • Calcula An para cualquier entero positivo n.

Solución.

  • Hacemos el cálculo directamente:
    (AI3)3=(010001000)2(010001000)=(001000000)(010001000)=O3.
  • Para este tipo de problemas, una estrategia que funciona es hacer casos pequeños para hacer una conjetura, y luego demostrarla por inducción. Probando para algunos valores de n conjeturamos que
    An=(1nn(n1)201n001).
    Lo demostramos por inducción sobre n, dando por cierto el caso base con n=1.
    Hagamos ahora el paso inductivo. Para esto usamos que 1++(n1)=n(n1)2.
    Nuestra hipótesis de inducción nos dice entonces que para cierto n se tiene que An=(1n1++(n1)01n001). Usando que An+1=AnA con nuestra hipótesis de inducción se sigue:
    An+1=AnA=(1n1++(n1)01n001)(110011001)=(11+n1++(n1)+n01n+1001).
    Luego el resultado es cierto para n+1 y así queda demostrado el resultado.

◻

El siguiente problema combina temas de números complejos y de matrices invertibles. Para que lo entiendas a profundidad, es útil recordar la teoría de raíces n-ésimas de la unidad. Puedes revisar esta entrada del blog. El ejemplo puede parecer un poco artificial. Sin embargo, las matrices que se definen en él tienen muchas aplicaciones, por ejemplo, en procesamiento de señales.

Problema. Sea n>1 un natural y sea

ζ=e2πin=cos(2πn)+isin(2πn).

Este número puede parecer muy feo, pero es simplemente la raíz n-ésima de la unidad de menor argumento.

Definimos la matriz de Fourier de orden n, denotada por Fn como la matriz tal que su (j,k)ésima entrada es ζ(j1)(k1) para 1j,kn.

  • a) Sea Fn la matriz cuya (j,k)ésima entrada es el conjugado complejo de la (j,k)ésima entrada de Fn. Demuestra que
    FnFn=FnFn=nIn.
  • b) Deduce que Fn es invertible y calcule su inversa.

Solución.

  • a) Sean 1j,kn. Usando la regla del producto, podemos encontrar la entrada (j,k) como sigue:
    (FnFn)jk=l=1n(Fn)jl(Fn)lk=l=1nζ(j1)(l1)ζ(l1)(k1)=l=1nζ(j1)(l1)(l1)(k1),
    la última igualdad se debe a que ζ=ζ1. Así
    (FnFn)jk=l=1nζ(l1)(jk)=l=0n1(ζjk)l.
    Y la suma de la derecha es la suma de una sucesión geométrica con razón ζjk. Si j=k, entonces ζjk=1, así que la suma es igual a n ya que cada termino es 1 y lo sumamos n veces. Si jk entonces ζjk1 y usamos la fórmula para una suma geométrica:
    l=0n1(ζjk)l=1(ζjk)n1ζjk=1(ζn)jk1ζjk=0.
    Usamos en la última igualdad que ζn=1. Se sigue que (FnFn)jk es n si j=k y 0 de otra manera, es decir
    FnFn=nIn.
    La igualdad simétrica FnFn=nIn se prueba de la misma manera y omitimos los detalles.
  • b) Por el inciso anterior, sugerimos 1nFn, y esta satisface

    Fn1nFn=1nnIn=In
    y la otra igualdad se verifica de la misma manera. Por lo tanto, Fn es invertible y su inversa es 1nFn.

◻

Problema. Sean A,BMn(R) matrices tales que

A+B=InA2+B2=On

Demuestra que A y B son invertibles y que satisfacen

(A1+B1)n=2nIn

Solución. Observamos que las propiedades dadas nos permiten calcular

A(In+BA)=(InB)(In+BA)=In+BABB2+BA=InAB2+BA=In+(BIn)AB2=InA2B2=In.

Es decir A1=In+BA (falta demostrar que con esta propuesta, también se cumple A1A=In, omitimos los cálculos). Similarmente B1=In+AB y por tanto A1+B1=2In y de esta igualdad se sigue la segunda parte del problema, pues

(A1+B1)n=(2In)n=2nIn.

◻

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»