Archivo de la etiqueta: clase

Inversas de matrices de 2×2 con reducción gaussiana

Por Leonardo Ignacio Martínez Sandoval

Introducción

Es posible que sepas que una matriz A=(abcd)de 2×2 es invertible si y sólo si adbc=0, y que en ese caso la inversa está dada por B=1adbc(dbca). De hecho, una vez que se propone a B como esta matriz, es sencillo hacer la multiplicación de matrices y verificar que en efecto tanto AB como BA son la matriz identidad de 2×2.

Sin embargo, la idea de esta entrada es deducir que adbc tiene que ser distinto de 0 para que A sea invertible y que, en ese caso, la inversa tiene que ser de la forma que dijimos. En esta deducción no usaremos nunca la definición ni propiedades de determinantes.

El procedimiento

Lo que haremos es aplicar el procedimiento de reducción gaussiana para encontrar inversas, es decir, le haremos reducción gaussiana a la matriz A=(ab10cd01) obtenida de «pegar» a la matriz A una matriz identidad a su derecha. Es un resultado conocido que si A es invertible, entonces al terminar la reducción gaussiana de A la matriz de 2×2 que queda a la izquierda será la identidad y la que quede a la derecha será la inversa de A.

Empecemos con una matriz A=(abcd) de 2×2 cualquiera. Si ambos a y c son iguales a 0, entonces la primer columna de BA es 0 para toda B, y por lo tanto A no puede tener inversa. Así, una primera condición para que A tenga inversa es que a o c sean distintos de cero. Si a fuera 0, el primer paso de reducción gaussiana sería intercambiar las filas, así que podemos suponer sin pérdida de generalidad que a no es 0. De este modo, el primer paso de reducción gaussiana es multiplicar la primer fila por 1/a para que el pivote sea 1: (1ba1a0cd01)

El siguiente paso es hacer al resto de las entradas en la columna de ese primer pivote iguales a 0. Para eso basta restar a la segunda fila c veces la primera:

(1ba1a00dbcaca1)=(1ba1a00adbcaca1).

Si adbc=0, entonces el pivote de la segunda fila ya no quedaría en la segunda columna, y la forma escalonada reducida no tendría a la identidad a la izquierda. Así que una segunda condición para que A sea invertible es que adbc no sea cero. Notemos que si adbc no es cero, entonces tampoco a y c son simultaneamente 0, así que nuestra condición anterior ya está capturada con pedir que adbc no sea cero.

Sabiendo que adbc no es cero, el siguiente paso en la reducción gaussiana es multiplicar la segunda fila por a/(adbc) para hacer el pivote igual a 1:

(1ba1a001cadbcaadbc).

Finalmente, para que el pivote de la segunda columna sea la única entrada no cero, tenemos que restar a la primera fila la segunda multiplicada por b/a:

(101a+bca(adbc)badbc01cadbcaadbc)=(10dadbcbadbc01cadbcaadbc).

Así, basta pedir adbc para que la reducción gaussiana deje a la identidad en la matriz de 2×2 de la izquierda y, al terminar el procedimiento, tenemos a la derecha a la inversa de A que es la matriz:

(dadbcbadbccadbcaadbc)=1adbc(dbca).

Esto es a lo que queríamos llegar. Por supuesto, el camino fue largo y hay formas de llegar al mismo resultado de manera más corta, pero usando más teoría.

¿Ahora qué?

Si te gustó esta entrada, puedes compartirla o revisar otras relacionadas con matemáticas a nivel universitario:

Mariposa de 7 equivalencias de matrices invertibles

Por Leonardo Ignacio Martínez Sandoval

Introducción

Una de las nociones más importantes en álgebra lineal es la de «matriz invertible». Llamemos In a la matriz identidad de n×n, es decir, a la que tiene 1 en cada entrada de la diagonal principal, y 0 en las demás.

Una matriz A de n×n es invertible si existe una matriz B de n×n tal que AB=In=BA.

Una consecuencia rápida es que dicha matriz B es única, así que le podemos dar la notación A1. De la definición (y asociatividad) se puede ver rápido que si A1 y A2 son invertibles, entonces su producto A1A2 también, con inversa A21A11, en otras palabras, «producto de invertibles es invertible».

Un detalle curioso de la definición es que pide no sólo que AB=In, sino que para la misma matriz B también se tenga que BA=In. Por un lado, a priori esto tiene sentido pues el producto de matrices no es conmutativo, es decir, ocurre a veces que ABBA. Sin embargo, como veremos más adelante en esta entrada, en la definición de matriz invertible basta con tener una de estas igualdades.

De hecho, la idea de esta entrada es presentar y demostrar varias equivalencias a la afirmación «A es una matriz invertible». La presentación sigue un poco el orden de ideas del capítulo 3.4 del libro Essential Linear Algebra with Applications: A Problem-Solving Approach de Titu Andreescu. La idea es explicar el siguiente diagrama, en donde agrupamos a las equivalencias en grupitos que corresponden a partes de una mariposa:

Algunas definiciones

Antes de enunciar el resultado principal, conviene recordar algunas definiciones y un par de resultados importantes.

Una operación elemental es aplicar a una matriz de las siguientes operaciones:

  • Intercambio de dos filas.
  • Multiplicar todas las entradas de alguna de sus filas por un elemento c no cero.
  • Sumar a una fila un múltiplo de otra fila.

Una matriz elemental es una matriz obtenida de aplicar a In exactamente una operación elemental.

Una fila de una matriz es una fila cero si todas sus entradas son iguales a cero. A la primer entrada no cero (de izquierda a derecha) de una fila que no sea fila cero se le llama pivote. Una matriz es escalonada reducida si cumple las siguientes tres propiedades:

  1. Todas las filas cero están hasta abajo.
  2. En todas las filas no cero los pivotes son iguales a 1.
  3. Si una fila no cero F1 está arriba de otra fila no cero F2, entonces el pivote de F1 está estrictamente a la izquierda del pivote de F2.
  4. Si una entrada tiene al pivote de una fila, entonces todas las demás entradas de la columna son iguales a 0.

Un resultado (no trivial) es que cualquier matriz se puede llevar a una (y sólo una) matriz escalonada reducida Ared usando únicamente operaciones elementales, a la cual le llamamos su forma escalonada reducida. Estas son todas las definiciones que necesitamos. Estamos listos para pasar al enunciado del teorema principal.

Teorema de la mariposa de equivalencias

Teorema: Sea A una matriz de n×n con entradas en un campo F. Entonces, todas las siguientes afirmaciones son equivalentes:

  1. A es una matriz invertible.
  2. La forma escalonada reducida Ared de A es In.
  3. A es producto de matrices elementales.
  4. Para todo bFn, el sistema de ecuaciones Ax=b tiene una única solución xFn.
  5. Para todo bFn, el sistema de ecuaciones Ax=b tiene una solución xFn.
  6. Existe una matriz B de n×n tal que AB=In.
  7. Existe una matriz B de n×n tal que BA=In.

Por supuesto, estas no son todas las formas de caracterizar una matriz invertible. Hay otras formas de hacerlo en términos de determinantes, por ejemplo. En el camino recordaremos varias de las definiciones que están en este teorema.

Le llamo el teorema de la mariposa de equivalencias porque podemos agrupar a estos números en tres «grupos» principales de equivalencias «parecidas», que además nos van a recordar cómo va la prueba.

Primero veremos la equivalencia entre 1, 2 y 3 (un ala). Luego, entre 1,4,5 (otra ala). Después, entre 1 y 6 (antena derecha). Finalmente, entre 1 y 7 (antena izquierda).

Un par de lemas auxiliar

Antes de demostrar el teorema de equivalencias, enunciamos y argumentamos dos resultados útiles

Es fácil convencerse de que aplicar una operación elemental a una matriz A es lo mismo que multiplicar a A por la izquierda por la matriz elemental correspondiente a la operación. Como toda matriz A se puede llevar a su forma escalonada reducida mediante operaciones elementales, concluimos lo siguiente.

Lema 1: Para toda matriz A existe una matriz E que es producto de matrices elementales tal que EA es la forma escalonada reducida de A, es decir EA=Ared.

También es fácil convencerse de que cada matriz elemental es invertible, pues las operaciones elementales se pueden revertir, y la inversa de la matriz elemental M es precisamente la matriz elemental correspondiente a la operación inversa. Además, producto de matrices invertibles es invertible. De este modo, concluimos lo siguiente:

Lema 2: Si E es una matriz que es producto de matrices elementales, entonces E es invertible y también es producto de matrices elementales.

La demostración del teorema de la mariposa

Usaremos el diagrama de la mariposa para demostrar todas las equivalencias. Lo que haremos es probar una implicación por cada una de las siguientes flechas:


Empezamos con el ala izquierda de la mariposa.

(1) implica (2): Tomemos una matriz invertible A. Por el Lema 1, existe una matriz producto de elementales tal que EA=Ared. Como E y A son invertibles, entonces Ared también es invertible.

Si Ared tuviera una fila cero, digamos la j, no sería invertible. Esto sucede ya que para cualquier matriz B de n×n tendríamos que la fila j de AB también sería cero, y entonces AB nunca sería In. Como sabemos que Ared es invertible, entonces todas sus filas no son cero y por lo tanto todas tienen pivote. Así, tenemos n pivotes y por lo tanto tiene que haber exactamente un pivote por columna. Como Ared es escalonada reducida, estos pivotes tienen que estar exactamente uno en cada entrada de la diagonal principal. Como además cada pivote es la única entrada no cero de su columna, concluimos que Ared es la identidad.

(2) implica (3): Tomemos una matriz A cuya forma escalonada reducida es la identidad. Por el Lema 1, existe una matriz producto de elementales tal que EA=Ared=In. Por el Lema 2, E es invertible y E1 es producto de matrices elementales. Multiplicando por E1 a la izquierda a la identidad EA=In obtenemos A=E1, es decir, A es producto de matrices elementales.

(3) implica (1): Finalmente, si A es producto de matrices elementales, por el Lema 2 tenemos que A es invertible.

Con esto terminamos la primer ala de la mariposa. Notemos que cierran un ciclo, así que a partir de ahora podemos usar libremente la equivalencia entre 1, 2 y 3. Hagamos la segunda ala.

(1) implica (4): Supongamos que A es invertible y tomemos cualquier b en Fn. Notemos que A1b es solución de Ax=b pues satisface A(A1b)=Inb=b. Además, si x y y son soluciones de Ax=b, tendríamos que Ax=Ay y mutiplicando por A1 a la izquierda tendríamos que x=y. De este modo, Ax=b tiene una única solución para todo b en Fn.

(4) implica (5): Esta demostración es inmediata. Si Ax=b tiene una única solución, en particular tiene una solución.

(5) implica (1): Supongemos que Ax=b tiene una solución x en Fn para todo b en Fn. Afirmamos que esto implica que Aredx=b tiene solución para para todo b en Fn. Tomemos una b en Fn. Por el Lema 1, hay una matriz invertible E tal que Ared=EA. Por hipótesis, existe una solución x para Ax=E1b. Tomemos esa x. Notemos que Aredx=(EA)x=E(Ax)=E(E1b)=b. Es decir, justo esa x es solución para Aredx=b.

En particular, Aredx=ej tiene solución para cuando ej es el vector cuya j-ésima entrada es 1 y las demás cero. Así, es imposible que la j-ésima fila de Ared sea cero, ya que en caso contrario Ax siempre tendría j-ésima entrada cero y Ax=ej no tendría solución. Como ya vimos antes, si Ared no tiene filas cero, entonces es la identidad. Por la equivalencia entre (1) y (2) concluimos que A es invertible.

Esto termina las equivalencias en la segunda ala, así que ahora podemos usar libremente las implicaciones entre 1, 2, 3, 4 y 5. Ya nada más nos faltan las antenas.

Por supuesto, las implicaciones (1) implica (6) y (1) implica (7) son triviales, pues la matriz de (1) en particular funciona para (6) y (7). Lo que falta ver son los regresos de estas implicaciones.

(6) implica (1): Supongamos que existe una matriz B tal que AB=In. Tomemos b en Fn. Notemos que Bb es solución de Ax=b pues A(Bb)=(AB)b=Inb=b. De este modo, Ax=b tiene solución para todo b en Fn y por la equivalencia entre (1) y (5) tenemos que A es invertible. Si tomamos a su inversa A1 y la multiplicamos a la izquierda en la hipótesis, obtenemos B=A1, de modo que también BA=In.

(7) implica (1): Supongamos que existe una matriz B tal que BA=In. Por la equivalencia entre (1) y (6), tenemos que B es invertible, de inversa B1. De este modo, A=(B1B)A=B1(BA)=B1In=B1. De este modo, A es la inversa de una matriz invertible y por tanto es invertible, y por lo tanto AB=B1B=In.

¡Listo! Con esto tenemos la equivalencia entre todas las afirmaciones.

¿Ahora qué?

Si te gustó esta entrada, puedes compartirla o revisar otras relacionadas con matemáticas a nivel universitario: