Archivo de la etiqueta: inversa

Álgebra Superior I: Reducción de Gauss-Jordan

Por Eduardo García Caballero

Introducción

En la entrada anterior vimos que los sistemas de ecuaciones se encuentran íntimamente relacionados con los vectores y las matrices. Teniendo esto en cuenta, en esta entrada abordaremos una estrategia que nos permitirá encontrar soluciones de los sistemas de ecuaciones lineales.

Operaciones elementales por filas

Antes de pasar a describir el algoritmo con el cual podremos resolver un sistema de ecuaciones lineales, deberemos definir algunas operaciones y conceptos que nos ayudaran a efectuarlo. Empecemos con una lista de operaciones que se pueden aplicar a las matrices, las cuales son con conocidas como operaciones elementales por filas.

Para esto, consideremos una matriz
A=(5π32121/340932/3),
y veamos cómo la afecta cada una de estas operaciones.

La primera de estas operaciones es el reescalamiento. Esta operación consiste en seleccionar una fila de una matriz, y multiplicar cada una de las entradas de esta fila por un mismo número real distinto de cero. Por ejemplo, si reescalamos la tercera fila de A por el número 3, obtendremos la matriz
(5π3212(3)(1/3)(3)(4)(3)(0)932/3)=(5π32121120932/3).

Otra operación que podemos aplicar a las matrices es la trasposición, la cual consiste en intercambiar el contenido de dos filas distintas. Por ejemplo, si transponemos las filas 2 y 4 de A, el resultado será la matriz
(5π3932/31/340212).

La última de las operaciones que nos interesa es la transvección. Esta consiste en sumar el múltiplo de una fila (el resultado de multiplicar cada entrada de una fila por un mismo escalar) a otra fila (la suma se realiza entrada por entrada). Por ejemplo, si en A realizamos la transvección que corresponde a “sumar 3/2 de la cuarta fila a la primera fila”, obtendremos la matriz
(5+(3/2)(9)π+(3/2)(3)3+(3/2)(2/3)2121/340932/3)=(37/29/2+π42121/340932/3).

Si recuerdas, todos los sistemas de ecuaciones se pueden escribir como Ax=b. Las operaciones elementales son muy importantes por las siguientes dos razones:

  • Si aplicamos la misma operación elemental a A y b para obtener la matriz A y el vector b, entonces Ax=b y Ax=b tienen exactamente el mismo conjunto solución. Decimos que «las operaciones elementales no cambian las soluciones del sistema».
  • Usando operaciones elementales se puede llevar el sistema Ax=b a un sistema mucho más sencillo Aredx=bred (que discutiremos más abajo). Entonces «las operaciones ayudan a simplificar un sistema de ecuaciones».

Juntando ambas observaciones, con operaciones elementales podemos llevar cualquier sistema de ecuaciones a uno mucho más sencillo y con el mismo conjunto solución.

Puedes intentar convencerte de la primera afirmación pensando en lo siguiente. En un reescalamiento de filas corresponde a multiplicar por una constante no nula ambos lados de una ecuación; la transposición corresponde a cambiar el orden en el que aparecen dos ecuaciones diferentes; mientras que la transvección corresponde a sumar un múltiplo de una ecuación a otra ecuación, y el sistema tiene las mismas soluciones pues, si un conjunto de valores es solución para dos ecuaciones, entonces es solución para cualquier combinación lineal de estas. En un curso de Álgebra Lineal I puedes encontrar las justificaciones con mucho más detalle.

En las siguientes secciones hablamos un poco más de la segunda afirmación.

Forma escalonada y escalonada reducida para una matriz

Además de las operaciones elementales por filas, es importante definir algunos conceptos.

Comencemos con el concepto de pivote: diremos que una entrada de una matriz es un pivote si es el primer elemento distinto de cero en una fila.

Diremos que una matriz se encuentra en forma escalonada si se cumple: 1. Todas las filas nulas se encuentran hasta abajo; 2. Todos los pivotes de filas no-nulas tienen valor 1; 3. El pivote de cada fila se encuentra la derecha del pivote de una fila superior. Es fácil identificar las matrices en forma escalonada porque parecen “estar en escalerita”. Por ejemplo, la matriz
(191101230011)
se encuentra en forma escalonada, mientras que las matrices
(102400920300)y(068500000092)
no lo están. ¿Puedes justificar por qué?

Por su parte, diremos que una matriz se encuentra en forma escalonada reducida si está en forma escalonada y, además, si hay un pivote en alguna fila, todas las entradas que no sean pivote en la misma columna del pivote son iguales a 0 (Ojo. Siempre hablamos de pivotes de renglones).

Por ejemplo, la matriz
(101001300001)
está en forma escalonada reducida.

Como recordarás de la entrada anterior, un sistema de ecuaciones lineales
{a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm
se puede codificar como
(a11a12a1na21a22a2nam1am2amn)(x1x2xn)=(b1b2bm).

Como podemos cambiar el nombre de las variables, pero el vector de soluciones sigue siendo el mismo, es común codificar el sistema como una única matriz aumentada
(a11a12a1na21a22a2nam1am2amn | b1b2bm).

Aquí pusimos una línea vertical, pero sólo es por ayuda visual. Esa matriz la puedes tratar como cualquier matriz que hemos platicado.

Teniendo esto en cuenta, las matrices en forma escalonada reducida nos son de gran utilidad al resolver sistemas de ecuaciones lineales. Por ejemplo, consideremos el sistema
{x+3y+2w=8z+w=9,
el cual tiene como matriz aumentada a
(13020011 | 89),
la cual se encuentra en forma escalonada.

Gracias a que la matriz está en forma escalonada, podemos elegir en orden inverso w, z, y, x a las variables libres y pivote como en la entrada anterior. En este caso, podemos elegir como queramos el valor de w (w es variable libre). Usando la segunda ecuación, podemos despejar z en términos de w (z es variable pivote). Estos dos valores los sustituimos en la primera ecuación y notamos que y puede ser lo que queramos (y es variable libre). Finalmente, x queda totalmente determinado por las demás variables (x es pivote). Las variables pivote justo corresponden a columnas de la matriz que tengan pivote de alguna fila.

La ventaja de la forma escalonada es que podremos ir obteniendo fácilmente el valor de cada variable “de abajo hacia arriba”. En el caso de un sistema cuya matriz se encuentre en forma escalonada reducida, será aún más sencillo pues ya no tendremos que sustituir valores y obtenemos el despeje directamente.

Teorema de reducción de Gauss-Jordan

El siguiente teorema relaciona las operaciones elementales por filas con la forma escalonada reducida de una matriz.

Teorema (de reducción de Gauss-Jordan o reducción gaussiana). Cualquier matriz con entradas reales se puede a una forma escalonada reducida aplicando una cantidad finita de pasos.

A continuación presentamos un algoritmo con el cual podemos pasar de una matriz arbitraria a una matriz en su forma escalonada reducida. Para hacer más sencilla su aplicación, nos enfocaremos en comprender la estrategia que sigue el algoritmo. La descripción formal del algoritmo y demostración de que en efecto funciona como esperamos es un tema que abordarás en el curso de Álgebra Lineal I (puedes echarle un ojo a esta entrada).

Primeramente, describiremos los pasos del algoritmo, al que se le conoce como reducción de Gauss-Jordan o reducción gaussiana.

Estrategia: Iremos arreglando la matriz de izquierda a derecha. Para ello, haremos los siguientes pasos repetidamente.

  1. Buscamos la primera columna de la matriz (de izquierda a derecha) que no tenga puros ceros.
  2. Una vez encontrada dicha columna, buscamos la primera entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos la fila que contiene a dicha entrada hasta arriba mediante la operación de transposición.
  4. Multiplicamos cada entrada de la fila que acabamos de mover hasta arriba por el inverso multiplicativo de su primera entrada (aquí usamos la operación de reescalamiento). La primera entrada de esta fila ahora será 1.
  5. Mediante la operación de transvección, sustraemos múltiplos de la primera fila al resto de renglones de la matriz, de modo que el resto de los valores en la columna correspondiente a la primera entrada de la fila en la que estamos trabajando pasen a ser 0 (como puedes observar, la entrada primera entrada no-nula de la fila en la que estamos trabajando ahora será un pivote).
  6. Ignorando la primera fila, buscamos la primera columna (de izquierda a derecha) que no tenga puros ceros.
  7. Repetimos los pasos anteriores (2 a 6), pero ahora, en vez de mover la fila con la que estamos trabajando “hasta arriba”, la moveremos inmediatamente después de la última fila con la que trabajamos.
  8. Hacemos esto hasta haber arreglado todas las columnas.

Ejemplo de reducción de Gauss-Jordan

Ahora, como ejemplo, veamos cómo podemos implementar este algoritmo en la matriz
(01234101233110201111),
la cual, si la consideramos como la matriz aumentada
(0123101231100111 | 4321),
corresponde al sistema de ecuaciones
{y+2z+3w=4x+z+2w=23x+yz=0y+z+w=1.

Buscamos la primera la primera columna no nula, la cual resulta ser la primera columna de la matriz. En esta columna, vemos que la segunda entrada es la primera entrada distinta de cero. Entonces, mediante trasposicón, intercambiamos las filas 1 y 2 (“movemos la segunda columna hasta arriba”):
(10123012343110201111).

Ahora, nos fijamos en la primera entrada no nula de la primera fila, que es 1, y reescalamos la fila por su inverso multiplicativo, que es 1:
((1)(1)(1)(0)(1)(1)(1)(2)(1)(3)012343110201111)=(10123012343110201111).

Ahora, observamos el valor de la primera entrada de la tercera fila, el cual es 3. Entonces, mediante transvección, sumamos 3 veces la fila 1 a la fila 3:
(10123012343+(3)(1)1+(3)(0)1+(3)(1)0+(3)(2)2+(3)(3)01111)=(101230123401261101111),
y realizamos lo mismo, pero ahora considerando la fila 4.
(10123012340126110+(0)(1)1+(0)(0)1+(0)(1)1+(0)(2)1+(0)(3))=(101230123401261101111)
Como puedes observar, ninguna de las transvecciones influye en la otra, de manera que las podemos enlistar en un único paso. Además, al hacer una transvección con escalar 0 no cambia nada de la fila, así que estas no se necesita hacerlas.

Ahora, ignorando la última fila con la que trabajamos (que es la primera), buscamos la primera columna no-nula, que en este caso será la segunda, posteriormente buscamos el primer elemento no nulo de la columna, el cual se encuentra en la segunda fila, y la “movemos enseguida de la última fila con la que trabajamos” (en este caso no tendríamos que realizar ninguna transposición, o bien, la transposición sería la de la segunda fila consigo misma, ya que ya se encuentra en seguida de la última fila con la que trabajamos). Después, reescalamos por el inverso multiplicativo del primer elemento no nulo de la fila, que es 1:
(10123(1)(0)(1)(1)(1)(2)(1)(3)(1)(4)01261101111)=(101230123401261101111)
(observa que reescalar por 1 deja todas las entradas iguales) y posteriormente realizamos las transvecciones necesarias para que el resto de entradas de la segunda columna sean cero.
(10+(0)(1)1+(0)(2)2+(0)(3)3+(0)(4)0123401+(1)(1)2+(1)(2)6+(1)(3)11+(1)(4)01+(1)(1)1+(1)(2)1+(1)(3)1+(1)(4))=(10123012340003700123)

De manera similar, ignorando ahora las primeras dos filas, buscamos la primera columna no-nula, la cual corresponde ahora a la tercera, y buscamos el primer elemento no-nulo de esta columna, el cual se encuentra en la cuarta fila. Entonces, transponemos las filas 3 y 4 para que el primer elemento no-nulo quede inmediatamente después de la última fila con la que trabajamos:
(10123012340012300037).

Seguidamente, reescalamos la tercera fila,
(1012301234(1)(0)(1)(0)(1)(1)(1)(2)(1)(3)00037)=(10123012340012300037)
y relizamos las transvecciones necesarias:
(1+(1)(0)0+(1)(0)1+(1)(1)2+(1)(2)3+(1)(3)0+(2)(0)1+(2)(0)2+(2)(1)3+(2)(2)4+(2)(3)0012300037)=(10000010120012300037).

Finalmente, como nuestra última columna no cero es la cuarta y la primera fila no cero (ignorando las filas que ya tienen pivote) tiene un 3, reescalamos de la siguiente manera:
(100000101200123(1/3)(0)(1/3)(0)(1/3)(0)(1/3)(3)(1/3)(7))=(10000010120012300017/3),

Y hacemos las transvecciones necesarias:
(100000+(1)(0)1+(1)(0)0+(1)(0)1+(1)(1)2+(1)(7/3)0+(2)(0)0+(2)(0)1+(2)(0)2+(2)(1)3+(2)(7/3)00017/3)=(1000001001/300105/300017/3).

Notemos que si consideramos esta matriz como la matriz aumentada
(1000010000100001 | 01/35/37/3),
este corresponde al sistema
{x=0y=1/3z=5/3w=7/3,
del cual sabemos inmediatamente su solución. Como mencionamos anteriormente, los sistemas de ecuaciones asociados a la matriz original y la matriz escalonada reducida resultante de aplicar operaciones elementales por filas, consideradas como matrices aumentadas, tienen las mismas soluciones. Entonces, ¡este último sistema es la solución para nuestro sistema de ecuaciones original!

Como podemos ver, los sistemas de ecuaciones asociados a una matriz en su forma escalonada reducida son fáciles de resolver por que vamos escogiendo valores arbitrarios para las variables en posición que no es pivote, mientras que podemos obtener el valor de las variables que son pivote mediante despejes sencillos.

Recuerda que este algoritmo funciona para cualquier matriz con entradas reales. ¿Podrías proponer otro sistema de ecuaciones e implementar la misma estrategia para resolverlo?

Más adelante…

Ahora vimos una estrategia para resolver sistemas de ecuaciones lineales de distintos tamaños. En las siguientes entradas conoceremos más propiedades sobre las matrices. Estas nuevas propiedades también juegan un rol fundamental en poder determinar de manera más rápida cuándo un sistema de ecuaciones lineales tiene solución, y tener otras alternativas para resolverlo bajo ciertas condiciones.

Tarea moral

  1. Aplica reducción gaussiana a las siguientes matrices:
    (52135),(110101011).
  2. Resuelve el siguiente sistema de ecuaciones llevándolo a forma escalonada reducida, y luego aplicando a técnica de variables libres y pivote:
    {a+b+c+d+e=52a+2b3c3d+e=5ab+cd+e=0.
  3. Sea I la matriz identidad de n×n y A otra matriz de n×n. Sea E la matriz obtenida de aplicar una transvección a I. Sea B la matriz de aplicar esa misma transvección a A. Demuestra que EA=B.
  4. Demuestra que una matriz A de 2×2 es invertible si y sólo si al aplicar reducción de Gauss-Jordan al final se obtiene la matriz identidad I. ¿Puedes hacerlo para matrices de 3×3? ¿De n×n?
  5. Sea A una matriz de 2×2 invertible. A A le «pegamos» una identidad del mismo tamaño a la derecha para llegar a (A|I), por ejemplo (abcd) se convertiría en (ab10cd01). Muestra que si aplicamos reducción de Gauss-Jordan a (A|I), se llega a (I|A1). Intenta extender tu demostración a matrices de 3×3 ó n×n.

Entradas relacionadas

Álgebra Superior I: Matrices invertibles

Por Eduardo García Caballero

Introducción

En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?

Definición de matrices invertibles

Diremos que una matriz cuadrada A es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz B tal que AB=BA=I.

Observemos para que la definción anterior tenga sentido, es indispensable que A sea cuadrada, pues veamos que si A es de tamaño m×n, entonces para que los productos AB y BA estén definidos, B tendrá que ser de tamaño n×m. Así, AB será de tamaño m×n y BA de tamaño n×n, y como AB=BA, entonces m=n, y, por tanto, AB=BA=In (y con ello también observamos que B tiene que ser cuadrada de tamaño n×n).

Un ejemplo de una matriz de 2×2 que es invertible es
A=(1235)
que tiene como inversa a la matriz
B=(5231),
pues
AB=(1235)(5231)=((1)(5)+(2)(3)(1)(2)+(2)(1)(3)(5)+(5)(3)(3)(2)+(5)(1))=(1001)=I2
y
BA=(5231)(1235)=((5)(1)+(2)(3)(5)(2)+(2)(5)(3)(1)+(1)(3)(3)(2)+(1)(5))=(1001)=I2.
Por lo tanto,
AB=BA=I2.

Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz
A=(2100)
la cual, al multiplicarla por cualquier matriz
B=(abcd)
por la derecha, nos da como resultado
AB=(2100)(abcd)=(2a+c2b+,d00),
y como en cualquier caso obtenemos que su entrada en la posición (2,2) es 0, tenemos que AB es distinta a I2, pues la entrada en la posición (2,2) de esta última es 1.

Propiedades de matrices invertibles

A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.

Primeramente, veamos que si una matriz A de n×n es invertible, entonces su inversa será única. Para demostrar esto, supongamos que B y C son ambas inversas multiplicativas de A; es decir, AB=BA=In y AC=CA=In. Entonces,
AB=ACB(AB)=B(AC)(BA)B=(BA)CInB=InCB=C.

Como la matriz inversa de A es única, usualmente la denotamos como A1.

Por otra parte, veamos que si A y B son matrices invertibles, con inversas A1 y B1, respectivamente, entonces, si podemos multiplicar A y B (es decir, si A y B son del mismo tamaño), entonces AB es invertible, pues se cumple que
(AB)(B1A1)=A(BB1)A1=AInA1=AA1=In,
y también que
(B1A1)(AB)=B1(A1A)B=B1InB=B1B=In,
es decir, B1A1 es la matriz inversa de AB, lo cual denotamos como (AB)1=B1A1.

Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que A(Bu)=(AB)u, entonces notamos que
A1(Au)=(A1A)u=Iu=u.

Como la transformación correspondiente a A envía el vector u al vector Au, y como el resultado de aplicar (A1A)u deja al vector u en su lugar, esto nos dice que la transformación correspondiente a A1 es aquella que regresa el vector Au a su posición original.

En la siguiente imagen se visualiza esta propiedad para el caso en el que
A=(3142)yu=(12).

Formula para inversa de matrices de 2×2

Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de 2×2, tendremos que
A=(abcd)
es invertible si y sólo si se cumple que adbc0.

En dado caso, la inversa de A será la matriz
A1=1adbc(dbca)=(dadbcbadbccadbcaadbc).

Por ejemplo, veamos que si
A=(abcd)=(1223),
entonces adbc=(1)(3)(2)(2)=3(4)=70, por lo que podemos garantizar que A tiene matriz inversa, la cual es
A1=1adbc(dbca)=17(3221)=(3/72/72/71/7).

Verificamos que
AA1=(1223)(3/72/72/71/7)=((1)(3/7)+(2)(2/7)(1)(2/7)+(2)(1/7)(2)(3/7)+(3)(2/7)(2)(2/7)+(3)(1/7))=(1001)=I2
y
A1A=(3/72/72/71/7)(1223)=((3/7)(1)+(2/7)(2)(3/7)(2)+(2/7)(3)(2/7)(1)+(1/7)(2)(2/7)(2)+(1/7)(3))=(1001)=I2.

De manera similar, veamos que la matriz
(3412)
es invertible pues (3)(2)(4)(1)=20. ¿Puedes calcular su inversa?

Por el contrario, veamos que en la matriz
(6432)
tenemos que (6)(2)(4)(3)=1212=0, y, por tanto, no es invertible.

Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.

Más adelante…

En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de 2×2 puede tener inverso, y revisamos su fórmula.

En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.

Tarea moral

  1. ¿Para qué valores de a se cumple que
    (5a22a)
    es invertible?
  2. Muestra que si A, B y C son matrices invertibles del mismo tamaño, entonces
    (ABC)1=C1B1A1.
  3. Muestra que si A es una matriz invertible y k es un entero positivo, entonces Ak también es invertible y (Ak)1=(A1)k.
  4. ¿Por qué la matriz
    (340720000)
    no es invertible?
  5. Muestra que en efecto el criterio que dimos para que una matriz A=(abcd) tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si adbc0, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que adbc=0. En este caso, ad=bc y podrás encontrar a partir de a,b,c,d a dos vectores distintos u y v tales que Au=Av. Esto mostrará que la transformación asociada a A no es inyectiva y por tanto no podrá tener inversa, así que A tampoco tendrá inversa.

Entradas relacionadas

Cálculo Diferencial e Integral III: Demostración del teorema de la función inversa

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior empezamos a hablar del teorema de la función inversa. Dimos su enunciado y probamos varias herramientas que nos ayudarán ahora con su demostración.

Recordemos que lo que queremos demostrar es lo siguiente.

Teorema (de la función inversa). Sea f:SRnRn de clase C1 en el abierto S. Si Df(a¯) es invertible, entonces, existe δ>0 tal que:

  1. Bδ(a¯)S y f es inyectiva en Bδ(a¯).
  2. f1:f(Bδ(a¯))RnRn es continua en f(Bδ(a¯)).
  3. f(Bδ(a¯))Rn es un conjunto abierto.
  4. f1 es de clase C1 en f(Bδ(a¯)) y además, si x¯=f(v¯)f(Bδ(a¯)), entonces, Df1(x¯)=Df1(f(v¯))=(Df(v¯))1.

La herramienta más importante que probamos en la entrada anterior nos dice que si una función f:SRnRn es de clase C1, a¯S y DF(a¯) es invertible, entonces existe una δ>0 tal que Bδ(a¯)S y Df(b¯) es invertible para todo b¯Bδ(a¯). Veremos cómo esta herramienta y otras que desarrollaremos en el transcurso de esta entrada nos permiten demostrar el teorema.

La función f es inyectiva en una vecindad de a¯

Vamos a enfocarnos en el punto (1) del teorema. Veremos que existe la δ que hace que la función restringida a la bola de radio δ centrada en a¯ es inyectiva. En esta parte de la prueba es conveniente que recuerdes que la norma infinito de un vector (x1,,xn)Rn es ||x¯||:=máx{|x1|,,|xn|}.

Además, cumple para todo x¯Rn que ||x¯||n||x¯||.

Veamos que bajo las hipótesis del problema se puede acotar ||f(u¯)f(v¯)|| en términos de ||u¯v¯|| dentro de cierta bola.

Proposición. Sea f:SRnRn de clase C1 en el conjunto abierto S, y a¯S. Si Df(a¯) es invertible, entonces existe δ>0 y ε>0 tal que Bδ(a¯)S y ||f(u¯)f(v¯)||ε||u¯v¯|| para cualesquiera u¯,v¯Bδ(a¯).

Demostración. Por la diferenciabilidad de f en a¯, tenemos

Df(a¯)(x¯)=(f1(a¯)x¯fn(a¯)x¯)

para cada a¯S y cada x¯Rn.

Como Df(a¯) es invertible, por los resultados de la entrada anterior existe un m>0 tal que

||Df(a¯)(x¯)||m||x¯||

para todo x¯Rn.

También por resultados de la entrada anterior, para ϵ:=m2n>0 existe δ>0 tal que si b¯Bδ(a¯)S entonces

||(Df(b¯)Df(a¯))(x¯)||m2n||x¯||

para todo x¯Rn.

Usaremos en un momento estas desigualdades, pero por ahora fijemos nuestra atención en lo siguiente. Dados u¯,v¯Bδ(a¯), tomemos el k{1,,n} tal que ||Df(a¯)(u¯v¯)||=|fk(a¯)(u¯v¯)|.

Para dicho k, tenemos

|fk(a¯)(u¯v¯)|=||Df(a¯)(u¯v¯)||1n||Df(a¯)(u¯v¯)||.

¿Cómo podemos seguir con nuestras desigualdades? Necesitamos usar el teorema del valor medio. Bastará el que demostramos para campos escalares. Aplicándolo a fk en los puntos u¯,v¯ cuyo segmento se queda en la bola convexa Bδ(a¯), podemos concluir que existe un vector w¯ en el segmento u¯v¯¯ que cumple

fk(u¯)fk(v¯)=f(w¯)(u¯v¯).

Sabemos que para cualquier vector el valor absoluto de cualquiera de sus coordenadas es en valor menor o igual que la norma del vector. Además, demostramos inicialmente unas desigualdades anteriores. Juntando esto, obtenemos la siguiente cadena de desigualdades:

||f(u¯)f(v¯)|||fk(u¯)fk(v¯)|=|f(w¯)(u¯v¯)||fk(a¯)(u¯v¯)||fk(w¯)(u¯v¯)fk(a¯)(u¯v¯)|1n||Df(a¯)(u¯v¯)||||Df(w¯)(u¯v¯)Df(a¯)(u¯v¯)||1n(m||u¯v¯||)m2n||u¯v¯||=m2n||u¯v¯||=ε||u¯v¯||.

La gran conclusión de esta cadena de desigualdades es que ||f(u¯)f(v¯)||ε||u¯v¯||, que es lo que buscábamos.

◻

¡Esto es justo lo que nos pide el primer punto! Hemos encontrado una bola alrededor de a¯ dentro de la cual si u¯v¯, entonces ||f(u¯)f(v¯)||ε||u¯v¯||>0, de modo que f(u¯)f(v¯). ¡La función restringida en esta bola es invertible! En términos geométricos el último teorema nos dice lo siguiente: Si f es diferenciable en un abierto S, y Df(a¯) es invertible, entonces hay una vecindad alrededor de a¯ en donde f «no se pega», es decir f es inyectiva.

Figura 1: Si la función no es inyectiva, lo que tenemos es que proyecta el rectángulo R en una superficie que pega los puntos a¯ y b¯. Arriba una función inyectiva y abajo una que no lo es.

Ya vimos cómo encontrar una bola Bδ(a¯) dentro de la cual f es inyectiva. Si pensamos que el contradominio es exactamente f(Bδ(a¯)), entonces la función también es suprayectiva. Esto hace que sea biyectiva y por tanto que tenga inversa f1.

La función inversa es continua

Veamos ahora que la función inversa es continua. De hecho, mostraremos algo un poco más fuerte.

Teorema. Sea f:SRnRn de clase C1 en el abierto S, y a¯S. Si Df(a¯) es invertible, entonces existe δ>0 tal que Bδ(a¯)S, f es inyectiva en Bδ(a¯) y además f1:f(Bδ(a¯))RnRn es uniformemente continua en su dominio.

Demostración. La primera parte y la existencia de f1:f(Bδ(a))RnRn se debe a la discusión de la sección anterior. De hecho, lo que mostramos es que existe δ>0 y ε>0 tal que ||f(v¯)f(u¯)||ε||v¯u¯|| para todo u¯,v¯Bδ(a¯).

Supongamos que nos dan un ε. Tomemos δ=εε. Tomemos x¯,y¯ en f(Bδ(a¯)) tales que ||y¯x¯||<δ. Como x¯ y y¯ están en dicha bola, podemos escribirlos como x¯=f(u¯), y¯=f(v¯) con u¯,v¯Bδ(a¯). Notemos entonces que

||f1(y¯)f1(x¯)||=||v¯u¯||1ε||f(v¯)f(u¯)||=1ε||y¯x¯||<εεε=ε.

Tenemos entonces que f1 es uniformemente continua en f(Bδ(a¯)).

◻

Esto demuestra el punto (2) de nuestro teorema. La prueba de que el conjunto f(Bδ(a¯)) es abierto no es para nada sencilla como parecería ser. Una demostración muy instructiva, al nivel de este curso, se puede encontrar en el libro Cálculo diferencial de varias variables del Dr. Javier Páez Cárdenas editado por la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM) en las páginas 474-476.

La función inversa es diferenciable

Resta hacer la demostración de (4). En esta sección veremos que la inversa f1 es derivable y que la derivada es precisamente lo que propone el teorema. En la siguiente sección veremos que la inversa es C1.

Tomemos un punto x¯0=f(v¯0)f(Bδ(a¯)). Mostraremos que, en efecto, T=(Df(v¯0))1 es la derivada de f1 en x¯0, lo cual haremos por definición verificando que

limx¯x¯0f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||=0.

Para ello, introducimos la siguiente función auxiliar g:Bδ(a¯)RnRn dada por:

g(v¯)={v¯v¯0T(f(v¯)f(v¯0))||f(v¯)f(v¯0)||v¯v¯00¯v¯=v¯0.

Esta función está bien definida, pues f es inyectiva en la bola Bδ(a¯). La composición gf1 también está bien definida en el abierto f(Bδ(a¯)) y

(gf1)(x¯)={f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||x¯x¯00¯x¯=x¯0

para todo x¯f(Bδ(a¯)). Esto nos permite poner el límite buscado como el límite de una composición de la siguiente forma:

limx¯x¯0f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||=limx¯x¯0(gf1)(x¯)

Como f1 es continua en x¯0, basta demostrar que g es continua en v¯0=f1(x¯0). Esto equivale a probar que

limv¯v¯0g(v¯)=limv¯v¯0v¯v¯0(Df(v¯0))1(f(v¯)f(v¯0)))||f(v¯)f(v¯0)||=0.

Hay que demostrar este último límite. Reescribimos la expresión

v¯v¯0(Df(v¯0))1(f(v¯)f(v¯0))||f(v¯)f(v¯0)|| como

(Df(v¯0))1[Df(v¯0)(v¯v¯0)(f(v¯)f(v¯0))]||f(v¯)f(v¯0)||,

y luego multiplicamos y dividimos por ||v¯v¯0|| y reorganizamos para obtener

||v¯v¯0||||f(v¯)f(v¯0)||(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||).

Como (Df(v¯0))1 es continua (por ser lineal) y f es diferenciable en v¯0, se tiene que

limv¯v¯0(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)=(Df(v¯0))1(limv¯v¯0f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)=(Df(v¯0))1(0¯)=0¯.

El factor que nos falta entender es ||v¯v¯0||||f(v¯)f(v¯0)||. Pero por la primera proposición de esta entrada, sabemos que existe una ϵ>0 que acota este factor superiormente por 1ϵ. De esta manera,

limv¯v¯0g(v¯)=limv¯v¯0||v¯v¯0||||f(v¯)f(v¯0)||acotado(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)0=0.

Esto nos dice entonces que g es continua en v¯0 y por lo tanto:

limx¯x¯0(gf1)(x¯)=g(limx¯x¯0f1(x¯))=g(f1(x¯0))=g(v¯0)=0¯.

Por lo tanto f1 es diferenciable en x¯0 mediante la derivada que propusimos, es decir,

Df1(x¯0)=Df1(f(v¯0))=(Df(v¯0))1=(Df(f1(x¯0)))1

para todo x¯0f(Bδ(a¯)).

La función inversa es de clase C1

Resta verificar que f1 es de clase C1 en f(Bδ(a¯)). Lo haremos con la caracterización de la entrada anterior. Tomemos una μ>0. Nos gustaría ver que si x¯ y x¯0 están suficientemente cerca, entonces

||Df1(x¯)(z¯)Df1(x¯0)(z¯)||<μ||z¯||

para toda z¯Rn.

Recordemos que por la entrada anterior hay una m>0 tal que para todo z¯ en Rn se cumple

(1)1m||z¯||=1m|Df(v¯)((Df(v¯))1)(z¯)||||(Df(v¯))1(z¯)||

También notemos que, si X,Y son matrices invertibles en Mn(R), tenemos:

X1(YX)Y1=X1YY1X1XY1=X1Y1.

Tomando X=Df(v¯) y Y=Df(v¯0), aplicando la igualdad anterior en un punto x¯ en Rn, sacando normas y usando la desigualdad (1), obtenemos:

||(X1Y1)(z¯)||=||(X1(YX)Y1)(z¯)||1m||((YX)Y1)(z¯)||=1m||((Df(v¯0)Df(v¯))Df1(f(v¯0)))(z¯)||.

Como f es de clase C1, por la entrada anterior podemos construir una δ tal que Bδ(v¯0)Bδ(a¯) y para la cual si v¯ está en Bδ(v¯0), entonces:

(2)||(Df(v¯0)Df(v¯))(z¯)||m2μ||z¯||.

Para todo x¯Rn.

Finalmente, como f1 es continua en f(Bδ(a¯)), si x¯ y x¯0 están suficientemente cerca, digamos ||x¯x¯0||<ν, entonces

(3)||f1(x¯)f1(x¯0)||=||v¯v¯0||<δ..

Usamos todo lo anterior para establecer la siguiente cadena de desigualdades cuando ||x¯x¯0||<ν:

||Df1(x¯)(z¯)Df1(x¯0)(z¯)||=||Df1(f(v¯))(z¯)Df1(f(v¯0))(z¯)||1m||[Df(v¯0)Df(v¯)](Df1(f(v¯0)))(z¯)||1m(m2μ||Df1(f(v¯0))(z¯)||)=mμ||Df1(f(v¯0))(z¯)||mμ(1m||z¯||)=μ||z¯||.

Esto implica que f1 es de clase C1. Como tarea moral, revisa los detalles y di explícitamente qué resultado de la entrada anterior estamos usando.

◻

Ejemplo del teorema de la función inversa

Ejemplo. Consideremos ξ:R3R3 dada por ξ(r,θ,ϕ)=(rsenϕcosθ,rsenϕsenθ,rcosϕ). Se tiene que ξ es diferenciable en todo su dominio pues cada una de sus derivadas parciales es continua. Esta es la función de cambio de coordenadas de esféricas a rectangulares o cartesianas. La matriz jacobiana está dada como sigue.

Dξ(r,θ,ϕ)=(senϕcosθrsenϕsenθrcosϕcosθsenϕsenθrsenϕcosθrcosϕsenθcosϕ0rsenϕ).

Luego det(Dξ(r,θ,ϕ))=r2senϕ entonces Dξ es invertible cuando r0 y ϕkπ, kZ. Su inversa es:

(Dξ(r,θ,ϕ))1=(senϕcosθsenϕsenθcosϕsenθrsenϕcosθrsenϕ01rcosθcosϕ1rcosϕsenθ1rsenϕ).

El teorema de la función inversa nos garantiza la existencia local de una función ξ1. En este caso, sería la función de cambio de coordenadas rectangulares a esféricas. Si f:SR3R es una función C1 dada en coordenadas esféricas; podemos asumir que fξ1 es la misma función pero en términos de coordenadas rectangulares.

Más adelante…

¡Lo logramos! Hemos demostrado el teorema de la función inversa, uno de los resultados cruciales de nuestro curso. El siguiente tema es el teorema de la función implícita, que será otro de nuestros resultados principales. Uno podría pensar que nuevamente tendremos que hacer una demostración larga y detallada. Pero afortunadamente la demostración del teorema de la función implícita se apoya fuertemente en el teorema de la función inversa que ya demostramos. En la siguiente entrada enunciaremos y demostraremos nuestro nuevo resultado y una entrada más adelante veremos varios ejemplos para profundizar en su entendimiento.

Tarea moral

  1. En el ejemplo que dimos, verifica que el determinante en efecto es r2sinϕ. Verifica también que la inversa es la matriz dada.
  2. Repasa cada una de las demostraciones de esta entrada y asegúrate de entender por qué se siguen cada una de las desigualdades. Explica en qué momentos estamos usando resultados de la entrada anterior.
  3. Da la función inversa de la transformación de cambio de coordenadas polares a rectangulares g(r,θ)=(rcosθ,rsenθ).
  4. Demuestra que para todo x¯Rn se tiene ||x¯||n||x¯||.
  5. Verifica que en efecto |||| es una norma.

Entradas relacionadas

Álgebra Superior I: Funciones invertibles

Por Guillermo Oswaldo Cota Martínez

Introducción

Anteriormente vimos el concepto de composición entre funciones, que nos permiten saltar entre varios conjuntos de manera sencilla, revisamos algunas de sus propiedades y dimos algunos ejemplos. Ahora nos toca profundizar un poco más en la composición de funciones analizando un caso particular de funciones: las invertibles. Que en términos simples nos permiten deshacer los efectos de las operaciones.

Revirtiendo las cosas.

Pensemos por un momento en un cubo rubik, hay distintas técnicas para armarlo, pero por ahora nos enfocaremos en sus movimientos. La forma en que se usa el cubo, es moviendo sus caras hasta que todas las caras tengan un solo color. Imagina que tienes un cubo en tus manos, si mueves la cara que está hasta arriba, tienes dos formas de hacerlo, girar en sentido de las manecillas del reloj y girar en sentido contrario a las manecillas del reloj. No pasa nada si no estás seguro de tu movimiento, pues siempre puedes deshacer un movimiento rotando la misma cara que volteaste en sentido contrario. Incluso si mueves varias caras, podrás regresar al estado original si recuerdas exactamente las caras que volteaste y la dirección, pues para deshacer los movimientos, tendrás que empezar por la última cara que volteaste y deberás girarla al sentido contrario al que le diste vuelta. Por ejemplo esta imagen indica dos movimientos a las caras y la forma de «deshacer» los movimientos.

En la imagen también marcamos los movimientos de mover las dos caras como f, por ahora imagínate que ese movimiento de girar las dos caras como lo muestra la imagen, se llama el movimiento f. Mientras que el movimiento de deshacerlas se llama f1. Entonces si realizamos primero el movimiento f, el movimiento f1 revierte lo que hizo la primera, volviendo al estado inicial. Así es como vamos a pensar en la reversibilidad de las funciones, una manera de «volver a armar» el cubo.

Funciones reversibles

Diremos que una función es reversible si existe una función f1:Im(f)X tal que f1f=Id donde Id es la función identidad, es decir, es la única función que asigna a cada elemento a sí mismo, es decir Id(x)=x.

Algunas observaciones de las funciones invertibles. Sea f:XY una función invertible, entonces:

  • f es inyectiva.

Demostración. Supongamos que no es inyectiva, entonces existen x1,x2X distintos tales que f(x1)=f(x2). Como f es invertible, entonces existe su función inversa f1:Im(f)X, en donde x1=f1f(x1)=f1f(x2)=x2 Siendo esta una contradicción, pues supusimos que eran distintos elementos. Así, la función es inyectiva.

◻

  • f1 es inyectiva.

Demostración. De manera similar a la demostración anterior, si y1,y2Dom(f1) son tales que f1(y1)=f1(y2), se tiene que al ser f inyectiva, f(f1(y1))=f(f1(y2))y1=y2 Llegando a que f1 es inyectiva.

◻

Así, te puedes dar una idea de lo que significan las funciones invertibles. Con estas proposiciones hemos probado además que la función f1:Im(f)X es una biyección. ¿Te imaginas porqué? Pues resulta que la función f1 también es suprayectiva.

  • f1f=ff1

Demostración. Sabemos que f1f=Id, entonces bastará demostrar que ff1=Id. Para ello consideremos yDom(f1)=Im(f)Y. Supongamos que ff1(y)=w. Entonces f1(ff1(y))=f1(w). Como la composición es asociativa, entonces: f1(ff1(y))=(f1f)f1(y)=f1(y)=f1(w) Como f1 es inyectiva, entonces y=w.

◻

  • Sea g:Im(f)Z una función invertible, entonces (gf)1=f1g1 .

Demostración. Basta notar que por la asociatividad de las funciones:

(gf)(f1g1)=g(f(f1g1)=g((ff1)g1)=g(Idg1)=gg1=Id

◻

Más adelante…

Habiendo pasado por las funciones, su composición, sus propiedades y la inversa, utilizaremos estas definiciones para hablar de el tamaño de los conjuntos. Pues esta definición de funciones nos ayudan a decir «Cuántos elementos tiene un conjunto».

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra que f1 es suprayectiva.
  2. Demuestra que Dom(f1)=Im(f).
  3. Demuestra que (f(gh))1=h1(g1f1).
  4. Da una condición suficiente para que una función no sea invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Reducción gaussiana para determinar inversas de matrices

Por Ayax Calderón

Introducción

En entradas anteriores hablamos de las matrices en forma escalonada reducida y de cómo cualquier matriz puede ser llevada a esta forma usando el algoritmo de reducción gaussiana. Usamos esto para resolver sistemas de ecuaciones lineales arbitrarios, es decir, de la forma AX=b. en esta ocasión estudiaremos cómo ver si una matriz es invertible y cómo determinar inversas de matrices mediante el algoritmo de reducción gaussiana.

Inversas de matrices elementales

Recordemos que una matriz AMn(F) es invertible si existe una matriz B tal que AB=BA=In. Dicha matriz B es única, se conoce como la matriz inversa de A y se denota por A1.

Es importante observar que las matrices elementales son invertibles, puesto que las operaciones elementales se pueden revertir (esto también nos dice que la inversa de una matriz elemental también es una matriz elemental). Por ejemplo, si la matriz E se obtiene de In intercambiando los renglones i y j, entonces E1 se obtiene de In haciendo la misma operación, por lo que E1=E. Por otro lado, si E se obtiene de sumar λ veces el renglón j al renglón i en In, entonces E^{-1} se obtiene de sumar λ veces el renglón j al renglón i en In. El argumento para reescalamientos queda como tarea moral.

Debido a su importancia, enunciaremos este resultado como una proposición.

Proposición. Las matrices elementales son invertibles y sus inversas también son matrices elementales. Como consecuencia, cualquier producto de matrices elementales es invertible.

Algunas equivalencias de matrices invertibles

Hasta el momento sólo tenemos la definición de matrices invertibles para verificar si una matriz es invertible o no. Esto es poco práctico, pues dada una matriz, tendríamos que sacar otra «de la nada».

El siguiente resultado empieza a decirnos cómo saber de manera práctica cuándo una matriz cuadrada es invertible. También habla de una propiedad importante que cumplen las matrices invertibles.

Teorema. Para una matriz AMn(F) las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) Ared=In.
(c) A es producto de matrices elementales.

Demostración. Para empezar, notemos que el producto de matrices invertibles es invertible , pues cualquier matriz elemental es invertible y las matrices invertibles son estables bajo productos. Esto prueba que (c) implica (a).

Ahora, supongamos que (a) se satisface. Recordemos que para una matriz AMm,n(F) podemos encontrar una matriz BMm(F) que es producto de matrices elementales y tal que Ared=BA. Como A es invertible (por hipótesis) y B es invertible (por la proposición de la sección anterior), entonces BA es invertible y por consiguiente Ared también lo es. En particular, todos los renglones de Ared son distintos de cero y por lo tanto Ared tiene n pivotes, uno en cada columna. Como Ared está en forma escalonada reducida, necesariamente Ared=In. Esto prueba que (a) implica (b).

Finalmente, supongamos que (b) se satisface. Entonces existe una matriz B, la cual es producto de matrices elementales y tal que BA=In. Por la proposición anterior B es invertible y B1 es producto de matrices elementales. Como BA=In, tenemos que A=B1BA=B1 y así A es producto de matrices elementales, de manera que (b) implica (c).

◻

Ya podemos responder de manera práctica la pregunta «¿A es invertible?». Para ello, basta aplicarle reducción gaussiana a A. Por el teorema anterior, A es invertible si y sólo si la forma escalonada reducida obtenida es In. Por supuesto, esto aún no nos dice exactamente quién es la inversa.

Invertibilidad y sistemas de ecuaciones

La siguiente proposición expresa las soluciones del sistema AX=b cuando A es una matriz cuadrada e invertible. Para facilitar las cosas hay que tener un algoritmo para encontrar la inversa de una matriz. Más adelante veremos uno de estos algoritmos basado en reducción gaussiana.

Proposición. Si AMn(F) es una matriz invertible, entonces para todo bFn el sistema AX=b tiene una única solución, dada por X=A1b.

Demostración. Sea X una solución del sistema. Multiplicando la igualdad AX=b por la izquierda por A1 obtenemos A1(AX)=A1b. Como
A1(AX)=(A1A)X=InX=X,
concluimos que X=A1b, por lo tanto el sistema tiene a lo más una solución. Para ver que esta es en efecto una solución, calculamos
A(A1b)=(AA1)b=Inb=b.

◻

A continuación presentamos un resultado más, que relaciona matrices invertibles con que sus sistemas lineales correspondientes tengan soluciones únicas.

Teorema. Sea AMn(F) una matriz. Las siguientes afirmaciones son equivalentes:
(a) A es invertible.
(b) Para toda bFn el sistema AX=b tiene una única solución XFn.
(c) Para toda bFn el sistema AX=b es consistente.

Demostración. Ya demostramos que (a) implica (b). Es claro que (b) implica (c) pues si el sistema tiene una única solución, en particular tiene una solución.

Así, supongamos que que (c) se satisface. Sea Ared la forma escalonada reducida de A. Por una proposición ya antes mencionada en esta entrada sabemos que existe una matriz B la cual es producto de matrices elementales (por lo tanto invertible) y tal que Ared=BA. Deducimos que el sistema AredX=Bb tiene al menos una solución para todo bFn (pues si AX=b, entonces AredX=BAX=Bb).

Ahora, para cualquier bFn podemos encontrar b tal que b=Bb, tomando b=B1b. Aquí estamos usando que B es invertible por ser producto de matrices elementales. Concluimos que el sistema AredX=b es consistente para cada bFn, pero entonces cualquier renglón de Ared debe ser distinto de cero (si la fila i es cero, entonces escogiendo cada vector b con la iésima coordenada igual a 1 se obtiene un sistema inconsistente) y, como en la demostración del teorema anterior, se tiene que Ared=In. Usando el teorema anterior concluimos que A es invertible.

◻

Hasta ahora, al tomar un matriz cuadrada A y proponer una inversa B, la definición de invertibilidad nos exige mostrar ambas igualdades AB=In y BA=In. Finalmente tenemos las herramientas necesarias para mostrar que basta mostrar una de estas igualdades para que ambas se cumplan.

Corolario. Sean A,BMn(F) matrices.
(a) Si AB=In, entonces A es invertible y B=A1.
(b) Si BA=In, entonces A es invertible y B=A1.

Demostración. (a) Para cada bFn el vector X=Bb satisface
AX=A(Bb)=(AB)b=b,
por lo tanto el sistema AX=b es consistente para cada bMn(F). Por el teorema anterior, A es invertible. Multiplicando la igualdad AB=In por la izquierda por A1 obtenemos B=A1AB=A1, y así B=A1.
(b) Por el inciso (a), sabemos que B es invertible y A=B1, pero entonces A es invertible y A1=B.

◻

Determinar inversas usando reducción gaussiana

El corolario anterior nos da una manera práctica de saber si una matriz es invertible y, en esos casos, determinar inversas de matrices. En efecto, A es invertible si y sólo si podemos encontrar una matriz X tal que AX=In y de aquí X=A1.

La ecuación AX=In es equivalente a los siguientes sistemas lineales:
AX1=e1,,AX2=e2,,AXn=en.
donde ei es la iésima columna de In y Xi denota la iésima columna de X. Ya sabemos cómo resolver sistemas lineales usando reducción gaussiana. Esto nos da una manera práctica de calcular X: si al menos uno de estos sistemas es inconsistente, entonces A no es invertible; si todos son consistentes, entonces las soluciones X1,,Xn son las columnas de la inversa.

En la práctica, uno puede evitar resolver n sistemas lineales considerando el siguiente truco:

En lugar de tomar n matrices aumentadas [A|ei] considera sólo la matriz aumentada [A|In], en la cual agregamos la matriz In a la derecha de A (de manera que [A|In] tiene 2n columnas). Finalmente sólo hay que encontrar la forma escalonada reducida [A|X] de la matriz de n×2n[A|In]. Si A resulta ser distinto de In, entonces A no es inverible. Si A=In, entonces la inversa de A es simplemente la matriz X.

Ejemplo de determinar inversas

Para ilustrar lo anterior resolveremos el siguiente ejemplo práctico.

Ejemplo. Calcula la inversa de la matriz
A=(1512115930).

Solución. Aplicamos reducción gaussiana a la matriz extendida
[A|I3]=(1511002115010930001)
R22R1(151100013210930001)
R39R1(1511000132100489901)

R15R2(101411500132100489901)
R3+48R2(1014115001321000135105481)
1135R3(101411500132100017916451135)
R1+14R3(10019145141350132100017916451135)
R23R3(1001914514135010131151450017916451135)
De donde
A1=(1914514135131151457916451135).

En el ejemplo anterior hicimos el algoritmo de reducción gaussiana «a mano», pero también pudimos haber usado una herramienta en línea, como la calculadora de forma escalonada reducida de eMathHelp.

Más adelante…

En esta entrada vimos cómo el algoritmo de reducción gaussiana nos permite saber si una matriz es invertible o no. También nos da una forma práctica de determinar inversas. Hay otras formas de hacer esto mediante determinantes. Sin embargo, el método que describimos es bastante rápido y flexible.

Ya que entendemos un poco mejor a las matrices invertibles, el siguiente paso es usarlas para desarrollar nuestra teoría de álgebra lineal. Las matrices invertibles se corresponden con transformaciones lineales que se llaman isomorfismos, las cuales detectan cuándo dos espacios vectoriales son «el mismo».

También más adelante refinaremos el concepto de ser invertible y no. Esta es una clasificación en sólo dos posibilidades. Cuando definamos y estudiamos el rango de matrices y transformaciones lineales tendremos una forma más precisa de decir «qué tanta información guarda una transformación».

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuál sería la operación elemental inversa a aplicar un reescalamiento por un factor c0 en el renglón de una matriz?
  • Encuentra la inversa de la matriz
    (121202120).
    mediante reducción gaussiana.
  • Resuelve el sistema de ecuaciones
    {x+2y+2z=12x+y+2z=42x+2y+z=5
  • Sea AMn(F) una matriz tal que AredIn. Explica por qué A no es invertible.
  • Cuando A no es invertible, la matriz [A|In] tiene forma escalonada reducida [Ared|X], con AredIn. ¿Qué sucede si en este caso haces la multiplicación AX? ¿Y la multiplicación XA?
  • Demuestra la primera proposición de esta entrada para operaciones elementales sobre las columnas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»