Archivo de la etiqueta: matriz identidad

Álgebra Superior I: Cálculo de determinantes

Por Eduardo García Caballero

Introducción

En la entrada anterior introdujimos el concepto de determinante de matrices cuadradas. Dimos la definición para matrices de 2×2. Aunque no dimos la definición en general (pues corresponde a un curso de Álgebra Lineal I), dijimos cómo se pueden calcular los determinantes de manera recursiva. Pero, ¿hay otras herramientas para hacer el cálculo de determinantes más sencillo?

En esta entrada hablaremos de más propiedades de los determinantes. Comenzaremos viendo que si en una matriz tenemos dos filas o columnas iguales, el determinante se hace igual a cero. Luego, veremos que los determinantes son lineales (por renglón o columna), que están muy contectados con las operaciones elementales y platicaremos de algunos determinantes especiales.

Linealidad por filas o columnas

El determinante «abre sumas y saca escalares», pero hay que ser muy cuidadosos, pues no lo hace para toda una matriz, sino sólo renglón a renglón, o columna a columna. Enunciemos esto en las siguientes proposiciones.

Proposición. El determinante saca escalares renglón por renglón o columna por columna. Por ejemplo, pensemos en sacar escalares por renglón. Si k es un número real y tenemos una matriz de la forma
(a11a12a1nkai1kai2kainan1an2ann),
entonces
det(a11a12a1nkai1kai2kainan1an2ann)=kdet(a11a12a1nai1ai2ainan1an2ann).

No podemos dar la demostración muy formalmente, pues necesitamos de más herramientas. Pero puedes convencerte de que esta proposición es cierta pensando en lo que sucede cuando se calcula el determinante recursivamente en la fila i. En la matriz de la izquierda, usamos los coeficientes kai1,,kain para acompañar a los determinantes de las matrices de (n1)×(n1) que van saliendo. Pero entonces en cada término aparece k y se puede factorizar. Lo que queda es k veces el desarrollo recursivo de la matriz sin las k’s en el renglón i.

Ejemplo. Calculemos el determinante de la matriz A=(221023321). En la primera columna hay un 0, así que nos conviene usar esta columna para encontrar el determinante. Aplicando la regla recursiva, obtenemos que:

det(A)=|221023321|=(2)|2321|(0)|2121|+(3)|2123|=2(2132)0(21(1)2)3(23(1)2)=2(4)0(4)3(8)=32.

¿Qué sucedería si quisiéramos ahora el determinante de la matriz B=(211013311)? Podríamos hacer algo similar para desarrollar en la primera fila. Pero esta matriz está muy relacionada con la primera. La segunda columna de B es 1/2 veces la segunda columna de A. Por la propiedad que dijimos arriba, tendríamos entonces que det(B)=12det(A)=322=16.

Ejemplo. Hay que tener mucho cuidado, pues el determinante no saca escalares con el producto escalar de matrices. Observa que si A=(2111), entonces |2111|=2111=1. Sin embargo, det(2A)=|4222|=4222=42det(A).

En vez de salir dos veces el determinante, salió cuatro veces el determinante. Esto tiene sentido de acuerdo a la propiedad anterior: sale un factor 2 pues la primera fila es el doble, y sale otro factor 2 porque la segunda fila también es el doble.

◻

Proposición. El determinante abre sumas renglón por renglón, o columa por columna. Por ejemplo, veamos el caso para columnas. Si tenemos una matriz de la forma
(a11a1i+b1ia1na21a2i+b2ia2nan1ani+bniann),
entonces este determinante es igual a
det(a11a1ia1na21a2ia2nan1aniann)+det(a11b1ia1na21b2ia2nan1bniann).

Una vez más, no podemos dar una demostración muy formal a estas alturas. Pero como en el caso de sacar escalares, también podemos argumentar un poco informalmente qué sucede. Si realizamos el cálculo de determinantes en la columna i, entonces cada término de la forma aji+bji acompaña a un determinante Dji de una matriz de (n1)×(n1) que ya no incluye a esa columna. Por ley distributiva, cada sumando es entonces (aji+bji)Dji=ajiDji+bjiDji (acompañado por un + o un ). Agrupando en un lado los sumandos con aji’s y por otro los sumandos con bji’s obtenemos la identidad deseada.

Ejemplo. Las matrices (5221) y (2521) tienen determinantes 1 y 8 respectivamente (verifícalo). De acuerdo a la propiedad anterior, el determinante de la matriz (5+22+521)=(7721)

debería ser 1+(8)=7. Y sí, en efecto 712×7=7.

Hay que tener mucho cuidado, pues en esta propiedad de la suma las dos matrices tienen que ser iguales en casi todas las filas (o columnas), excepto en una. En esa fila (o columna) es donde se da la suma. En general, no sucede que det(A+B)=det(A)+det(B).

Ejemplo. Puedes verificar que las matrices A=(1000010000100001) y B=(1000010000100001) tienen ambas determinante 1. Sin embargo, su suma es la matriz de puros ceros, que tiene determinante 0. Así, det(A)+det(B)=20=det(A+B).

El determinante y operaciones elementales

El siguiente resultado nos dice qué sucede al determinante de una matriz cuando le aplicamos operaciones elementales.

Teorema. Sea A una matriz cuadrada.

  • Si B es una matriz que se obtiene de A al reescalar un renglón con el escalar α, entonces det(B)=αdet(A).
  • Si B es una matriz que se obtiene de A al intercambiar dos renglones, entonces det(B)=det(A).
  • Si B es una matriz que se obtiene de A al hacer una transvección, entonces det(B)=det(A).

No nos enfocaremos mucho en demostrar estas propiedades, pues se demuestran con más generalidad en el curso de Álgebra Lineal I. Sin embargo, a partir de ellas podemos encontrar un método de cálculo de determinantes haciendo reducción gaussiana.

Teorema. Sea A una matriz cuadrada. Supongamos que para llevar A a su forma escalonada reducida Ared se aplicaron algunas transvecciones, m intercambios de renglones y k reescalamientos por escalares no cero α1,,αk (en el orden apropiado). Entonces det(A)=(1)mdet(Ared)α1α2αk. En particular:

  • Si Ared no es la identidad, entonces det(Ared)=0 y entonces det(A)=0.
  • Si Ared es la identidad, entonces det(Ared)=1 y entonces det(A)=(1)mα1α2αk.

Veamos un ejemplo.

Ejemplo. Calculemos el determinante de la matriz A=(222023321) usando reducción gaussiana. Multiplicamos la primera fila por α1=1/2 y la sumamos tres veces a la última (transvección no cambia el determinante):

(111023052)

Multiplicamos por α2=1/5 la segunda fila y la intercambiamos con la tercera (va m=1).

(1110125023).

Restamos dos veces la segunda fila a la tercera (transvección no cambia el determinante)

(111012500195),

y multiplicamos la tercera fila por α3=5/19:

(1110125001).

Hacemos transvecciones para hacer cero las entradas arriba de la diagonal principal (transvecciones no cambian el determinante): (100010001).

Ya llegamos a la identidad. Los reescalamientos fueron por 1/2, 1/5 y 5/19 y usamos en total 1 intercambio. Así, det(A)=(1)1(1/2)(1/5)(5/19)=38.

Es recomendable que calcules el determinante del ejemplo anterior con la regla recursiva de expansión por menores para que verifiques que da lo mismo.

Algunos determinantes especiales

A continuación enunciamos otras propiedades que cumplen los determinantes. Todas estas puedes demostrarlas suponiendo propiedades que ya hemos enunciado.

Proposición. Para cualquier entero positivo n se cumple que la matriz identidad In tiene como determinante det(In)=1.

Este resultado es un caso particular de una proposición más general.

Proposición. El determinante de una matriz diagonal es igual al producto de los elementos de su diagonal; es decir,
det(a11000a22000ann)=a11a12ann.

Para probar esta proposición, puedes usar la regla recursiva para hacer la expansión por la última fila (o columna) y usar inducción.

Proposición. det(AT)=det(A).

Este resultado también sale inductivamente. Como los determinantes se pueden expandir por renglones o columnas, entonces puedes hacer una expansión en alguna fila de A y será equivalente a hacer la expansión por columnas en AT.

Proposición. Si A es una matriz invertible, entonces det(A1)=1det(A).

Para demostrar este resultado, se puede usar la proposición del determinante de la identidad, y lo que vimos la entrada pasada sobre que det(AB)=det(A)det(B).

Los argumentos que hemos dado son un poco informales, pero quedará en los ejercicios de esta entrada que pienses en cómo justificarlos con más formalidad.

Ejemplos interesantes de cálculo de determinantes

Las propiedades anteriores nos permiten hacer el cálculo de determinantes de varias maneras (no sólo expansión por menores). A continuación presentamos dos ejemplos que usan varias de las técnicas discutidas arriba.

Ejemplo. Calculemos el siguiente determinante:

|153291543|.

Como aplicar transvecciones no cambia el determinante, podemos restar la primera fila a la segunda, y luego cinco veces la primera fila a la tercera y el determinante no cambia. Así, este determinante es el mismo que

|15301502112|.

Multiplicar la segunda fila por 1 cambia el determinante en 1. Y luego multiplicar la tercera por 1 lo vuelve a cambiar en 1. Entonces haciendo ambas operaciones el determinante no cambia y obtenemos que el determinante es igual a

|15301502112|.

En esta matriz podemos expandir por la primera columna en donde hay dos ceros. Por ello, el determinante es

|152112|=(112)(521)=93.

Ejemplo. Calculemos el siguiente determinante:

|1234234134124123|.

Hacer transvecciones no cambia el determinante, entonces podemos sumar todas las filas a la última sin alterar el determinante. Como 1+2+3+4=10, obtenemos:

|12342341341210101010|.

Ahora, la última fila tiene un factor 10 que podemos factorizar:

10|1234234134121111|.

Ahora, podemos restar la primera columna a todas las demás, sin cambiar el determinante:

10|1123212131211000|.

Luego, podemos sumar la segunda fila a la tercera sin cambiar el determinante:

10|1123212152001000|.

Expandiendo por la última fila:

10|123121200|.

Expandiendo nuevamente por la última fila:

102|2321|.

El determinante de 2×2 que queda ya sale directo de la fórmula como 2(1)32=8. Así, el determinante buscado es (10)2(8)=160.

Más adelante…

Los determinantes son una propiedad fundamental de las matrices. En estas entradas apenas comenzamos a platicar un poco de ellos. Por un lado, son muy importantes algebraicamente pues ayudan a decidir cuándo una matriz es invertible. Se pueden utilizar para resolver sistemas de n ecuaciones lineales en n incógnitas con algo conocido como la regla de Cramer. Por otro lado, los determinantes también tienen una interpretación geométrica que es sumamente importante en geometría analítica y en cálculo integral de varias variables. En cursos posteriores en tu formación matemática te los seguirás encontrando.

Tarea moral

  1. Calcula el siguiente determinante: |1111202203300040|. Intenta hacerlo de varias formas, aprovechando todas las herramientas que hemos discutido en esta entrada.
  2. También se pueden obtener determinantes en matrices en donde hay variables en vez de escalares. Encuentra el determinante de la matriz (abcbcacab).
  3. Encuentra todas las matrices A de 2×2 que existen tales que det(A+I2)=det(A)+1.
  4. Demuestra todas las propiedades de la sección de «Algunos determinantes especiales». Ahí mismo hay sugerencias de cómo puedes proceder.
  5. Revisa las entradas Álgebra Lineal I: Técnicas básicas de cálculo de determinantes y Seminario de Resolución de Problemas: Cálculo de determinantes para conocer todavía más estrategias y ejemplos de cálculo de determinantes.

Entradas relacionadas

Cálculo Diferencial e Integral III: Sistemas de ecuaciones lineales

Por Alejandro Antonio Estrada Franco

Introducción

En esta entrada daremos un repaso a la teoría de sistemas de ecuaciones lineales. En caso de que quieras leer una versión detallada, puedes comenzar con la entrada de Sistemas de ecuaciones lineales y sistemas homogéneos asociados que forma parte del curso Álgebra Lineal I aquí en el blog.

Nuestra motivación para este repaso comienza como sigue. Supongamos que T:RnRm es una transformación lineal. Tomemos un vector w¯Rm. Es muy natural preguntarse qué vectores v¯ hay en Rn tales que T(v¯)=w¯, en otras palabras, preguntarse cuál es la preimagen de w¯.

Sistemas de ecuaciones lineales

Continuando con la situación planteada en la introducción, si A es la representación matricial de T en una cierta base β, podemos contestar la pregunta planteada resolviendo la ecuación matricial AX=B donde X, B son las representaciones de los vectores v¯, w¯ en la base β, respectivamente. Una vez llegado a este punto, la ecuación AX=B nos conduce a que se deban cumplir varias igualdades. Veamos cuáles son en términos de las entradas de A, X y Y. Pensemos que A=(a11a12a1na21a22a2nam1am2amn).

Pensemos también que X es el vector columna con entradas (incógnitas) x1,,xn, y que B es el vector columna con entradas b1,,bm.

Al realizar las operaciones, la igualdad AX=B se traduce en que se deban cumplir todas las siguientes ecuaciones simultáneamente:

(1){a11x1++a1nxn=b1am1x1++amnxn=bm

Definición. Un sistema de m ecuaciones lineales con n incógnitas es un sistema de ecuaciones de la forma (1). Como discutimos arriba, al sistema también lo podemos escribir de la forma AX=B. A la matriz A le llamamos la matriz de coeficientes. Al vector X le llamamos el vector de incógnitas.

Resolver el sistema (1) se refiere a determinar todos los posibles valores que pueden tomar las incógnitas x1,,xn de manera que se cumplan todas las ecuaciones dadas.

Definición. Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

Un resultado importante que relaciona a los sistemas de ecuaciones con las operaciones elementales que discutimos con anterioridad es el siguiente.

Proposición. Sea AMm,n(R) y e una operación elemental cualquiera (intercambio de renglones, reescalamiento de renglón, o transvección). Entonces el sistema de ecuaciones AX=B es equivalente al sistema de ecuaciones e(A)X=e(B).

En otras palabras, si comenzamos con un sistema de ecuaciones AX=B y aplicamos la misma operación elemental a A y a B, entonces obtenemos un sistema equivalente. Veamos como ejemplo un esbozo de la demostración en el caso del reescalamiento de vectores. Los detalles y las demostraciones para las otras operaciones elementales quedan como ejercicio.

Demostración. Consideremos el rescalamiento e de la j-ésima columna de una matriz por un factor r. Veremos que e(A)X=e(B). Tomemos

A=(a11a1nam1amn),B=(b1bm),X=(x1xn)

Entonces la ecuación matricial AX=B nos produce el siguiente sistema de ecuaciones lineales:
{a11x1++a1nxn=b1am1x1++amnxn=bm.

Tomemos una solución del sistema: X=(x1xn)

La ecuación matricial e(A)X=e(B) nos produce el siguiente sistema de ecuaciones: {a11x1++a1nxn=b1raj1x1++rajnxn=rbj am1x1++amnxn=bm.

Ahora, de cada una de las n ecuaciones, excepto la j-ésima, sabemos que se solucionan al sustituir x1,,xm, resta revisar la j-ésima ecuación. Lo que sí sabemos de que X sea solución es que aj1x1++ajnxn=bj. Así, al multiplicar por r de ambos lados raj1x1++rajnxn=rbj. Así obtenemos que X satisface también a e(A)X=e(B). Inversamente si una solución satisface al sistema e(A)X=e(B) también lo hace para AX=Y. Te recomendamos revisar los detalles por tu cuenta.

◻

Soluciones a sistemas de ecuaciones lineales

La teoría de sistemas de ecuaciones lineales nos dice que tenemos tres posibles situaciones que se pueden presentar cuando estamos resolviendo un sistema de ecuaciones lineales en R: no hay solución, hay una única solución, o tenemos infinidad de soluciones. Por ejemplo, se puede descartar que haya exactamente dos soluciones. En cuanto sucede esto, la cantidad de soluciones se dispara a una infinidad

Haremos una discusión de cuándo se presenta cada caso. De acuerdo con la sección anterior, cualquier operación elemental pasa un sistema de ecuaciones a uno equivalente. Además, de acuerdo con el teorema de reducción gaussiana, cualquier matriz puede ser llevada a la forma escalonada reducida. Así, al aplicar tanto a A como a B las operaciones elementales que llevan A a su forma escalonada reducida Ared, llegamos a un sistema equivalente AredX=C. El comportamiento del conjunto solución de AX=B se puede leer en este otro sistema equivalente como sigue:

  1. Sin solución. El sistema AX=B no tiene solución si en AredX=C hay una igualdad lineal del estilo 0xj1++0xjn=cj, con cj0. En otras palabras, si en Ared hay una fila j de ceros y la entrada cj es distinta de cero.
  2. Infinidad de soluciones. El sistema AX=B tiene una infinidad de soluciones si tiene solución, y además hay por lo menos una columna k de Ared en la que no haya pivote de ninguna fila. Esta columna k corresponde a una variable libre xk que puede tomar cualquier valor, y el sistema tiene soluciones sin importar el valor que se le de a esta variable.
  3. Solución única. Un sistema de ecuaciones con solución, pero sin variables libres tiene una única solución. Esto se puede leer en la matriz Ared, pues se necesita que todas las columnas tengan un pivote de alguna fila.

Pensemos un poco a qué se deben los comportamientos anteriores. Pensemos en que ya llegamos a AredX=C. Iremos determinando los posibles valores de las entradas de X de abajo hacia arriba, es decir, en el orden xn,xn1,,x1. Si xk es variable libre, pongamos el valor que sea. Si xk tiene el pivote de, digamos, la fila j, entonces la ecuación j nos dice 0++0+xk++ajnxn=bj. Esto nos diría que xk=bjaj(k+1)xk+1ajnxn, así que hemos logrado expresar a xk en términos de las variables ya determinadas xk+1,xn.

Matrices equivalentes por filas

Definición. Consideremos IMm(R) la matriz identidad de tamaño m. Una matriz elemental será una matriz que se obtenga de la identidad tras aplicar una operación elemental.

Definición. Sean A,BMm,n(R). Diremos que A es equivalente por filas a B si A se puede obtener al aplicar una sucesión finita de operaciones elementales a B.

Se puede demostrar que «ser equivalente por filas» es una relación de equivalencia en Mm,n(R). Así mismo, se puede demostrar en general que si e es una operación elemental, entonces e(A) es exactamente la misma matriz que multiplicar la matriz elemental e(I) por la izquierda por A, es decir, e(A)=e(I)A. Como tarea moral, convéncete de ambas afirmaciones.

Para realizar la demostración, quizás quieras auxiliarte de la siguiente observación. Tomemos una matriz BMm,n(R) y pensemos en cada columna de B como un vector columna:

B1=(B11Bm1)Bn=(B1nBmn).

Tomemos ahora una matriz AMp,m. Tras realizar las operaciones, se puede verificar que la matriz AB tiene como columnas a los vectores columna AB1,AB2,,ABn.

El siguiente teorema nos da una manera alternativa de saber si dos matrices son equivalentes por filas.

Teorema. Sean A,BMm×n(R). Se tiene que B es equivalente por filas a A si y sólo si B=PA, donde P es una matriz en Mm(R) obtenida como producto de matrices elementales.

Demostración. Por la discusión anterior, si B es equivalente por filas a A, A resulta de la aplicación de una sucesión finita de operaciones elementales a B o, lo que es lo mismo, resulta de una aplicación finita de productos de matrices elementales por la izquierda. Por otro lado, si B=PA, con P=EkE1 producto de matrices elementales, tenemos que E1A es equivalente por filas a A, que E2(E1A) es equivalente por filas a E1A, que E3(E2(E1(A))) equivalente por filas a E2(E1(A)), y así sucesivamente. Usando que ser equivalente por filas es transitivo (por ser relación de equivalencia), concluimos que B es equivalente por filas a A.

◻

¿Qué sucede con los determinantes y las operaciones elementales? La siguiente proposición lo resume.

Proposición. Sea A una matriz en Mn(R) con determinante det(A).

  • Si se intercambian dos filas, el determinante se vuelve det(A).
  • Si se reescala una fila por un real r0, el determinante se vuelve rdet(A).
  • Si se hace una transvección, el determinante no cambia.

Observa que, en particular, si det(A)0, entonces sigue siendo distinto de cero al aplicar operaciones elementales.

Matrices invertibles y sistemas de ecuaciones lineales

En muchas ocasiones nos encontramos en cálculo de varias variables con funciones que van de Rn a sí mismo. Si la función que estamos estudiando es una transformación lineal, entonces corresponde a una matriz cuadrada en Mn(R). En estos casos hay otro concepto fundamental que ayuda, entre otras cosas, para resolver sistemas de ecuaciones lineales: el de matriz invertible. Veremos a continuación que esto interrelaciona a las matrices, las matrices elementales, los sistemas de ecuaciones lineales y a los determinantes.

Definición. Una matriz A cuadrada es invertible por la izquierda (resp. derecha) si existe una matriz B tal que BA=I (resp. AB=I). A B le llamamos la inversa izquierda (resp. derecha) de A. A una matriz invertible por la derecha y por la izquierda, donde la inversa izquierda sea igual a la derecha, simplemente se le llama invertible.

Se puede demostrar que, cuando existe, la matriz izquierda (o derecha) es única. Esto es sencillo. Se puede demostrar también que si B es inversa izquierda y B es inversa derecha, entonces B=B, lo cual no es tan sencillo. Además, se cumplen las siguientes propiedades de matrices invertibles.

Proposición. Sean A,BMn(R)

  1. Si A es invertible, también lo es A1 y (A1)1=A.
  2. Si A y B son invertibles, también lo es AB y (AB)1=B1A1.

Demostración. El inciso 1 es claro; para el inciso 2 tenemos (AB)(B1A1)=A(BB1)A1=A(I)A1=AA1=I =B1(I)B=B1(A1A)B=(B1A1)(AB).

◻

Veamos ahora cómo se conecta la noción de invertibilidad con la de matrices elementales. Como parte de la tarea moral, cerciórate de que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, piensa en otra operación elemental que aplicada sucesivamente a la primera nos de la matriz original. Con más detalle; si denotamos con e a una operación elemental (puede ser cualquiera) denotamos como e1 a la segunda a la cual llamaremos inversa de e; y estas cumplen e(e1)(A)=A=e1(e(A)) para cualquier matriz A a la que se le pueda aplicar e.

Proposición. Toda matriz elemental es invertible.

Demostración. Supongamos que E una matriz elemental correspondiente a la operación unitaria e. Si e1 es la operación inversa de e y E1=e1(I) tenemos: EE1=e(E1)=e(e1(I))=I, y así mismo tenemos E1E=e1(E)=e1(e(I))=I. De esta manera E es invertible y su inversa es E1.

◻

El resultado anterior habla sólo de la invertibilidad de matrices elementales, pero podemos usar a estas para caracterizar a las matrices invertibles.

Teorema. Sea AMn(R), los siguientes enunciados son equivalentes:

  1. A es invertible
  2. A es equivalente por filas a la matriz identidad
  3. A es producto de matrices elementales

Demostración. 12). Supongamos que A invertible, y usemos el teorema de reducción Gaussiana para encontrar la forma escalonada reducida Ared de A mediante una sucesión de operaciones elementales. Por el teorema de la sección de matrices equivalentes por filas, tenemos que R=EkE1A, donde Ek,,E1 son matrices elementales. Cada Ei es invertible, y A es invertible. Por la proposición anterior, tenemos entonces que Ared es invertible. Se puede mostrar que entonces ninguna fila de Ared puede consistir de puros ceros (verifícalo de tarea moral), de modo que toda fila de A tiene pivote (que es igual a 1). Como hay n filas y n columnas, entonces hay exactamente un 1 en cada fila y en cada columna. A Ared no le queda otra opción que ser la matriz identidad.

23). Si A es equivalente por filas a I, entonces hay operaciones elementales que la llevan a I. Como ser equivalente por filas es relación de equivalencia, existen entonces operaciones elementales que llevan I a A. Pero entonces justo A se obtiene de I tras aplicar un producto (por la izquierda) de matrices elementales. Por supuesto, en este producto podemos ignorar a I (o pensarla como un reescalamiento por 1).

31). Finalmente como cada matriz elemental es invertible y todo producto de matrices invertibles es invertible tenemos que 3 implica 1.

◻

Ya que entendemos mejor la invertibilidad, la podemos conectar también con la existencia y unicidad de soluciones en sistemas de ecuaciones lineales.

Teorema. Sea AMn(R); las siguientes afirmaciones son equivalentes:

  1. A es invertible.
  2. Para todo Y, el sistema AX=Y tiene exactamente una solución X.
  3. Para todo Y, el sistema AX=Y tiene al menos una solución X.

Demostración. 12). Supongamos A invertible. Tenemos que X=A1Y es solución pues AX=A(A1)Y=IY=Y. Veamos que la solución es única. Si X y X son soluciones, tendríamos AX=Y=AX. Multiplicando por A1 por la izquierda en ambos lados de la igualdad obtenemos X=X.

23). Es claro pues la única solución es, en particular, una solución.

31). Tomemos los vectores canónicos e^1,e^2,,e^n de Rn. Por (3) tenemos que todos los sistemas AX=e^1,,AX=e^n tienen solución. Tomemos soluciones B1,,Bn para cada uno de ellos y tomemos B como la matriz con columnas B1,,Bn. Por el truco de hacer el producto de matrices por columnas, se tiene que las columnas de AB son AB1=e^1,,ABn=e^n, es decir, AB es la matriz identidad.

◻

En la demostración anterior falta un detalle importante. ¿Puedes encontrar cuál es? Está en la demostración 31). Si quieres saber cuál es y cómo arreglarlo, puedes consultar la entrada Mariposa de 7 equivalencias de matrices invertibles.

Terminamos la teoría de esta entrada con un resultado que conecta invertibilidad y determinantes.

Proposición. Sea AMn(R). A es invertible, si y sólo si, det(A)0.

Demostración. Si A es invertible, entonces se cumple la ecuación I=AA1. Aplicando determinante de ambos lados y usando que es multiplicativo: 1=det(I)=det(AA1)=det(A)det(A1). Como al lado izquierdo tenemos un 1, entonces det(A)0.

Si det(A)0, llevemos A a su forma escalonada reducida Ared. Por la observación hecha al final de la sección de matrices elementales, se tiene que det(Ared)0. Así, en cada fila tenemos por lo menos un elemento no cero. Como argumentamos anteriormente, esto implica Ared=I. Como A es equivalente por filas a I, entonces es invertible.

◻

Mas adelante…

Continuaremos estableciendo herramientas de Álgebra lineal que usaremos en el desarrollo de los temas subsiguientes. En la siguiente entrada hablaremos de eigenvalores y eigenvectores. Con ellos, expondremos un método que proporciona una representación matricial sencilla simple para cierto tipos de transformaciones lineales.

Tarea moral

  1. Demuestra que la relación «es equivalente por filas» es una relación de equivalencia en Mm,n(R).
  2. Sea AMm,nR. Verifica que para cualquier operación elemental e de cualquiera de los tres tipos se cumple que e(A)X=e(B) es equivalente a AX=B. Deberás ver que cualquier solución de uno es solución del otro y viceversa.
  3. Demuestra que si A es invertible, también lo es A1 y que (A1)1=A. Verifica la invertibilidad izquierda y derecha.
  4. Demuestra que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, hay otra que al aplicarla sucesivamente nos regresa a la matriz original.
  5. Prueba que una matriz invertible tiene por lo menos un elemento distinto de cero en cada fila, y por lo menos un elemento distinto de cero en cada columna.

Entradas relacionadas

Geometría Analítica I: Tipos de matrices

Por Paola Berenice García Ramírez

Introducción

Hemos conocido en esta unidad las transformaciones lineales y que a partir de ellas podemos asociarles una matriz única. En la sección anterior comenzamos con las primeras operaciones entre matrices: el producto de matrices y su estrecha relación con la composición de matrices. En esta unidad veremos las matrices más representativas y sus funciones lineales a las cuales están asociadas.

Matriz identidad

No es una familia de matrices, pero es el primer tipo de matriz que debemos mencionar. La matriz identidad está asociada a la función identidad y su tamaño es de n×n, es decir el número de filas es el mismo que el de columnas. Se denota por I pero como se tiene una matriz identidad para cada dimensión, se puede escribir como In.

La matriz identidad se caracteriza porque todos sus elementos son ceros (0) excepto aquellos elementos que se encuentran en la diagonal principal, que son unos (1).

Ejemplo. Para la función identidad f:R2R2, su matriz identidad asociada es

I2=I2×2=(1001),

y para la función identidad f:RnRn, su matriz identidad asociada es

In=In×n=(100010001).

De hecho el producto de cualquier matriz por a matriz identidad no tiene ningún efecto, ya que siempre se cumple que AI=A e IA=A.

Homotecias

Las homotecias son funciones de cambios de escala, porque conservan los ángulos pero no las distancias entre cualquier par de puntos. Sin embargo, todas las distancias se incrementan o disminuyen en una misma razón kR, con k0, para una función f:RnRn definida por f(x)=kx, la cual es lineal.

La matriz asociada a estas funciones es kI, es decir la matriz que sólo tiene elementos k en la diagonal principal y ceros (0) fuera de dicha diagonal. Cuando k>1 aumentan las distancias (dilataciones), cuando k<1 disminuyen (contraen) y en caso de que k=1, las distancias se conservan.

Ejemplo. Para el caso de una función lineal f:R2R2, la matriz de homotecia de 2×2 asociada es de la forma

In=In×n=(k00k),

Ejemplo. Dada la función lineal definida por

f(xy)=(x4y4),

cuya matriz asociada es

(140014),

ya que

f(xy)=(140014)(xy)=(x4y4).

Vemos que la función corresponde a una homotecia que reduce las distancias entre cualquier par de puntos en una razón de 14.

Rotaciones

Recordemos que en las rotaciones, todo el plano gira un ángulo α alrededor de un punto fijo (el origen del sistema coordenado) pero permanecen invariantes el tamaño y forma de las figuras.

Las columnas de la matriz asociada a las rotaciones en R2 con centro en el origen mediante un ángulo α son:

f(e1)=(cosαsenα),yf(e2)=(senαcosα).

En consecuencia las rotaciones mandan al vector canónico e1 en un vector unitario u y al vector canónico e2 en su vector ortogonal u.

Por tanto, para una función lineal f:R2R2, su matriz de rotación asociada correspondiente es

Rα=(cosαsenαsenαcosα).

Ejemplo. Si α=45° y queremos calcular la rotación de 45°del vector x entonces la matriz en este caso será:

R45°(x)=(cos45°sen45°sen45°cos45°)x=(22222222)x.

Un hecho importante es que una vez que hubo una rotación de ángulo α y volvemos a aplicar una rotación pero de ángulo α, regresaremos a la matriz identidad. Es decir que con la ayuda de las igualdades

cos(α)=cosαysen(α)=senα,

se cumple que RαRα=I. Este resultado lo dejaremos como ejercicio en la sección Tarea moral.

Ahora bien, si rotamos un ángulo β y posteriormente un ángulo α, rotamos entonces en total un ángulo α+β, entonces se cumple que RαRβ=Rα+β, pues

RαRβ=(cosαsenαsenαcosα)(cosβsenβsenβcosβ)=(cosαcosβsenαsenβcosαsenβsenαcosβsenαcosβ+cosαsenβsenαsenβ+cosαcosβ)=(cos(α+β)sen(α+β)sen(α+β)cos(α+β))=Rα+β,

obteniendo las fórmulas trigonométricas para el coseno y el seno de la suma de ángulos como consecuencia de la composición de funciones y la multiplicación de matrices.

Reflexiones

Para ver el significado geométrico que una reflexión ejerce sobre un vector, consideremos las funciones lineales:

  1. Sea f:R2R2, tal que f(xy)=(xy) se llama reflexión con respecto al eje y.
  2. Sea f:R2R2, tal que f(xy)=(xy) se llama reflexión con respecto al eje x.
  3. Sea f:R2R2, tal que f(xy)=(yx) se llama reflexión con respecto a la recta y=x.

La representación matricial de cada caso es

Ry=(1001),Rx=(1001),Ry=x=(0110),

respectivamente. De forma más general, las reflexiones deben parametrizarse por la mitad del ángulo de la imagen de e1, quien es el ángulo de la recta respecto a la cual se hace la reflexión. Con ello, la reflexión en la recta con ángulo θ manda a e1 en el vector unitario de ángulo 2θ, y su matriz asociada es:

Eθ=(cos2θsen2θ sen2θcos2θ)

Reflexión respecto a un eje

Dejaremos como ejercicio moral ver que se cumplen EθEθ=I y que la composición de reflexiones es EαEβ=R2(αβ).

Matrices ortogonales

Una matriz ortogonal debe cumplir ser cuadrada y su función lineal asociada debe ser ortogonal (es decir, que preserva el producto interior). Entonces, para que se cumplan dichas condiciones, recurrimos a la siguiente definición:

Definición. Una matriz A de n×n es ortogonal (la matriz de una transformación ortogonal) si y sólo si AAT=I.

Ejemplo. Para la matriz de reflexión con respecto a la recta x=y

A=(0110),

el producto de A con su transpuesta AT es

AAT=(0110)(0110)=(1001)=I

Ejemplo. Para la matriz de rotación

B=(cosαsenαsenαcosα),

el producto de B con su transpuesta BT es

BBT=(cosαsenαsenαcosα)(cosαsenαsenαcosα)=(1001)=I.

De hecho las matrices ortogonales de 2×2 son: las rotaciones y las reflexiones.

Tarea moral

  1. ¿Las siguientes matrices son matrices identidad?

A=(1103),B=(100100),C=(100010001),

2. Demostrar que las homotecias tienen la propiedad de conmutar con cualquier otra matriz, es decir, A(kI)=(kI)A, donde k es una constante real, I es la matriz identidad y A una matriz de n×n.

3. Demostrar que la rotación de un ángulo θ nos regresa a la unidad, es decir, probar que se cumple RθRθ=I

4. En la sección de reflexiones de esta entrada definimos a la matriz Eθ. Demostrar que se cumple EθEθ=I y que la composición de reflexiones es EαEβ=R2(αβ).

Más adelante

En la siguiente entrada vamos a conocer al grupo de matrices invertibles de n×n, el grupo general lineal de orden n; a las cuales pertenecen las matrices ortogonales. Además veremos la forma más fácil de saber si una matriz de 2×2 es invertible, mediante el determinante y su relación con los sistemas de dos ecuaciones lineales con dos incógnitas.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso: