Archivo de la etiqueta: matrices

Álgebra Lineal II: Existencia de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores demostramos que para cualquier matriz nilpotente existe (y es única) una matriz similar muy sencilla, hecha por lo que llamamos bloques de Jordan de eigenvalor cero. Lo que haremos ahora es mostrar una versión análoga de este resultado para una familia mucho más grande de matrices. De hecho, en cierto sentido tendremos un resultado análogo para todas las matrices.

Pensando en ello, lo que haremos en esta entrada es lo siguiente. Primero, generalizaremos nuestra noción de bloques de Jordan para contemplar cualquier eigenvalor. Estudiaremos un poco de los bloques de Jordan. Luego, enunciaremos el teorema que esperamos probar. Finalmente, daremos el primer paso hacia su demostración. En la siguiente entrada terminaremos la demostración y hablaremos de aspectos prácticos para encontrar formas canónicas de Jordan.

Enunciado del teorema de la forma canónica de Jordan

A continuación definimos a los bloques de Jordan para cualquier eigenvalor y tamaño.

Definición. Sea F un campo. El bloque de Jordan de eigenvalor λ y tamaño k es la matriz Jλ,k en Mk(F) cuyas entradas son todas λ, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, Jλ,k=[aij] con aij={1si j=i+1λsi i=j0en otro caso.

También podemos expresarlo de la siguiente manera:

Jλ,k=(λ10000λ10000λ00000λ10000λ), en donde estamos pensando que la matriz es de k×k.

Una última manera en la que nos convendrá pensar a Jλ,k es en términos de los bloques de Jordan de eigenvalor cero: Jλ,k=λIk+J0,k.

Definición. Una matriz de bloques de Jordan en Mn(F) es una matriz diagonal por bloques en la que cada bloque en la diagonal es un bloque de Jordan.

Lo que nos gustaría demostrar es el siguiente resultado. En él, piensa en como algún orden total fijo de F (para R es el orden usual, pero otros campos no necesariamente tienen un orden natural asociado).

Teorema. Sea V un espacio vectorial de dimensión finita n sobre el campo F y T:VV una transformación lineal tal que χT(X) se divide sobre F. Entonces, existen únicos valores λ1λn en F y únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, para los cuales existe una base de V en la cual T tiene como forma matricial a la siguiente matriz de bloques de Jordan:

(Jλ1,k1000Jλ2,k2000Jλd,kd).

Por supuesto, este teorema también tiene una versión matricial, la cuál tendrás que pensar cómo escribir.

Un teorema de descomposición de kernels

Ya tenemos uno de los ingredientes que necesitamos para dar la demostración de la existencia de la forma canónica de Jordan: su existencia para las transformaciones nilpotentes. Otro de los ingredientes que usaremos es el teorema de Cayley-Hamilton. El tercer ingrediente es un resultado de descoposición de kernels de transformaciones evaluadas en polinomios.

Proposición. Sea V un espacio vectorial sobre F. Sea T:VV una transformación lineal. Y sean P1(X),,Pr(X) polinomios en F[x] cuyo máximo común divisor de cualesquiera dos de ellos es el polinomio 1. Entonces, ker((P1P2Pr)(T))=i=1rker(Pi(T)).

Demostración. Para cada i{1,2,,r} consideraremos a Qi(X) como el polinomio que se obtiene de multiplicar a todos los polinomios dados, excepto Pi(X). Y por comodidad, escribiremos P(X)=(P1Pr)(X). Notemos que entonces P(X)=(QiPi)(X) para cualquier i{1,2,,r}.

Primero probaremos un resultado polinomial auxiliar. Veremos que Q1(X),,Qr(X) tienen como máximo común divisor al polinomio 1. En caso de no ser así, un polinomio D(X) no constante dividiría a todos ellos. Sin pérdida de generalidad, D es irreducible (tomando, por ejemplo D(X) de grado mínimo con esta propiedad). Como D(X) es irreducible y divide a Qr(X), entonces debe dividir a alguno de los factores de Qr(X), que sin pérdida de generalidad (por ejemplo, reetiquetando), es P1(X). Pero D(X) también divide a Q1(X), así que debe dividir a alguno de sus factores P2(X),,Pr(X), sin pérdida de generalidad a P2(X). Pero entonces D(X) divide a P1(X) y P2(X), lo cual contradice las hipótesis. Así, Q1(X),,Qr(X) tienen como máximo común divisor al polinomio 1. Por el lema de Bézout para polinomios (ver tarea moral), existen entonces polinomios R1(X),,Rr(X) tales que

(1)(R1Q1+R2Q2++RrQr)(X)=1.

Estamos listos para pasar a los argumentos de álgebra lineal. Veamos primero que cualquier elemento en la suma de la derecha está en el kernel de P(T). Tomemos v=v1++vr con viker(Pi(T)). Al aplicar P obtenemos

P(v)=P(v1)++P(vr)=Q1(P1(v1))++Qr(Pr(vr))=0++0=0.

Esto muestra que vker(P(T)), de donde se obtiene la primera contención que nos interesa.

Veamos ahora la segunda contención, que ker(P(T))=i=1rker(Pi(T)). Tomemos vker(P(T)). Al aplicar (1) en T y evaluar en v obtenemos que

v=Id(v)=(1)(T)(v)=(R1Q1+R2Q2++RrQr)(T)(v)=(R1Q1)(T)(v)++(RrQr)(T)(v).

Pero esto justo expresa a v como elemento de ker(Pi(T)) pues para cada i tenemos

Pi(T)((RiQi)(T)(v))=(PiRiQi)(T)(v)=(RiQiPi)(T)(v)=Ri(T)P(T)(v)=Ri(0)=0,

de modo que expresamos a v como suma de vectores en ker(P1(T)),,ker(Pr(T)).

Ya demostramos la igualdad de conjuntos, pero recordemos que en la igualdad de suma directa hay otra cosa que hay que probar: que el cero tiene una forma única de expresarse como suma de elementos de cada subespacio (aquella en donde cada elemento es cero). Supongamos entonces que 0=v1++vr con viker(Pi(T)) para cada i. Si aplicamos Qi en esta igualdad, como tiene todos los factores Pj con ji obtenemos 0=Qi(0)=Qi(vi).

Por otro lado, al aplicar nuevamente (1) en T y evaluar en vi

vi=Id(vi)=(1)(T)(vi)=(R1Q1+R2Q2++RrQr)(T)(vi)=(R1Q1)(T)(v1)++(RrQr)(T)(vi)=(RiQi)(T)(vi)=0.

De esta forma, en efecto tenemos que los espacios están en posición de suma directa, que era lo último que nos faltaba verificar.

◻

Existencia de la forma canónica de Jordan

Estamos listos para demostrar la existencia de la forma canónica de Jordan. Supongamos que V es un espacio vectorial de dimensión finita n sobre F y que T:VV es una transformación lineal cuyo polinomio característico se divide en F[x]. Sabemos entonces que es de la siguiente forma:

χT(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr,

donde λ1,,λr son eigenvalores distintos de T y m1,,mr son las multiplicidades algebraicas respectivas de estos eigenvalores como raíces de χT(X).

Por el teorema de Cayley-Hamilton, sabemos que χT(T)=0, de modo que ker(χT(T))=V. Por la proposición de descomposición de la sección anterior aplicada a los polinomios Pi(X)=(Xλi)mi (verifica que son primos relativos dos a dos) para i{1,,r} tenemos entonces que V=i=1rker((Tλiid)mi).

Pero, ¿cómo es la transformación Tλiid restringida a cada ker((Tλiid)mi)? ¡Es nilpotente! Precisamente por construcción, (Tλiid)mi se anula totalmente en este kernel. Así, por la existencia de la forma canónica de Jordan para matrices nilpotentes, hay una base βi para cada ker((Tλiid)mi) tal que Tλiid restringida a ese kernel tiene como forma matricial una matriz Ji de bloques de Jordan de eigenvalor cero. Pero entonces T (restringida a dicho kernel) tiene como forma matricial a Ji+λiImi, que es una matriz de bloques de Jordan de eigenvalor λ.

Con esto terminamos: como V es la suma directa de todos esos kernel, la unión de bases β1,,βr es una base para la cual T tiene como forma matricial a una matriz de bloques de Jordan.

◻

Más adelante…

Hemos demostrado la existencia de la forma canónica de Jordan, pero aún nos falta demostrar su unicidad. Además de esto, también necesitaremos un mejor procedimiento para encontrarla. Haremos eso en la siguiente entrada.

Tarea moral

  1. Enuncia el teorema de la forma canónica de Jordan versión matrices.
  2. Investiga más sobre el lema de Bézout para polinomios y cómo se demuestra. Después de esto, expresa al polinomio 1 como combinación lineal de los polinomios x21,x3+1,x2+5x+4.
  3. Verifica que los polinomios Pi(X)=(Xλi)ki de la demostración de la existencia de la forma canónica de Jordan cumplen las hipótesis de la proposición de descomposición de kernels.
  4. Sea F un campo y r,s elementos en F. Sea n un entero. Demuestra que los bloques de Jordan Jr,n y Js,n en Mn(F) conmutan.
  5. Siguiendo las ideas de la demostración de existencia, encuentra la forma canónica de Jordan de la matriz (1111011100220002).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Superior I: Producto de matrices con matrices

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido varias operaciones que involucran escalares, vectores y matrices. En esta entrada aprenderemos sobre una de las operaciones más importantes en el álgebra lineal: el producto de matrices con matrices.

Definición de producto de matrices

Para poder efectuar el producto de dos matrices, hay que asegurarnos de que el número de columnas de la primera matriz sea igual al número de filas de la segunda matriz.

El resultado de una matriz A de tamaño m×n por una matriz B de tamaño n× será la matriz C=AB de tamaño m×, donde la entrada cij de C está dada por la fórmula
cij=ai1b1j+ai2b2j++ainbnj.

A primera vista esta fórmula puede parecer complicada, sin embargo, practicando con algunos ejemplos verás que es muy fácil de implementar.

  • Producto de matrices de tamaño 2×2:

Sean
A=(1357)yB=(2468).

Como estamos multiplicando una matriz de tamaño 2×2 por una matriz de tamaño 2×2, sabemos que el resultado será otra matriz de tamaño 2×2. Ahora, iremos calculando una por una sus entradas.

Sea C=AB. Para calcular la entrada c11 observamos la primera fila de A y la primera columna de B, las cuales son
A=(1357)yB=(2468),
de modo que c11=(1)(2)+(3)(6)=20:
AB=(20285276).

Para la entrada c12, nos fijamos en la primera columna de A y en la segunda columna de B, que son
A=(1357)yB=(2468),
obteniendo c12=(1)(4)+(3)(8)=28:
AB=(20285276).

De manera similar, observemos la segunda fila de A y la primera columna de B,
A=(1357),B=(2468),
obteniendo c21=(5)(2)+(7)(6)=52, mientras que la segunda fila de A y la segunda columna de B son
A=(1357),B=(2468),
obteniendo c22=(5)(4)+(7)(8)=76.

Por lo tanto,
AB=(20285276).

En general, el resultado del producto de las matrices
A=(a11a12a21a22)yB=(b11b12b21b22)
es
AB=(a11a12a21a22)(b11b12b21b22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22).

  • Producto de matriz de 3×2 por matriz de 2×2:

Supongamos que
A=(351043)yB=(7852).

En este caso, como estamos multiplicando una matriz de tamaño 3×2 por una matriz de tamaño 2×2, la matriz resultante tendrá tamaño 3×2.

Podemos obtener sus entradas de manera similar al caso anterior. Si C=AB, entonces la entrada c12 la podemos encontrar revisando la primera fila de A y la segunda columna de B,
A=(351043),B=(7852).
de modo que c12=(3)(8)+(5)(2)=34. Por su parte, para obtener la entrada c31 nos fijamos en la tercera fila de A y la primera columna de B,
A=(351043),B=(7852).
obteniendo c31=(4)(7)+(3)(5)=43.

¿Podrías comprobar que
AB=(4634784338)?

Así, para el caso general de matrices de 3×2 por 2×2, obtendremos
(a11a12a21a22a31a32)(b11b12b21b22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22).

  • Producto de matriz de 4×2 por matriz de 2×3:

¿Podrías verificar que la siguiente fórmula es correcta?
(a11a12a21a22a31a32a41a42)(b11b12b13b21b22b23)=(a11b11+a12b21a11b12+a12b22a11b13+a12b23a21b11+a22b21a21b12+a22b22a21b13+a22b23a31b11+a32b21a31b12+a32b22a31b13+a32b23a41b11+a42b21a41b12+a42b22a41b13+a42b23).

Propiedades del producto de matrices

A continuación revisaremos algunas de las propiedades que cumple la multiplicación de matrices. Para demostrar las siguientes propiedades, consideraremos la matriz A de tamaño 3×2 y las matrices B y C de tamaño 2×2, aunque se pueden probar para matrices de cualesquier otro tamaño entre las cuales se puedan efectuar las operaciones.

Veamos que si efectuamos la multiplicación de una matriz de tamaño m×n por una matriz de tamaño n×1 siguiendo el algoritmo descrito anteriormente, el resultado coincide con el de multiplicar la matriz de tamaño m×n por un vector de tamaño n. Por ejemplo, si multiplicamos A por una matriz U de tamaño 2×1, obtendremos
(a11a12a21a22a31a32)(u11u12)=(a11u11+a12u21a21u11+a22u21a31u11+a32u21).

Esta es una observación importante pues todo lo que demostremos para el producto de matrices también lo tendremos para el producto de matriz por vector.

Veamos que la multiplicación de matrices es asociativa:

(AB)C=((a11a12a21a22a31a32)(b11b12b21b22))(c11c12c21c22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22)(c11c12c21c22)=((a11b11+a12b21)c11+(a11b12+a12b22)c21(a11b11+a12b21)c12+(a11b12+a12b22)c22(a21b11+a22b21)c11+(a21b12+a22b22)c21(a21b11+a22b21)c12+(a21b12+a22b22)c22(a31b11+a32b21)c11+(a31b12+a32b22)c21(a31b11+a32b21)c12+(a31b12+a32b22)c22)=(a11(b11c11+b12c21)+a12(b21c11+b22c21)a11(b11c12+b12c22)+a12(b21c12+b22c22)a21(b11c11+b12c21)+a22(b21c11+b22c21)a21(b11c12+b12c22)+a22(b21c12+b22c22)a31(b11c11+b12c21)+a32(b21c11+b22c21)a31(b11c12+b12c22)+a32(b21c12+b22c22))=(a11a12a21a22a31a32)(b11c11+b12c21b11c12+b12c22b21c11+b22c21b21c12+b22c22)=(a11a12a21a22a31a32)((b11b12b21b22)(c11c12c21c22))=A(BC).

De manera muy similar, si u es un vector de tamaño 2, podemos ver que se cumple que A(Bu)=(AB)u. ¿Puedes demostrarlo? Hazlo por lo menos para matrices A y B ambas de 2×2.

Quizás tengas la impresión de que hay que hacer demasiadas cuentas y que sería sumamente difícil demostrar estas propiedades para matrices más grandes. Sin embargo, en cursos posteriores verás cómo trabajar apropiadamente con la notación para poder hacer estas demostraciones más fácilmente.

El producto de matrices es asociativo. Sin embargo, no es conmutativo. Por ejemplo, consideremos las matrices
E=(5730)yF=(1291).


Veamos que
EF=(68336)(174863)=FE.

En términos de combinar el producto de matrices con otras operaciones, tenemos que el producto de matrices por la izquierda se distribuye sobre la suma de matrices:
A(B+C)=(a11a12a21a22a31a32)((b11b12b21b22)+(c11c12c21c22))=(a11a12a21a22a31a32)(b11+c11b12+c12b21+c21b22+c22)=(a11(b11+c11)+a12(b21+c21)a11(b12+c21)+a12(b22+c22)a21(b11+c11)+a22(b21+c21)a21(b12+c21)+a22(b22+c22)a31(b11+c11)+a32(b21+c21)a31(b12+c21)+a32(b22+c22))=(a11b11+a11c11+a12b21+a12c21a11b12+a11c11+a12b22+a12c22a21b11+a21c11+a22b21+a22c21a21b12+a21c12+a22b22+a22c22a31b11+a31c11+a32b21+a32c21a31b12+a31c12+a32b22+a32c22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22)+(a11c11+a12c21a11c12+a12c22a21c11+a22c21a21c12+a22c22a31c11+a32c21a31c12+a32c22)=(a11a12a21a22a31a32)(b11b12b21b22)+(a11a12a21a22a31a32)(c11c12c21c22)=AB+AC.

El producto también se distribuye sobre la suma cuando la suma aparece a la izquierda. ¿Podrías probar que si D es una matriz de tamaño 3×2, entonces se cumple (A+D)B=AB+DB?

En entradas anteriores vimos que In tiene la propiedad de ser neutro al multiplicarla por un vector de tamaño n. Resulta que In también tiene esta propiedad al multiplicarla por la izquierda por una matriz de tamaño n×m. Por ejemplo, veamos que al multiplicar I3 por la izquierda por A, obtenemos
I3A=(100010001)(a11a12a21a22a31a32)=(1a11+0a21+0a311a12+0a22+0a320a11+1a21+0a310a12+1a22+0a320a11+0a21+1a310a12+0a22+1a32)=(a11a12a21a22a31a32)=A.

¿Podrías probar que AI2=A (es decir, que I2 es neutro por la derecha para A)?

Habiendo visto que el producto de matrices es asociativo, conmutativo y tiene neutros, probablemente te estarás preguntando si existen inversos en la multiplicación de matrices. Este cuestionamiento lo dejaremos para la siguiente entrada.

Relación con la composición de transformaciones

Como vimos en la entrada anterior, una forma de visualzar el producto de una matriz A por un vector u es como una transformación que envía el vector u a un único vector Au.

Teniendo en mente esto, veamos que la propiedad de que A(Bu)=(AB)u resulta aún más interesante. Para esto, veamos que el siguiente ejemplo: sean
A=(0211),B=(1230),yu=(12).

Si multiplicamos B por u, vemos que corresponde a la transformación que envía u=(12) al vector Bu=(53).

Ahora, si multiplicamos A por el vector Bu, vemos que corresponde a la transformación que envía Bu al vector A(Bu)=(68) (Acabamos de obtener el resultado de aplicar a u la composición de las transformaciones B y A).

Por otra parte, si realizamos la multiplicación
AB=(0211)(1230)=(6042),
la transformación asociada a AB envía u al vector (AB)u=(68).

¡La composición de las transformaciones asociadas a B y A aplicada al vector u coincide con la transformación asociada a la matriz AB aplicada al mismo vector!

Si probamos esto para un vector arbitrario, nos daremos cuenta de que en todos los casos se cumple lo mismo. En realidad, esto no es una coincidencia: como aprenderás en tus cursos de álgebra lineal, la composición de transformaciones lineales está directamente asociada al producto de matrices.

Potencias de matrices

Podemos ver que si una matriz A es cuadrada, al tener el mismo número de filas que de columnas, entonces podemos realizar la multiplicaciones AA, AAA, AAAA, etc., que por asociatividad no importa en qué orden multipliquemos. Esto nos sugiere que podemos cacular potencias de matrices.

Para una matriz cuadrada A, definiremos de manera recursiva la potencia An:

  • Definimos A0=I.
  • Dada An, con n un número natural, definimos An+1=AnA.

Por ejemplo, si
A=(2134),
calculemos A3 empleando la definición recursiva. Para esto, iremos calculando una por una las potencias de A, hasta llegar a A3:
A0=I=(1001),A1=A0A=(1001)(2134)=(2134),A2=A1A=(2134)(2134)=((2)(2)+(1)(3)(2)(1)+(1)(4)(3)(2)+(4)(3)(3)(1)+(4)(4))=(761819),A3=A2A=(761819)(2134)=((7)(2)+(6)(3)(7)(1)+(6)(4)(18)(2)+(19)(3)(18)(1)+(19)(4))=(32319394).

Prueba calcular algunas potencias de la matriz (2003). ¿Notas algún patrón especial?

Más adelante…

En esta entrada aprendimos sobre el producto de matrices con matrices y conocimos algunas de sus propiedades. En la siguiente entrada abordaremos la pregunta sobre si existen los inversos en la multiplicación de matrices.

Tarea moral

  1. Realiza el producto de matrices (123012113)(111111111).
  2. Considera la matriz A=(3445). Realiza las siguientes operaciones por separado, sin usar la asociatividad del producto de matrices. ¿Cuál de las dos operaciones te resultó más fácil de hacer?
    • A(A(A(A(23)))).
    • (((AA)A)A)(23).
  3. Completa las pruebas faltantes de las propiedades de la multiplicación de matrices.
  4. Demuestra la siguiente ley de exponentes para matrices: AmAn=Am+n.
  5. Prueba que si
    A=(a1100a22),
    y k es un entero mayor o igual que 0, entonces
    Ak=(a11k00a22k)
    (Sugerencia: realizarlo por inducción sobre k, utilizando la definición recursiva).
  6. Encuentra matrices A y B de 2×2 para las cuales A2B2(A+B)(AB).

Entradas relacionadas

Álgebra Superior I: Matrices invertibles

Por Eduardo García Caballero

Introducción

En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?

Definición de matrices invertibles

Diremos que una matriz cuadrada A es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz B tal que AB=BA=I.

Observemos para que la definción anterior tenga sentido, es indispensable que A sea cuadrada, pues veamos que si A es de tamaño m×n, entonces para que los productos AB y BA estén definidos, B tendrá que ser de tamaño n×m. Así, AB será de tamaño m×n y BA de tamaño n×n, y como AB=BA, entonces m=n, y, por tanto, AB=BA=In (y con ello también observamos que B tiene que ser cuadrada de tamaño n×n).

Un ejemplo de una matriz de 2×2 que es invertible es
A=(1235)
que tiene como inversa a la matriz
B=(5231),
pues
AB=(1235)(5231)=((1)(5)+(2)(3)(1)(2)+(2)(1)(3)(5)+(5)(3)(3)(2)+(5)(1))=(1001)=I2
y
BA=(5231)(1235)=((5)(1)+(2)(3)(5)(2)+(2)(5)(3)(1)+(1)(3)(3)(2)+(1)(5))=(1001)=I2.
Por lo tanto,
AB=BA=I2.

Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz
A=(2100)
la cual, al multiplicarla por cualquier matriz
B=(abcd)
por la derecha, nos da como resultado
AB=(2100)(abcd)=(2a+c2b+,d00),
y como en cualquier caso obtenemos que su entrada en la posición (2,2) es 0, tenemos que AB es distinta a I2, pues la entrada en la posición (2,2) de esta última es 1.

Propiedades de matrices invertibles

A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.

Primeramente, veamos que si una matriz A de n×n es invertible, entonces su inversa será única. Para demostrar esto, supongamos que B y C son ambas inversas multiplicativas de A; es decir, AB=BA=In y AC=CA=In. Entonces,
AB=ACB(AB)=B(AC)(BA)B=(BA)CInB=InCB=C.

Como la matriz inversa de A es única, usualmente la denotamos como A1.

Por otra parte, veamos que si A y B son matrices invertibles, con inversas A1 y B1, respectivamente, entonces, si podemos multiplicar A y B (es decir, si A y B son del mismo tamaño), entonces AB es invertible, pues se cumple que
(AB)(B1A1)=A(BB1)A1=AInA1=AA1=In,
y también que
(B1A1)(AB)=B1(A1A)B=B1InB=B1B=In,
es decir, B1A1 es la matriz inversa de AB, lo cual denotamos como (AB)1=B1A1.

Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que A(Bu)=(AB)u, entonces notamos que
A1(Au)=(A1A)u=Iu=u.

Como la transformación correspondiente a A envía el vector u al vector Au, y como el resultado de aplicar (A1A)u deja al vector u en su lugar, esto nos dice que la transformación correspondiente a A1 es aquella que regresa el vector Au a su posición original.

En la siguiente imagen se visualiza esta propiedad para el caso en el que
A=(3142)yu=(12).

Formula para inversa de matrices de 2×2

Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de 2×2, tendremos que
A=(abcd)
es invertible si y sólo si se cumple que adbc0.

En dado caso, la inversa de A será la matriz
A1=1adbc(dbca)=(dadbcbadbccadbcaadbc).

Por ejemplo, veamos que si
A=(abcd)=(1223),
entonces adbc=(1)(3)(2)(2)=3(4)=70, por lo que podemos garantizar que A tiene matriz inversa, la cual es
A1=1adbc(dbca)=17(3221)=(3/72/72/71/7).

Verificamos que
AA1=(1223)(3/72/72/71/7)=((1)(3/7)+(2)(2/7)(1)(2/7)+(2)(1/7)(2)(3/7)+(3)(2/7)(2)(2/7)+(3)(1/7))=(1001)=I2
y
A1A=(3/72/72/71/7)(1223)=((3/7)(1)+(2/7)(2)(3/7)(2)+(2/7)(3)(2/7)(1)+(1/7)(2)(2/7)(2)+(1/7)(3))=(1001)=I2.

De manera similar, veamos que la matriz
(3412)
es invertible pues (3)(2)(4)(1)=20. ¿Puedes calcular su inversa?

Por el contrario, veamos que en la matriz
(6432)
tenemos que (6)(2)(4)(3)=1212=0, y, por tanto, no es invertible.

Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.

Más adelante…

En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de 2×2 puede tener inverso, y revisamos su fórmula.

En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.

Tarea moral

  1. ¿Para qué valores de a se cumple que
    (5a22a)
    es invertible?
  2. Muestra que si A, B y C son matrices invertibles del mismo tamaño, entonces
    (ABC)1=C1B1A1.
  3. Muestra que si A es una matriz invertible y k es un entero positivo, entonces Ak también es invertible y (Ak)1=(A1)k.
  4. ¿Por qué la matriz
    (340720000)
    no es invertible?
  5. Muestra que en efecto el criterio que dimos para que una matriz A=(abcd) tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si adbc0, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que adbc=0. En este caso, ad=bc y podrás encontrar a partir de a,b,c,d a dos vectores distintos u y v tales que Au=Av. Esto mostrará que la transformación asociada a A no es inyectiva y por tanto no podrá tener inversa, así que A tampoco tendrá inversa.

Entradas relacionadas

Álgebra Superior I: Transposición de matrices, matrices simétricas y antisimétricas

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido operaciones involucran a dos objetos a la vez, entre los que pueden estar escalares, vectores, o matrices. En esta entrada, exploraremos una operación que se aplica a una matriz a la vez: la transposición de matrices. Esta operación preserva el contenido de la matriz, pero modifica sus dimensiones y el orden de sus entradas de una manera particular. Además, exploraremos algunas matrices que cumplen propiedades especiales bajo esta operación.

Definición de transposición de matrices

Una forma intuitiva de comprender en concepto de transposición de una matriz es como aquella operación que refleja a una matriz por su diagonal. Por ejemplo, consideremos la matriz
A=(72123)
en la cual hemos destacado los elementos de su diagonal. Su matriz transpuesta, la cual denotaremos como AT, será
AT=(71223).

En el caso de una matriz que no sea cuadrada, la transposición también intercambia el número de filas y el de columnas. Por ejemplo,
B=(34π0-16)
es una matriz de 2×3, mientras que su matriz transpuesta
BT=(304-1π6)
es de tamaño 3×2.

Para dar una definición formal de la propiedad de transposición, consideremos a la matriz A de tamaño m×n. Diremos que la matriz traspuesta de A es la matriz AT de tamaño n×m, donde la entrada de AT en la posición (i,j) es
(AT)ij=aji,
para todo 1in y 1jm.

Por ejemplo, para el caso de
C=(c11c12c21c22c31c32),
su matriz traspuesta es
CT=((CT)11(CT)12(CT)13(CT)21(CT)22(CT)23)=(c11c21c31c12c22c32),
mientras que la matriz transpuesta de
D=(d11d12d13d21d22d23d31d32d33)
es
DT=((DT)11(DT)12(DT)13(DT)21(DT)22(DT)23(DT)31(DT)32(DT)33)=(d11d21d31d12d22d32d13d23d33).

Como puedes observar, empleando la definición de matriz traspuesta, se sigue cumpliendo que la transposición se puede ver como la operación de reflejar una matriz con respecto a su diagonal.

Propiedades de transposición de matrices

A continuación, demostraremos algunas propiedades que cumplen las matrices
A=(a11a12a21a22a31a32)yB=(b11b12b21b22)
(Las demostraciones para cualesquiera otros tamaños de matrices se desarrollan de manera análoga).

Veamos qué sucede al realizar dos veces seguidas la trasposición de A. Observamos que
AT=((AT)11(AT)12(AT)13(AT)11(AT)22(AT)23)=(a11a21a31a12a22a32),
y, entonces,
(AT)T=(((AT)T)11((AT)T)12((AT)T)21((AT)T)22((AT)T)31((AT)T)32)=((AT)11(AT)21(AT)12(AT)22(AT)13(AT)23)=(a11a12a21a22a31a32)=A.

En general, al transponer dos veces seguidas una matriz obtendremos como resultado la matriz original: (AT)T=A.

Por otra parte, observemos que
AB=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22),
de modo que
(AB)T=(a11b11+a12b21a21b11+a22b21a31b11+a32b21a11b12+a12b22a21b12+a22b22a31b12+a32b22).
Por su parte, veamos que
BTAT=(b11b21b12b22)(a11a21a31a12a22a32)=(b11a11+b21a12b11a21+b21a22b11a31+b21a32b12a11+b22a12b12a21+b22a22b12a31+b22a32)=(a11b11+a12b21a21b11+a22b21a31b11+a32b21a11b12+a12b22a21b12+a22b22a31b12+a32b22).
Por lo tanto,
(AB)T=BTAT.

Finalmente, supongamos que C=(abcd) es invertible. Entonces se cumple que adbc0, y C tiene como inversa a
C1=(dadbcbadbccadbcaadbc),
Por lo tanto,
(C1)T=(dadbccadbcbadbcaadbc).

Por su parte, observemos que CT=(acbd) cumple que adcb=adbc0, con lo cual garantizamos que es también invertible —la transpuesta de una matriz invertible es también invertible—. Más aún, veamos que
(CT)1=1adbc(dcba)=(dadbccadbcbadbcaadbc).
Por lo tanto, (C1)T=(CT)1la inversa de una matriz traspuesta corresponde a la traspuesta de la inversa de la orginal—.

Matrices simétricas y antisimétricas

Ahora que conocemos la definición de matriz transpuesta y algunas de sus propiedades, observemos que existen matrices que se comportan de manera especial bajo esta operación.

Por ejemplo, veamos que si
A=(4909121012),
entonces,
AT=(4909121012)=A.

A una matriz A que cumple que AT=A se le denomina matriz simétrica. Otros ejemplos de matrices simétricas son
(4005)y(81210323π).
Una observación importante es que las matrices simétricas únicamente pueden ser cuadradas.

Por otra parte, veamos que la matriz
B=(055505550)
tiene como transpuesta a
BT=(055505550)=B.

A una matriz A que cumple que AT=A se le denomina matriz antisimétrica. Otros ejemplos de matrices antisimétricas son
(0220)y(012103230).
Al igual que sucede con las matrices simétricas, las matrices antisimétricas sólo pueden ser cuadradas.

Otra propiedad importante de las matrices antisimétricas es que todos los elementos de su diagonal tienen valor 0. ¿Puedes probar por qué sucede esto?

Más adelante…

Con las operaciones entre vectores y matrices que hemos visto hasta ahora podemos obtener varios resultados aplicables a distintas áreas de las matemáticas. En la siguiente entrada abordaremos un tema que, a primera vista, parece no relacionarse mucho con los conceptos que hemos aprendido hasta ahora, pero que, en realidad, resulta ser uno de los temas con mayor aplicación de los conceptos de vectores y matrices: los sistemas de ecuaciones lineales.

Tarea moral

  1. Sea A una matriz de 2×2 con entradas reales. Muestra AAT siempre es una matriz simétrica y que las entradas en la diagonal de AAT siempre son números mayores o iguales a cero.
  2. Prueba que los elementos de la diagonal de una matriz antisimétrica tienen valor 0.
  3. Muestra que si una matriz es simétrica e invertible, entonces su inversa también es simétrica. ¿Es cierto lo mismo para las antisimétricas?
  4. ¿Existe alguna matriz que sea al mismo tiempo simétrica y antisimétrica?
  5. Prueba que cualquier matriz A se puede escribir como A=B+C, con B simétrica y C antisimétrica.

Entradas relacionadas

Álgebra Superior I: Sistemas de ecuaciones lineales

Por Eduardo García Caballero

Introducción

Una de las aplicaciones más importantes de los vectores y matrices tiene que ver con un tema que conociste desde la secundaria y preparatoria: los sistemas de ecuaciones.

Más específicamente, los vectores y matrices nos serán de gran utilidad para resolver sistemas de ecuaciones lineales, determinar cuándo un sistema sí tiene soluciones, y cuáles son todas sus soluciones.

Pero antes, repasemos un poco los conceptos de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Recordemos que una ecuación es una expresión en la que hay variables o valores que no conocemos. En el caso de una ecuación lineal, se trata de ecuaciones en las que todas sus variables se encuentran elevadas a la primera potencia y acompañadas únicamente por coeficientes constantes. Por ejemplo, podemos ver que las expresiones
2x+9yz=3,4w+3000a=y+12x
son ecuaciones lineales, mientras que las expresiones
ax2+bx+c=0,2xz=9y
no lo son, pues contienen al menos una variable elevada a exponentes distintos de 1, o bien hay variables multiplicándose entre sí.

De manera más formal, una ecuación de lineal es una ecuación que se puede escribir de la forma
a1x2+a2x2++anxn=b,
donde x1,,xn son variables y a1,,an,b son coeficientes, todos del mismo tipo (en este curso trabajaremos con coeficientes reales, pero en otros cursos podrás encontrar coeficientes de otros tipos, como son números enteros, racionales, y complejos, entre otros).

Por su parte, un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales. Por ejemplo, los siguientes son sistemas de ecuaciones lineales:
{2x32y+8z=19z+2w+5y=3,{2+9a=46b5c2d+8x=3x+y+z=a+b+cx=y
Bajo esta definición, una única ecuación se puede considerar un sistema de ecuaciones lineales (con una ecuación).

Notemos que no es necesario que todas las ecuaciones compartan variables, sin embargo, generalmente esto sí sucederá. De hecho, podemos pensar que todas las variables aparecen en todas las ecuaciones. En caso de que esto no suceda, podemos considerar que las variables que no aparecen en una ecuación tienen coeficiente cero. Además, siempre podemos reordenar las variables en las ecuaciones para que en todas ellas aparezcan en el mimo orden. Por ejemplo, a continuación el sistema de ecuaciones a la izquierda lo podemos escribir como el de la derecha, sin alterarlo.

{2x32z+8y=119z+2w+5k=3,{0k+0w+2x+8y32z=115k+2w+0x+0y+9z=3.

¿Qué quiere decir resolver un sistema de ecuaciones lineales?

Como recordarás, encontrar una solución de una ecuación corresponde a encontrar valores que, al sustituirlos en las variables, hagan que la expresión sea verdadera. Por ejemplo, si tenemos la ecuación 2x3y=0, una solución está dada por x=3 y y=2, ya que al sustituir en efecto tenemos (2)(3)(3)(2)=0. En ocasiones, una ecuación puede tener más de una solución. Por ejemplo, en este caso otra posible solución es x=6 y y=4, ya que al sustituir en efecto tenemos (2)(6)(3)(4)=0. Para esta ecuación hemos encontrado entonces dos posibles soluciones. Pero aún no la hemos resuelto. Como veremos un poco más abajo, para resolverla tenemos que alcanzar una meta más grande.

Para el caso de sistemas de ecuaciones lineales, encontrar una solución consiste en dar una asignación de valores a las variables que hagan que todas las ecuaciones sean ciertas simultáneamente. Por ejemplo, podemos verificar que los valores
x=3y=5z=2
hacen que cada una de las ecuaciones en el sistema
{x+2yz=154xy+z=5
se cumplan simultáneamente. Otra posible solución está dada por la asignación
x=1y=15z=16.

Cuando hablamos de resolver una ecuación o un sistema de ecuaciones no nos bastará encontrar unas cuantas soluciones que funcionen. Queremos encontrar todas las posibles soluciones.

Como ejemplo más sencillo, tratemos de encontrar todas las soluciones del sigueinte sistema con una única ecuación
{2x+3yz=5.

Si despejamos x en la ecuación, obtenemos
x=3y+z+52.
Esto nos indica que podemos escoger valores arbitrarios de y y z, y el valor de x quedará determinado por estos valores.

Entonces, la solución de la ecuación son todas las (x,y,z) tales que x=3y+z+52; es decir, todas las soluciones del sistema de ecuaciones son de la forma
(3y+z+52,y,z).

Otra manera de decir esto es que el conjunto de soluciones para el sistema de ecuaciones es el siguiente:

S:={(3y+z+52,y,z):y,zR}.

Esto ahora sí resuelve el sistema, pues hemos encontrado una descripción para todas las posibles soluciones del sistema. Si tomas los valores que quieras para y y z, podrás dar una solución. Por ejemplo, al tomar y=1,z=2 obtenemos la solución (2,1,2), la cual puedes verificar que es una solución al sistema de ecuaciones de una ecuación con el que comenzamos. Toda posible solución está en S. Como y y z pueden valer lo que sea, las llamamos variables libres. A x, que queda totalmente determinada una vez fijas las variables libres, la llamamos variable pivote.

¿Qué sucede si tenemos más ecuaciones? Tratemos de encontrar todas las soluciones para el sistema de ecuaciones siguiente
{y+z=13x+2y+5z=1.

Podemos intentar lo mismo que arriba y fijar algún valor e intentar poner al resto en términos de ese. Pero hay que ser cuidadosos. Por ejemplo, al fijar el valor de x, no podremos despejar a y (ni a z) en términos únicamente de x. Sin embargo, fijamos el valor de z, sí podemos determinar todo completamente.

Al fijar z, entonces y queda determinado como y=z+1. Sustituyendo este valor de y en la segunda ecuación, obtendremos 3x+2(z+1)+5z=1, que equivale a 3x+3z=1, de donde tenemos que x=z1/3. Entonces, podemos pensar a z como la variable libre y como y y x dependen completamente de z, las pensamos como variables pivote. La descripción de las soluciones quedaría entonces como

R={(z1/3,z+1,z):zR}.

Aunque ahora hemos tenido éxito con describir totalmente las soluciones de dos sistemas de ecuaciones y en ambos casos hemos tenido una infinidad de soluciones, lo cierto es que existen sistemas de ecuaciones sin solución. Por ejemplo, consideremos el sistema
{12x+9y=74x+3y=8.
Podemos ver que cada una de las ecuaciones, de manera individual, tienen soluciones, y hasta podríamos encontrar todas las posibles soluciones (¿puedes dar un par de ejemplos de cada una?). Sin embargo, no existen valores de x y y que resuelvan ambas ecuaciones al mismo tiempo. Esto lo podemos observar porque, si multiplicamos la segunda ecuación por 3, obtendremos el sistema
{12x+9y=712x+9y=24.
Si hubiera alguna solución, podríamos igualar ambas ecuaciones y llegar a que 7=24, una contradicción.

Interpretación geométrica

El primer conjunto solución que encontramos arriba se puede reescribir en términos de cada variable y y z usando la suma y producto escalar que estudiamos en entradas anteriores de la siguiente manera:

S={(3y+z+52,y,z):y,zR}={y(3/2,1,0)+z(1/2,0,1)+(5/2,0,0):y,zR}.

Posiblemente hayas visto expresiones en algún curso de geometría analítica. Lo anterior es un plano en R3 que pasa por el punto (5/2,0,0) y generado a partir de ese punto por los vectores (3/2,1,0) y (1/2,0,1).

Del mismo modo, en el segundo ejemplo que vimos arriba el sistema de ecuaciones puede reescribirse como:

R={(z1/3,z+1,z):zR}={(1/3,1,0)+z(1,1,1):zR},

que posiblemente identifiques como la recta en R3 que parte del punto (1/3,1,0) y tiene dirección (1,1,1).

Forma matricial de un sistema de ecuaciones

Como vimos en una entrada previa, dos vectores del mismo tamaño son iguales si y sólo si sus respectivas entradas son iguales. Una consecuencia de esta definición es que el sistema de ecuaciones
{a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm
se cumple si y sólo si
(a11x1+a12x2+a1nxna21x1+a22x2+a2nxnam1x1+am2x2+amnxn)=(b1b2bm).

Más aún, observemos que el lado izquierdo de esta igualdad lo podemos reescribir como un producto de matriz con vector de la siguiente manera
(a11a12a1na21a22a2nam1am2amn)(x1x2xn)=(b1b2bm),
lo cual podemos denotar como
Ax=b.

Entonces, podemos decir que nuestro sistema tiene solución si existe un vector x=(x1x2xn) tal que Ax=b, donde
A=(a11a12a1na21a22a2nam1am2amn)yb=(b1b2bm).

A la expresión Ax=b le llamamos la forma matricial del sistema de ecuaciones.

Ejemplo de la utilidad de la forma matricial

La forma matricial de un sistema de ecuaciones es sumamente útil, como veremos en las siguientes entradas. Pero veamos un pequeño ejemplo de una de sus aplicaciones. Supongamos que sabemos que la matriz A es invertible con inversa A1. Recordemos que entonces se cumple queA1A=I. Gracias a esto, podemos comenzar con la forma matricial del sistema de ecuaciones y deducir lo siguiente:
Ax=bA1Ax=A1bx=A1b.

Es decir, si conocemos la matriz inversa de A, ¡podemos obtener de manera única el vector que resuelve el sistema de ecuaciones mediante una multiplicación de matriz por vector!

Aún cuando no hemos visto el método general para saber si una matriz tiene inversa, ya vimos previamente qué sucede con una matriz de 2×2
(abcd)

Así, verifiquemos mediante un ejemplo que el método que mostramos sirve para encontrar soluciones de sistemas de ecuaciones. Consideremos el sistema de ecuaciones
{2x+8y=93x+4y=2.

Este sistema puede ser representado en forma matricial como
(2834)(xy)=(92).

Como recordarás de entradas pasadas, la matriz inversa de (2834) es
(2834)1=1248(3)(4832)=132(4832)=(1/81/43/321/16).

Entonces si multiplicamos esta por matriz por la izquierda a ambos lados de la ecuación
(2834)(xy)=(92),
obtendremos
(2834)(xy)=(92)(1/81/43/321/16)(2834)(xy)=(1/81/43/321/16)(92)(1001)(xy)=(5/831/32),
lo que equivale a x=5/8, y=31/32; la solución del sistema. ¡Verifica que es solución!

Más adelante…

En esta entrada repasamos los conceptos y definiciones sobre sistemas de ecuaciones lineales, y nos adentramos a ver cómo existe una relación directa entre los sistemas de ecuaciones lineales y el producto de una matriz por un vector, así como que las matrices invertibles guardan relación con la solución del sistema.

Que la matriz asociada a un sistema de ecuaciones sea invertible en realidad no pasa tanto, y se tienen que desarrollar métodos más generales para resolver sistemas de ecuaciones. En la siguiente entrada conoceremos un algoritmo que nos permitirá resolver sistemas de ecuaciones con una cantidad arbitraria de variables y ecuaciones, y determinar exactamente cómo se ven todas las soluciones.

Tarea moral

  1. Usa el método de las variables libres y las variables pivote para describir al conjunto solución del siguiente sistema de ecuaciones y descríbelo geométricamente. Tendrás que elegir apropiadamente el orden en el que vas fijando las variables.
    {w+2x+8y+3z=03x+4y+z=1x+z=2.
  2. Usa el método de la inversa para resolver los siguientes tres sistemas de ecuaciones:
    {2x+8y=43x+4y=1,{2x+8y=33x+4y=2,{2x+8y=13x+4y=1.
  3. Intenta usar el método de las variables libres y pivote en el siguiente sistema de ecuaciones y explica qué dificultad tiene intentar usarlo directamente:
    {x+y=4y+z=1z+x=2.
    ¿Cómo describirías a un sistema de ecuaciones en el cuál se puede hacer el método de variables libres y pivote cómodamente?
  4. Considera un sistema de ecuaciones en forma matricial Ax=b. Demuestra que si x y x son soluciones a este sistema, entonces x+x2 también lo es. Explica cómo puedes usar esto para a partir de dos soluciones x y x distintas conseguir una infinidad de soluciones. Concluye que cualquier sistema de ecuaciones lineales o bien no tiene solución, o bien tiene una única solución, o bien tiene una infinidad de soluciones.
  5. Encuentra una matriz no invertible A y un vector b tales que el sistema de ecuaciones Ax=b sí tenga solución. En ese sistema que diste, ¿la solución es única o puedes encontrar otra?

Entradas relacionadas