Archivo de la etiqueta: producto de matrices

Álgebra Superior I: Producto de matrices con matrices

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido varias operaciones que involucran escalares, vectores y matrices. En esta entrada aprenderemos sobre una de las operaciones más importantes en el álgebra lineal: el producto de matrices con matrices.

Definición de producto de matrices

Para poder efectuar el producto de dos matrices, hay que asegurarnos de que el número de columnas de la primera matriz sea igual al número de filas de la segunda matriz.

El resultado de una matriz A de tamaño m×n por una matriz B de tamaño n× será la matriz C=AB de tamaño m×, donde la entrada cij de C está dada por la fórmula
cij=ai1b1j+ai2b2j++ainbnj.

A primera vista esta fórmula puede parecer complicada, sin embargo, practicando con algunos ejemplos verás que es muy fácil de implementar.

  • Producto de matrices de tamaño 2×2:

Sean
A=(1357)yB=(2468).

Como estamos multiplicando una matriz de tamaño 2×2 por una matriz de tamaño 2×2, sabemos que el resultado será otra matriz de tamaño 2×2. Ahora, iremos calculando una por una sus entradas.

Sea C=AB. Para calcular la entrada c11 observamos la primera fila de A y la primera columna de B, las cuales son
A=(1357)yB=(2468),
de modo que c11=(1)(2)+(3)(6)=20:
AB=(20285276).

Para la entrada c12, nos fijamos en la primera columna de A y en la segunda columna de B, que son
A=(1357)yB=(2468),
obteniendo c12=(1)(4)+(3)(8)=28:
AB=(20285276).

De manera similar, observemos la segunda fila de A y la primera columna de B,
A=(1357),B=(2468),
obteniendo c21=(5)(2)+(7)(6)=52, mientras que la segunda fila de A y la segunda columna de B son
A=(1357),B=(2468),
obteniendo c22=(5)(4)+(7)(8)=76.

Por lo tanto,
AB=(20285276).

En general, el resultado del producto de las matrices
A=(a11a12a21a22)yB=(b11b12b21b22)
es
AB=(a11a12a21a22)(b11b12b21b22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22).

  • Producto de matriz de 3×2 por matriz de 2×2:

Supongamos que
A=(351043)yB=(7852).

En este caso, como estamos multiplicando una matriz de tamaño 3×2 por una matriz de tamaño 2×2, la matriz resultante tendrá tamaño 3×2.

Podemos obtener sus entradas de manera similar al caso anterior. Si C=AB, entonces la entrada c12 la podemos encontrar revisando la primera fila de A y la segunda columna de B,
A=(351043),B=(7852).
de modo que c12=(3)(8)+(5)(2)=34. Por su parte, para obtener la entrada c31 nos fijamos en la tercera fila de A y la primera columna de B,
A=(351043),B=(7852).
obteniendo c31=(4)(7)+(3)(5)=43.

¿Podrías comprobar que
AB=(4634784338)?

Así, para el caso general de matrices de 3×2 por 2×2, obtendremos
(a11a12a21a22a31a32)(b11b12b21b22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22).

  • Producto de matriz de 4×2 por matriz de 2×3:

¿Podrías verificar que la siguiente fórmula es correcta?
(a11a12a21a22a31a32a41a42)(b11b12b13b21b22b23)=(a11b11+a12b21a11b12+a12b22a11b13+a12b23a21b11+a22b21a21b12+a22b22a21b13+a22b23a31b11+a32b21a31b12+a32b22a31b13+a32b23a41b11+a42b21a41b12+a42b22a41b13+a42b23).

Propiedades del producto de matrices

A continuación revisaremos algunas de las propiedades que cumple la multiplicación de matrices. Para demostrar las siguientes propiedades, consideraremos la matriz A de tamaño 3×2 y las matrices B y C de tamaño 2×2, aunque se pueden probar para matrices de cualesquier otro tamaño entre las cuales se puedan efectuar las operaciones.

Veamos que si efectuamos la multiplicación de una matriz de tamaño m×n por una matriz de tamaño n×1 siguiendo el algoritmo descrito anteriormente, el resultado coincide con el de multiplicar la matriz de tamaño m×n por un vector de tamaño n. Por ejemplo, si multiplicamos A por una matriz U de tamaño 2×1, obtendremos
(a11a12a21a22a31a32)(u11u12)=(a11u11+a12u21a21u11+a22u21a31u11+a32u21).

Esta es una observación importante pues todo lo que demostremos para el producto de matrices también lo tendremos para el producto de matriz por vector.

Veamos que la multiplicación de matrices es asociativa:

(AB)C=((a11a12a21a22a31a32)(b11b12b21b22))(c11c12c21c22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22)(c11c12c21c22)=((a11b11+a12b21)c11+(a11b12+a12b22)c21(a11b11+a12b21)c12+(a11b12+a12b22)c22(a21b11+a22b21)c11+(a21b12+a22b22)c21(a21b11+a22b21)c12+(a21b12+a22b22)c22(a31b11+a32b21)c11+(a31b12+a32b22)c21(a31b11+a32b21)c12+(a31b12+a32b22)c22)=(a11(b11c11+b12c21)+a12(b21c11+b22c21)a11(b11c12+b12c22)+a12(b21c12+b22c22)a21(b11c11+b12c21)+a22(b21c11+b22c21)a21(b11c12+b12c22)+a22(b21c12+b22c22)a31(b11c11+b12c21)+a32(b21c11+b22c21)a31(b11c12+b12c22)+a32(b21c12+b22c22))=(a11a12a21a22a31a32)(b11c11+b12c21b11c12+b12c22b21c11+b22c21b21c12+b22c22)=(a11a12a21a22a31a32)((b11b12b21b22)(c11c12c21c22))=A(BC).

De manera muy similar, si u es un vector de tamaño 2, podemos ver que se cumple que A(Bu)=(AB)u. ¿Puedes demostrarlo? Hazlo por lo menos para matrices A y B ambas de 2×2.

Quizás tengas la impresión de que hay que hacer demasiadas cuentas y que sería sumamente difícil demostrar estas propiedades para matrices más grandes. Sin embargo, en cursos posteriores verás cómo trabajar apropiadamente con la notación para poder hacer estas demostraciones más fácilmente.

El producto de matrices es asociativo. Sin embargo, no es conmutativo. Por ejemplo, consideremos las matrices
E=(5730)yF=(1291).


Veamos que
EF=(68336)(174863)=FE.

En términos de combinar el producto de matrices con otras operaciones, tenemos que el producto de matrices por la izquierda se distribuye sobre la suma de matrices:
A(B+C)=(a11a12a21a22a31a32)((b11b12b21b22)+(c11c12c21c22))=(a11a12a21a22a31a32)(b11+c11b12+c12b21+c21b22+c22)=(a11(b11+c11)+a12(b21+c21)a11(b12+c21)+a12(b22+c22)a21(b11+c11)+a22(b21+c21)a21(b12+c21)+a22(b22+c22)a31(b11+c11)+a32(b21+c21)a31(b12+c21)+a32(b22+c22))=(a11b11+a11c11+a12b21+a12c21a11b12+a11c11+a12b22+a12c22a21b11+a21c11+a22b21+a22c21a21b12+a21c12+a22b22+a22c22a31b11+a31c11+a32b21+a32c21a31b12+a31c12+a32b22+a32c22)=(a11b11+a12b21a11b12+a12b22a21b11+a22b21a21b12+a22b22a31b11+a32b21a31b12+a32b22)+(a11c11+a12c21a11c12+a12c22a21c11+a22c21a21c12+a22c22a31c11+a32c21a31c12+a32c22)=(a11a12a21a22a31a32)(b11b12b21b22)+(a11a12a21a22a31a32)(c11c12c21c22)=AB+AC.

El producto también se distribuye sobre la suma cuando la suma aparece a la izquierda. ¿Podrías probar que si D es una matriz de tamaño 3×2, entonces se cumple (A+D)B=AB+DB?

En entradas anteriores vimos que In tiene la propiedad de ser neutro al multiplicarla por un vector de tamaño n. Resulta que In también tiene esta propiedad al multiplicarla por la izquierda por una matriz de tamaño n×m. Por ejemplo, veamos que al multiplicar I3 por la izquierda por A, obtenemos
I3A=(100010001)(a11a12a21a22a31a32)=(1a11+0a21+0a311a12+0a22+0a320a11+1a21+0a310a12+1a22+0a320a11+0a21+1a310a12+0a22+1a32)=(a11a12a21a22a31a32)=A.

¿Podrías probar que AI2=A (es decir, que I2 es neutro por la derecha para A)?

Habiendo visto que el producto de matrices es asociativo, conmutativo y tiene neutros, probablemente te estarás preguntando si existen inversos en la multiplicación de matrices. Este cuestionamiento lo dejaremos para la siguiente entrada.

Relación con la composición de transformaciones

Como vimos en la entrada anterior, una forma de visualzar el producto de una matriz A por un vector u es como una transformación que envía el vector u a un único vector Au.

Teniendo en mente esto, veamos que la propiedad de que A(Bu)=(AB)u resulta aún más interesante. Para esto, veamos que el siguiente ejemplo: sean
A=(0211),B=(1230),yu=(12).

Si multiplicamos B por u, vemos que corresponde a la transformación que envía u=(12) al vector Bu=(53).

Ahora, si multiplicamos A por el vector Bu, vemos que corresponde a la transformación que envía Bu al vector A(Bu)=(68) (Acabamos de obtener el resultado de aplicar a u la composición de las transformaciones B y A).

Por otra parte, si realizamos la multiplicación
AB=(0211)(1230)=(6042),
la transformación asociada a AB envía u al vector (AB)u=(68).

¡La composición de las transformaciones asociadas a B y A aplicada al vector u coincide con la transformación asociada a la matriz AB aplicada al mismo vector!

Si probamos esto para un vector arbitrario, nos daremos cuenta de que en todos los casos se cumple lo mismo. En realidad, esto no es una coincidencia: como aprenderás en tus cursos de álgebra lineal, la composición de transformaciones lineales está directamente asociada al producto de matrices.

Potencias de matrices

Podemos ver que si una matriz A es cuadrada, al tener el mismo número de filas que de columnas, entonces podemos realizar la multiplicaciones AA, AAA, AAAA, etc., que por asociatividad no importa en qué orden multipliquemos. Esto nos sugiere que podemos cacular potencias de matrices.

Para una matriz cuadrada A, definiremos de manera recursiva la potencia An:

  • Definimos A0=I.
  • Dada An, con n un número natural, definimos An+1=AnA.

Por ejemplo, si
A=(2134),
calculemos A3 empleando la definición recursiva. Para esto, iremos calculando una por una las potencias de A, hasta llegar a A3:
A0=I=(1001),A1=A0A=(1001)(2134)=(2134),A2=A1A=(2134)(2134)=((2)(2)+(1)(3)(2)(1)+(1)(4)(3)(2)+(4)(3)(3)(1)+(4)(4))=(761819),A3=A2A=(761819)(2134)=((7)(2)+(6)(3)(7)(1)+(6)(4)(18)(2)+(19)(3)(18)(1)+(19)(4))=(32319394).

Prueba calcular algunas potencias de la matriz (2003). ¿Notas algún patrón especial?

Más adelante…

En esta entrada aprendimos sobre el producto de matrices con matrices y conocimos algunas de sus propiedades. En la siguiente entrada abordaremos la pregunta sobre si existen los inversos en la multiplicación de matrices.

Tarea moral

  1. Realiza el producto de matrices (123012113)(111111111).
  2. Considera la matriz A=(3445). Realiza las siguientes operaciones por separado, sin usar la asociatividad del producto de matrices. ¿Cuál de las dos operaciones te resultó más fácil de hacer?
    • A(A(A(A(23)))).
    • (((AA)A)A)(23).
  3. Completa las pruebas faltantes de las propiedades de la multiplicación de matrices.
  4. Demuestra la siguiente ley de exponentes para matrices: AmAn=Am+n.
  5. Prueba que si
    A=(a1100a22),
    y k es un entero mayor o igual que 0, entonces
    Ak=(a11k00a22k)
    (Sugerencia: realizarlo por inducción sobre k, utilizando la definición recursiva).
  6. Encuentra matrices A y B de 2×2 para las cuales A2B2(A+B)(AB).

Entradas relacionadas

Álgebra Superior I: Matrices invertibles

Por Eduardo García Caballero

Introducción

En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?

Definición de matrices invertibles

Diremos que una matriz cuadrada A es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz B tal que AB=BA=I.

Observemos para que la definción anterior tenga sentido, es indispensable que A sea cuadrada, pues veamos que si A es de tamaño m×n, entonces para que los productos AB y BA estén definidos, B tendrá que ser de tamaño n×m. Así, AB será de tamaño m×n y BA de tamaño n×n, y como AB=BA, entonces m=n, y, por tanto, AB=BA=In (y con ello también observamos que B tiene que ser cuadrada de tamaño n×n).

Un ejemplo de una matriz de 2×2 que es invertible es
A=(1235)
que tiene como inversa a la matriz
B=(5231),
pues
AB=(1235)(5231)=((1)(5)+(2)(3)(1)(2)+(2)(1)(3)(5)+(5)(3)(3)(2)+(5)(1))=(1001)=I2
y
BA=(5231)(1235)=((5)(1)+(2)(3)(5)(2)+(2)(5)(3)(1)+(1)(3)(3)(2)+(1)(5))=(1001)=I2.
Por lo tanto,
AB=BA=I2.

Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz
A=(2100)
la cual, al multiplicarla por cualquier matriz
B=(abcd)
por la derecha, nos da como resultado
AB=(2100)(abcd)=(2a+c2b+,d00),
y como en cualquier caso obtenemos que su entrada en la posición (2,2) es 0, tenemos que AB es distinta a I2, pues la entrada en la posición (2,2) de esta última es 1.

Propiedades de matrices invertibles

A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.

Primeramente, veamos que si una matriz A de n×n es invertible, entonces su inversa será única. Para demostrar esto, supongamos que B y C son ambas inversas multiplicativas de A; es decir, AB=BA=In y AC=CA=In. Entonces,
AB=ACB(AB)=B(AC)(BA)B=(BA)CInB=InCB=C.

Como la matriz inversa de A es única, usualmente la denotamos como A1.

Por otra parte, veamos que si A y B son matrices invertibles, con inversas A1 y B1, respectivamente, entonces, si podemos multiplicar A y B (es decir, si A y B son del mismo tamaño), entonces AB es invertible, pues se cumple que
(AB)(B1A1)=A(BB1)A1=AInA1=AA1=In,
y también que
(B1A1)(AB)=B1(A1A)B=B1InB=B1B=In,
es decir, B1A1 es la matriz inversa de AB, lo cual denotamos como (AB)1=B1A1.

Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que A(Bu)=(AB)u, entonces notamos que
A1(Au)=(A1A)u=Iu=u.

Como la transformación correspondiente a A envía el vector u al vector Au, y como el resultado de aplicar (A1A)u deja al vector u en su lugar, esto nos dice que la transformación correspondiente a A1 es aquella que regresa el vector Au a su posición original.

En la siguiente imagen se visualiza esta propiedad para el caso en el que
A=(3142)yu=(12).

Formula para inversa de matrices de 2×2

Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de 2×2, tendremos que
A=(abcd)
es invertible si y sólo si se cumple que adbc0.

En dado caso, la inversa de A será la matriz
A1=1adbc(dbca)=(dadbcbadbccadbcaadbc).

Por ejemplo, veamos que si
A=(abcd)=(1223),
entonces adbc=(1)(3)(2)(2)=3(4)=70, por lo que podemos garantizar que A tiene matriz inversa, la cual es
A1=1adbc(dbca)=17(3221)=(3/72/72/71/7).

Verificamos que
AA1=(1223)(3/72/72/71/7)=((1)(3/7)+(2)(2/7)(1)(2/7)+(2)(1/7)(2)(3/7)+(3)(2/7)(2)(2/7)+(3)(1/7))=(1001)=I2
y
A1A=(3/72/72/71/7)(1223)=((3/7)(1)+(2/7)(2)(3/7)(2)+(2/7)(3)(2/7)(1)+(1/7)(2)(2/7)(2)+(1/7)(3))=(1001)=I2.

De manera similar, veamos que la matriz
(3412)
es invertible pues (3)(2)(4)(1)=20. ¿Puedes calcular su inversa?

Por el contrario, veamos que en la matriz
(6432)
tenemos que (6)(2)(4)(3)=1212=0, y, por tanto, no es invertible.

Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.

Más adelante…

En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de 2×2 puede tener inverso, y revisamos su fórmula.

En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.

Tarea moral

  1. ¿Para qué valores de a se cumple que
    (5a22a)
    es invertible?
  2. Muestra que si A, B y C son matrices invertibles del mismo tamaño, entonces
    (ABC)1=C1B1A1.
  3. Muestra que si A es una matriz invertible y k es un entero positivo, entonces Ak también es invertible y (Ak)1=(A1)k.
  4. ¿Por qué la matriz
    (340720000)
    no es invertible?
  5. Muestra que en efecto el criterio que dimos para que una matriz A=(abcd) tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si adbc0, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que adbc=0. En este caso, ad=bc y podrás encontrar a partir de a,b,c,d a dos vectores distintos u y v tales que Au=Av. Esto mostrará que la transformación asociada a A no es inyectiva y por tanto no podrá tener inversa, así que A tampoco tendrá inversa.

Entradas relacionadas

Cálculo Diferencial e Integral III: Regla de la cadena para campos vectoriales

Por Alejandro Antonio Estrada Franco

Introducción

Tenemos ya la definición de diferenciabilidad, y su versión manejable: la matriz jacobiana. Seguiremos construyendo conceptos y herramientas del análisis de los campos vectoriales muy importantes e interesantes. A continuación, enunciaremos una nueva versión de la regla de la cadena, que nos permitirá calcular las diferenciales de composiciones de campos vectoriales entre espacios de dimensión arbitraria. Esta regla tiene numerosas aplicaciones y es sorprendentemente fácil de enunciar en términos de producto de matrices.

Primeras ideas hacia la regla de la cadena

La situación típica de regla de la cadena es considerar dos funciones diferenciables que se puedan componer. A partir de ahí, buscamos ver si la composición también es diferenciable y, en ese caso, intentamos dar la derivada de la composición en términos de las derivadas de las funciones. Veamos qué pasa en campos vectoriales.

Pensemos en f:SfRmRn, g:SgRlRm y en su composición h=fg definida sobre alguna vecindad VSg de a¯ y tal que g(V)Sf. Pensemos que g es diferenciable en a¯ con derivada Ga¯ y que f es diferenciable en b¯:=g(a¯) con derivada Fb¯.

Exploremos la diferenciabilidad de la composición h en el punto a¯. Para ello, tomemos un y¯Rl tal que a¯+y¯V y consideremos la siguiente expresión:

h(a¯+y¯)h(a¯)=f(g(a¯+y¯))f(g(a¯)).

Tomando v¯=g(a¯+y¯)g(a¯), tenemos b¯+v¯=g(a¯)+v¯=g(a¯+y¯). De esta forma,

f(g(a¯+y¯))f(g(a¯))=f(b¯+v¯)f(b¯).

Por la diferenciabilidad de g en a¯, tenemos que podemos escribir

v¯=Ga¯(y¯)+||y¯||Eg(a¯;y¯), con limy¯0¯Eg(a¯;y¯)=0.

Usando la diferenciabilidad de f en b¯, y la linealidad de su derivada Fb¯, tenemos entonces que:

f(b¯+v¯)f(b¯)=Fb¯(v¯)+||v¯||Ef(b¯;v¯)=Fb¯(Ga¯(y¯)+||y¯||Eg(a¯;y¯))+||v¯||Ef(b¯;v¯)=(FbGa¯)(y¯)+||y¯||(Fb¯Eg(a¯;y¯))+||v¯||Ef(b¯;v¯),

con limy¯0¯Ef(b¯;v¯)=0.

Concatenando nuestras igualdades, podemos reescribir esto como

h(a¯+y¯)h(a¯)=(Fb¯Ga¯)(y¯)+||y¯||Eh(a¯;y¯), en donde hemos definido

Eh(a¯;y¯)=(Fb¯Eg)(a¯;y¯)+||v¯||||y¯||Ef(b¯;v¯). Si logramos demostrar que limy¯0¯Eh(a¯;y¯)=0, entonces tendremos la diferenciabilidad buscada, así como la derivada que queremos. Dejemos esto en pausa para enunciar y demostrar un lema auxiliar.

Un lema para acotar la norma de la derivada en un punto

Probemos el siguiente resultado.

Lema. Sea ϕ:SRlRm un campo vectorial diferenciable en un punto c¯S y Tc¯ su derivada. Entonces, para todo v¯Rl, se tiene:

||Tc¯(v¯)||k=1m||ϕk(c¯)||||v¯||.

Donde ϕ(v¯)=(ϕ1(v¯),,ϕm(v¯))

Demostración. Procedemos con desigualdad del triángulo como sigue:

||Tc¯(v¯)||=||k=1m(ϕk(c¯)v¯)ek||k=1m||(ϕk(c¯)v¯)ek||=k=1m|ϕk(c¯)v¯|

y luego usamos la desigualdad de Cauchy-Schwarz en cada sumando para continuar como sigue

k=1m||ϕk(c¯)||||v¯||,

que es lo que buscábamos.

◻

Conclusión del análisis para regla de la cadena

Retomando el análisis para Eh(a¯;y¯), dividamos el límite en los dos sumandos.

Primer sumando:

Como Fb¯ es lineal, entonces es continua. También, sabemos que limy¯0¯Eg(a¯;y¯)=0. Así,

limy¯0¯(Fb¯Eg)(a¯;y¯)=Fb¯(limy¯0¯Eg(a¯;y¯))=Fb¯(0¯)=0.

Segundo sumando:

Retomando la definición de v¯, aplicando desigualdad del triángulo y el lema que demostramos,

||v¯||=||Ga¯(y¯)+||y¯||Eg(a¯;y¯)||||Ga¯(y¯)||+||y¯||||Eg(a¯;y¯)||(k=1m||gk(a¯)||||y¯||)+||y¯||||Eg(a¯;y¯)||.

Dividiendo ambos lados entre ||y¯||, obtenemos entonces que

||v¯||||y¯||k=1m||gk(a¯)||+||Eg(a¯;y¯)||.

De aquí se ve que conforme y¯0¯, la expresión ||v¯||||y¯|| está acotada superiormente por la constante A:=k=1m||gk(a¯)||. Además, si y¯0¯, entonces v¯0¯. Así,

0limy¯0¯||v¯||||y¯||Ef(b¯,v¯)Alimy¯0¯Ef(b¯,v¯)=0 pues limy¯0¯v¯=0¯ implica limy¯0¯Ef(b¯,v¯).

Hemos concluido que h(a¯+y¯)h(a¯)=(Fb¯Ga¯)(y¯)+||y¯||Eh(a¯;y¯),

con limy¯0¯Eh(a¯;y¯)=0. Esto precisamente es la definición de h=fg es diferenciable en a¯, y su derivada en a¯ es la transformación lineal dada por la composición de transformaciones lineales Fb¯Ga¯.

Recapitulación de la regla de la cadena

Recapitulamos toda la discusión anterior en el siguiente teorema.

Teorema (Regla de la cadena). Sean f:SfRmRn, g:SgRlRm campos vectoriales. Supongamos que la composición fg está definida en todo un abierto SSg. Supongamos que g es diferenciable en un punto a¯S con derivada Ga¯ y f es diferenciable en b¯:=g(a¯) con derivada Fb¯. Entonces, h es diferenciable en a¯ con derivada Fb¯Ga¯.

Dado que la representación matricial de la composición de dos transformaciones lineales es igual al producto de estas, podemos reescribir esto en términos de las matrices jacobianas como el siguiente producto matricial: Dh(a¯)=Df(b¯)Dg(a¯).

Usos de la regla de la cadena

Hagamos algunos ejemplos de uso de regla de la cadena. En el primer ejemplo que veremos a continuación, la función f es un campo escalar.

Ejemplo 1. Tomemos g:SRnRm campo vectorial, y f:URmR campo escalar. Consideremos h=fg y supongamos que se satisfacen las hipótesis del teorema de la regla de la cadena. Tenemos: Df(b¯)=(fx1(b¯)fxm(b¯)) y Dg(a¯)=(g1x1(a¯)g1xn(a¯)gmx1(a¯)gmxn(a¯)).

Por la regla de la cadena tenemos Dh(a¯)=Df(b¯)Dg(a¯) esto implica (hx1(a¯)hxn(a¯))=(fx1(b¯)fxm(b¯))(g1x1(a¯)g1xn(a¯)gmx1(a¯)gmxn(a¯)).

Así (hx1(a¯)hxn(a¯))=(i=1mfxi(b¯)gix1(a¯)i=1mfxi(b¯)gixn(a¯)).

En otras palabras, tenemos las siguientes ecuaciones para calcular cada derivada parcial de h: hxj(a¯)=i=1mfxi(b¯)gixj(a¯).

Ejemplo 2. Sean a¯=(s,t) y b¯=(x,y) puntos en R2. Pensemos que las entradas de b¯ están dadas en función de las entradas de a¯ mediante las ecuaciones x=g1(s,t) y y=g2(s,t). Pensemos que tenemos un campo escalar f:R2R, y definimos h:R2R mediante h(s,t)=f(g1(s,t),g2(s,t)).

Por el ejemplo anterior hs=fxxs+fyys y ht=fxxt+fyyt. Como tarea moral queda que reflexiones qué significa x cuando aparece en el «numerador» y qué significa cuando aparece en el «denominador».

Ejemplo 3. Para un campo escalar f(x,y) consideremos un cambio de coordenadas x=rcosθ, y=rsenθ es decir tomemos la función ϕ(r,θ)=f(rcosθ,rsenθ).

Por el ejemplo anterior tenemos ϕr=fxxr+fyyr y ϕθ=fxxθ+fyyθ donde, haciendo las derivadas parciales tenemos: xr=cosθ,yr=senθ y xθ=rsenθ,yθ=rcosθ. Finalmente obtenemos: ϕr=fxcosθ+fysenθ y ϕθ=fxrsenθ+fyrcosθ que son las derivadas parciales del cambio de coordenadas en el dominio de f.

Mas adelante…

En la siguiente entrada comenzaremos a desarrollar la teoría para los importantes teoremas de la función inversa e implícita si tienes bien estudiada esta sección disfrutaras mucho de las siguientes.

Tarea moral

  1. Considera el campo escalar F(x,y,z)=x2+ysen(z). Imagina que x,y,z están dados por valores u y v mediante las condiciones x=u+v, y=vu, z=u. Calcula Fu, Fv.
  2. Sea g(x,y,z)=(xy,x), y f(x,y)=(2x,xy2,y). Encuentra la matriz jacobiana del campo vectorial gf. Encuentra también la matriz jacobiana del campo vectorial fg.
  3. En la demostración del lema que dimos, hay un paso que no justificamos: el primero. Convéncete de que es cierto repasando el contenido de la entrada anterior Diferenciabilidad.
  4. Imagina que sabemos que la función f:RnRn es invertible y derivable en a¯ con derivada Ta¯. Imagina que también sabemos que su inversa f1 es derivable en b¯=f(a¯) con derivada Sb¯. De acuerdo a la regla de la cadena, ¿Qué podemos decir de Ta¯Sb¯? En otras palabras, ¿Cómo son las matrices jacobianas entre sí, en términos de álgebra lineal?
  5. Reflexiona en cómo todas las reglas de la cadena que hemos estudiado hasta ahora son un corolario de la regla de la cadena de esta entrada.

Entradas relacionadas

Cálculo Diferencial e Integral III: Determinantes

Por Alejandro Antonio Estrada Franco

Introducción

El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.

Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.

Permutaciones

Recordemos que en la entrada anterior definimos para cada nN el conjunto [n]={1,2,,n}.

Definición. Una permutación del conjunto [n] es una función biyectiva σ:[n][n]. Una forma de escribir a σ de manera más explícita es la siguiente:
σ=(12nσ(1)σ(2)σ(n))

Podemos pensar también a una permutación como un reacomodo de los números 1,2,,n. Pensado de esta manera, escribimos σ=σ(1)σ(2)σ(n).

El conjunto de todas las permutaciones del conjunto [n] se denota como Sn. Una observación interesante es que Sn tiene n! elementos.

Definición. Para σSn, una inversión en σ consiste en un par (i,k)[n]×[n] tal que i>k pero i precede a k en σ cuando se considera σ como una lista. Diremos que σ es permutación par o impar según tenga un número par o impar de inversiones.

Ejemplo. Consideremos σ=12354 permutación en [5]. Tenemos que (5,4) es una inversión en σ pues 5>4 pero en la permutación 5 precede a 4. Al tener σ una sola inversión, es una permutación impar.

Definición. El signo de σ, denotado sign(σ) se define como:
sign(σ)={1si σ es par1si σ es impar.

Sea AMn(R). Pensemos en un producto de n entradas de A tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como
(1)a1j1a2j2anjn.

Así, akjk nos dice que en la fila k tomamos la entrada de la columna j. Como se eligió una y sólo una entrada por columna, tenemos que j1,,jn es una permutación de [n]. Y viceversa, cada permutación σ=j1jnSn determina un producto como en (1). Por ello la matriz A nos entrega n! productos con esta característica.

Determinantes en términos de permutaciones

A partir de las permutaciones podemos definir a los determinantes.

Definición. El determinante de la matriz A, denotado por det(A), se define como:
det(A)=σSn(sign(σ)i=1naiσ(i))
donde
σ=(12nσ(1)σ(2)σ(n))

Ejemplo. Para la matriz A=(021120301) tomemos en cuenta las permutaciones del conjunto [3] las cuales son: (123123),(123132),(123213),(123231),(123312),(123321)

De acuerdo con la definición de determinante, tenemos:

det(A)=(1)a11a22a33+(1)a11a23a32+(1)a12a21a33+(1)a12a23a31+(1)a13a22a31+(1)a13a21a32=021+(1)000+(1)211+(1)203+(1)123+(1)110=4.

Propiedades de los determinantes

Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.

Definición. La matriz identidad IMn(R) es aquella que cumple que en las entradas de la forma (i,i) son iguales a 1 y el resto de las entradas son iguales a 0.

Definición. Diremos que una matriz AMn(R) es una matriz triangular superior si cumple aij=0 para i>j. La llamaremos triangular inferior si cumple aij=0 para i<j. Finalmente, diremos que es diagonal si cumple aij=0 para ij (en otras palabras, si simultáneamente es triangular superior e inferior).

Definición. Sea AMm,n(R). La transpuesta de la matriz A, denotada por At, es la matriz en Mn,m(R) cuyas entradas están definidas como (at)ij=aji.

El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.

Proposición. Sea AMn(R). Se cumple todo lo siguiente.

  1. det(A)=det(At).
  2. Si A tiene dos filas iguales det(A)=0.
  3. Si A tiene dos columnas iguales det(A)=0.
  4. Si A es triangular superior, triangular inferior, o diagonal, det(A)=i=1naii.
  5. det(In)=1.

Demostración.

  1. Notemos que (tarea moral) sign(σ)=sign(σ1), así tenemos que
    det(At)=σSnsign(σ)aσ(1)1aσ(n)n=σSnsign(σ1)a1σ(1)anσ(n)=σSnsign(σ)a1σ(1)anσ(n)=det(A).
  2. Si tenemos dos filas iguales, en cada producto a1σ(1)anσ(n) tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
  3. Mismo argumento que en el inciso anterior.
  4. Si tenemos una matriz triangular, ya sea superior, o inferior i=1naiσ(i)0 sólo cuando σ(i)=i ya que en otro caso este producto siempre tendrá algún factor cero.
  5. Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.

◻

Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.

Teorema. Sean A y B matrices en Mn(R). Se tiene que det(AB)=det(A)det(B).

Mas adelante

En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.

Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.

Tarea moral

  1. Sea σSn. Muestra que su inversa, σ1 también es una permutación. Después, muestra que
    sign(σ)=sign(σ1).
    Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
  2. Encuentra explícitamente cuántas inversiones tiene la permutación σ en Sn dada por S(j)=nj+1.
  3. Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma det(A)=σSnsign(σ)a1σ(1)anσ(n). Supón que las filas s y t son iguales; para cada factor argumenta por qué a1σ(1)asσ(s)atσ(t)anσ(n) el factor a1σ(1)atσ(t)asσ(s)anσ(n) donde permutamos el t-ésimo factor con el s-ésimo también está en la suma, y por qué ambos son de signos contrarios.
  4. Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
  5. Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».

Entradas relacionadas

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz A en Mn(F) tiene polinomio característico χA(x)=xn+an1xn1++a1x+a0. Como a0=det(A), si a0=0 entonces la matriz no es invertible. Supongamos entonces que a00. Por el teorema de Cayley-Hamilton tenemos que An+an1An1++a1A+a0In=On. De aquí podemos despejar la matriz identidad como sigue:

In=1a0(An+an1An1++a1A)=1a0(An1+an1An2++a1I)A.

Estos cálculos muestran que la inversa de A es la matriz 1a0(An1+an1An2++a1I).

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz A=(220010111). Su polinomio característico es λ32λ2λ+2. Usando la fórmula de arriba, tenemos que

A1=12(A22AI).

Necesitamos entonces A2, que es:

A2=(420010321).

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

A1=(12100101201).

Puedes verificar que en efecto esta es la inversa de A realizando la multiplicación correspondiente.

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si A es una matriz con entradas en los enteros y determinante 1 ó 1, entonces A1 tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor λ ya vimos que λ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor xλ en el polinomio mínimo para cada eigenvalor λ.

Ejemplo 1. Encontramos el polinomio mínimo de la siguiente matriz:

B=(204311002).

Una cuenta estándar muestra que el polinomio característico es (x2)2(x+1). El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor (x2) y un factor (x+1). Sólo hay dos polinomios con esas condiciones: (x2)(x+1) y (x2)2(x+1). Si (x2)(x+1) anula a B, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

(B2I3)(B+I3)=(004331000)(304301003)=(00120012000).

Así, (x2)(x+1) no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico (x2)2(x+1).

Ejemplo 2. Consideremos la matriz C=(300030003). Su polinomio característico es (x3)3. Así, su polinomio mínimo es x3, (x3)2 ó (x3)3. Nos damos cuenta rápidamente que x3 sí anula a la matriz pues A3I3=O3. De este modo, el polinomio mínimo es x3.

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en Mn(R) que son su propia inversa? La condición algebraica es A2=I2. Si el polinomio característico de A es x2+bx+c, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que O2=A2+bA+cI2=bA+(c+1)I2. De aquí tenemos un par de casos:

  • Si b0, podemos despejar a A como A=c+1bI2, es decir A debe ser un múltiplo de la identidad. Simplificando la notación, A=xI2. Así, la condición A2=I2 se convierte en x2I2=I2, de donde x2=1 y por lo tanto x=±1. Esto nos da las soluciones A=I2 y A=I2.
  • Si b=0, entonces O2=(c+1)I2, de donde c=1. De este modo, el polinomio característico es x21=(x+1)(x1). Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz (1001), y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz (3100030000210002).
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: (011112221).
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es 1 ó 1.
  4. ¿Cómo son todas las matrices en M2(R) tales que A2=A?
  5. ¿Cómo son todas las matrices en M3(R) de determinante 0 tales que A3=O3?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»