Archivo de la etiqueta: Cálculo III

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como L(Rn,Rm) al espacio vectorial de transformaciones lineales de Rn a Rm.

Si tomamos cualquier transformación lineal TL(Rn,Rm), entonces los valores de T en cualquier vector de Rn quedan totalmente determinados por los valores de T en los elementos de alguna base β para Rn. Tomemos γ={w¯1,,w¯m} una base ordenada para Rm, y β={e¯1,,e¯n} una base ordenada para Rn. Para cada e¯k tenemos:

(1)T(e¯k)=i=1mtikw¯i,

para algunos escalares t1k,,tmk que justo son las componentes de T(e¯k) en la base γ. Con estos escalares, podemos considerar la matriz: Matγ,β(T)=(t11t1ntm1tmn)

Esta es llamada la representación matricial de la transformación T con respecto a las bases β y γ. Esta matriz ayuda a calcular T en cualquier vector de Rn como explicamos a continuación.

Para cada v¯Rn, podemos expresarlo como combinación lineal de elementos de la base β digamos que v¯=i=1nvie¯i. Mediante estos coeficientes, podemos entonces asociar a v¯ al siguiente vector columna de Rn [v¯]β=(v1vn),

al que llamamos el vector de coordenadas de v¯ con respecto a la base β.

Realicemos por un lado el siguiente cálculo:

Matγ,β(T)[v¯]β=(t11t1ntm1tmn)(v1vn)=(k=1nt1kvkk=1ntmkvk.)

Por otro lado tenemos lo siguiente:

T(v¯)=T(k=1nvke¯k)=k=1nvkT(e¯k)=k=1nvkT(i=1mtikw¯i)=i=1m(k=1nvktik)w¯i.

Juntando ambos cálculos: [T(v¯)]γ=(k=1nvkt1kk=1nvktmk)=Matγ,β(T)[v¯]β.

En otras palabras, aplicar T a un vector v¯ equivale a multiplicar Matγ,β por el vector columna asociado a v¯ en la base β, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para T(v¯) en la base γ.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que Mm,n(R) es un espacio vectorial sobre R. De igual manera L(Rn,Rm) es un espacio vectorial sobre R con las siguientes operaciones:

  • Si T y U son dos transformaciones, la transformación T+U es aquella que envía a todo vector v¯Rn al vector T(v¯)+U(v¯).
  • Si rR la transformación rT es la que a todo v¯Rn lo envía al vector rT(v¯).

Queda como ejercicio que verifiques que esto dota efectivamente a L(Rn,Rm) de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función Φ:Mm,n(R)L(Rn,Rm) que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base β={e¯1,,e¯n} de Rn y una base γ={u¯1,,u¯m} de Rm. Tomemos una matriz AMm,n(R). Explicaremos a continuación cómo construir la transformación Φ(A), para lo cual diremos qué hace con cada elemento de la base β. Tomaremos aquella transformación lineal TAL(Rn,Rm) tal que

TA(e¯j)=i=1naiju¯i.

Tomamos entonces Φ(A)=TA. Veamos que Φ tiene todas las propiedades que queremos.

  • Φ es suprayectiva. Si tenemos una transformación T:RnRm, entonces por la construcción anterior se tiene que su forma matricial A:=Matγ,β(T) justo cumple TA=T, de modo que Φ(A)=T.
  • Φ es inyectiva. Si A y B son matrices distintas, entonces difieren en alguna entrada, digamos (i,j). Pero entonces TA y TB difieren ya que TA(e¯j)TB(e¯j) ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, Φ(A)Φ(B).
  • Φ es lineal. Para rR, A y B matrices con entradas aij y bij, respectivamente, se cumple que Φ(rA+B)=T(rA+B) y entonces se satisface para cada j=1,,n lo siguiente:
    (rA+B)[e¯j]β=rA[e¯j]β+B[e¯j]β=r[TA(e¯i)]γ+[TB(e¯i)]γ.
    Por tanto para cada e¯i tenemos que T(rA+B)(e¯i)=rTA(e¯i)+TB(e¯i) y en consecuencia T(rA+B)=rTA+TB. Así Φ(rA+B)=rΦ(A)+Φ(B).

Todo lo anterior implica que Mm,n(R)L(Rn,Rm), es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función Φ encontrada en la sección anterior.

Si Φ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal T? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases β y γ para Rn y Rm, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal T, es posible que querramos encontrar bases β y γ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces T:RnRn y una base β de Rn. Por simplicidad, escribiremos Matβ,β(T) simplemente como Matβ(T). Hay propiedades de T que podemos leer en su matriz Matβ(T) y que no dependen de la base β que hayamos elegido. Si con una base β especial resulta que Matβ(T) es muy sencilla, entonces podremos leer estas propiedades de T muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal T:RnRn es invertible si y sólo si Matβ(T) es invertible.

Si A=Matβ(T) fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de T sabiendo la invertibilidad de A, y la de A sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea T:RnRn una transformación lineal. Diremos que un escalar rR es un eigenvalor de T si existe v¯Rn{0¯} tal que T(v¯)=rv¯. A dicho vector v¯ le llamaremos un eigenvector de T con eigenvalor asociado r.

Dado un eigenvector v¯Rn, sólo hay un eigenvalor correspondiente a éste. Si T(v¯)=rv¯ y T(v¯)=tv¯, entonces rv¯=tv¯ de donde (rt)v¯=0¯. Como v¯0¯, se sigue que r=t.

Por otro lado, para un eigenvalor r puede haber más de un eigenvector con eigenvalor asociado r. Consideremos para un eigenvalor r el conjunto E(r)={v¯V|T(v¯)=rv¯}. Notemos que 0¯E(r) y también todos los eigenvectores de r están en E(r). Además, E(r) es un subespacio de Rn, pues si u¯,v¯E(r), y aR, tenemos

T(au¯+v¯)=aT(u¯)+T(v¯)=a(ru¯)+(rv¯)=r(au¯+v¯),

lo cual implica que au¯+v¯E(r).

Definición. Para una transformación lineal T:RnRn y un eigenvalor r de T llamaremos a

E(r)={v¯V|T(v¯)=rv¯}

el eigenespacio de T correspondiente a r.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si v¯1,,v¯l son eigenvectores de una transformación lineal T:RnRn con eigenvalores correspondientes r1,,rl distintos entonces v¯1,,v¯l son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre l. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de l1 eigenvectores que pertenecen a eigenespacios distintos. Sean v¯1,,v¯l eigenvectores en distintos eigenespacios y consideremos α1,,αl escalares tales que:

(2)k=1lαkv¯k=0¯.

Aplicamos T a la igualdad anterior. Usando que cada v¯k es eigenvector correspondiente al eigenvalor rk obtenemos:

0¯=T(0¯)=T(k=1lαkv¯k)=k=1lαkT(v¯k)=k=1lαkrkv¯k.

Es decir,

(3)0=k=1lαkrkv¯k

Multipliquemos (2) por rl y restemos el resultado de (3) para obtener que

0¯=0¯0¯=k=1lαkrkv¯krlk=1lαkv¯k=k=1l1αk(rkrl)v¯k.

Tenemos entonces:

k=1l1αk(rkrl)v¯k=0¯.

Ya que por hipótesis de inducción v¯1,,v¯l1 son linealmente independientes entonces αk(rkrl)=0 para todo k, pero los eigenvalores son todos distintos entre sí por lo tanto para todo k de 1 a l1 se tiene rkrl0 y así αk=0. Finalmente, usando (2) obtenemos αl=0. Por lo tanto v¯1,,v¯l son linealmente independientes.

◻

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal T:RnRn es diagonalizable si existe una base β de Rn tal que Matβ(T) es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de T.

Teorema. Sea T:RnRn transformación lineal. Una matriz T es diagonalizable si y sólo si existe una base de Rn conformada por eigenvectores de T.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. ) Supongamos que T tiene una representación matricial que es una matriz diagonal A:=Matβ(T)=diag(r1,,rn) con respecto a la base β={v¯1,,v¯n}. Afirmamos que para cada j=1,,n se tiene v¯j es eigevector de eigenvalor rj. En efecto, la forma en la que se construyó la matriz A nos dice que

T(e¯j)=i=1naije¯i=ajje¯j=rje¯j,

en donde estamos usando que las entradas aij de la matriz son cero si ij (por ser diagonal), y son rj si i=j. Por supuesto, como e¯j forma parte de una base, tampoco es el vector cero. Así, e¯j es eigenvector de eigenvalor e¯j.

) Supongamos ahora que v¯1,,v¯n son una base β de Rn conformada por eigenvectores de T con eigenvalores asociados, digamos, r1,,rn. Aquí se puede mostrar que Matβ(T) es diagonal. Queda como tarea moral hacer las cuentas.

◻

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene n eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal T:RnRn tiene a lo más n eigenvalores distintos. Si T tiene exactamente n eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para Rn y la matriz de T relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

◻

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz PMn(R) es ortogonal si PtP=I.

Teorema (el teorema espectral). Sea AMn(R) una matriz simétrica. Entonces, existe una matriz ortogonal P tal que PAPt es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz A es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de R3 en R2, dada como T(x,y,z)=(x+y,z+y). Encuentra su representación matricial con las bases canónicas de R3 y R2. Luego, encuentra su representación matricial con las bases {(1,2,3),(1,0,1),(0,1,0)} de R3 y {(1,1),(1,1)} de R2.
  2. Considera la siguiente matriz: (10230102) Da una transformación lineal T:R4R2 y ciertas bases β de R4 y γ de R2 para las cuales esta matriz sea la representación matricial de T en las bases β y γ.
  3. Fija bases β, γ y δ para Rn, Rm y Rl. Considera dos transformaciones lineales T:RnRm y S:RmRl. Demuestra que:
    Matδ,β(ST)=Matδ,γ(S)Matγ,β(T).
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea T:RnRn una transformación lineal y β una base de Rn. Demuestra que T es biyectiva si y sólo si Matβ(T) es invertible.
  5. Verifica que los vectores v¯1,,v¯n dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para T.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Cálculo Diferencial e Integral III: Determinantes

Por Alejandro Antonio Estrada Franco

Introducción

El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.

Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.

Permutaciones

Recordemos que en la entrada anterior definimos para cada nN el conjunto [n]={1,2,,n}.

Definición. Una permutación del conjunto [n] es una función biyectiva σ:[n][n]. Una forma de escribir a σ de manera más explícita es la siguiente:
σ=(12nσ(1)σ(2)σ(n))

Podemos pensar también a una permutación como un reacomodo de los números 1,2,,n. Pensado de esta manera, escribimos σ=σ(1)σ(2)σ(n).

El conjunto de todas las permutaciones del conjunto [n] se denota como Sn. Una observación interesante es que Sn tiene n! elementos.

Definición. Para σSn, una inversión en σ consiste en un par (i,k)[n]×[n] tal que i>k pero i precede a k en σ cuando se considera σ como una lista. Diremos que σ es permutación par o impar según tenga un número par o impar de inversiones.

Ejemplo. Consideremos σ=12354 permutación en [5]. Tenemos que (5,4) es una inversión en σ pues 5>4 pero en la permutación 5 precede a 4. Al tener σ una sola inversión, es una permutación impar.

Definición. El signo de σ, denotado sign(σ) se define como:
sign(σ)={1si σ es par1si σ es impar.

Sea AMn(R). Pensemos en un producto de n entradas de A tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como
(4)a1j1a2j2anjn.

Así, akjk nos dice que en la fila k tomamos la entrada de la columna j. Como se eligió una y sólo una entrada por columna, tenemos que j1,,jn es una permutación de [n]. Y viceversa, cada permutación σ=j1jnSn determina un producto como en (4). Por ello la matriz A nos entrega n! productos con esta característica.

Determinantes en términos de permutaciones

A partir de las permutaciones podemos definir a los determinantes.

Definición. El determinante de la matriz A, denotado por det(A), se define como:
det(A)=σSn(sign(σ)i=1naiσ(i))
donde
σ=(12nσ(1)σ(2)σ(n))

Ejemplo. Para la matriz A=(021120301) tomemos en cuenta las permutaciones del conjunto [3] las cuales son: (123123),(123132),(123213),(123231),(123312),(123321)

De acuerdo con la definición de determinante, tenemos:

det(A)=(1)a11a22a33+(1)a11a23a32+(1)a12a21a33+(1)a12a23a31+(1)a13a22a31+(1)a13a21a32=021+(1)000+(1)211+(1)203+(1)123+(1)110=4.

Propiedades de los determinantes

Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.

Definición. La matriz identidad IMn(R) es aquella que cumple que en las entradas de la forma (i,i) son iguales a 1 y el resto de las entradas son iguales a 0.

Definición. Diremos que una matriz AMn(R) es una matriz triangular superior si cumple aij=0 para i>j. La llamaremos triangular inferior si cumple aij=0 para i<j. Finalmente, diremos que es diagonal si cumple aij=0 para ij (en otras palabras, si simultáneamente es triangular superior e inferior).

Definición. Sea AMm,n(R). La transpuesta de la matriz A, denotada por At, es la matriz en Mn,m(R) cuyas entradas están definidas como (at)ij=aji.

El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.

Proposición. Sea AMn(R). Se cumple todo lo siguiente.

  1. det(A)=det(At).
  2. Si A tiene dos filas iguales det(A)=0.
  3. Si A tiene dos columnas iguales det(A)=0.
  4. Si A es triangular superior, triangular inferior, o diagonal, det(A)=i=1naii.
  5. det(In)=1.

Demostración.

  1. Notemos que (tarea moral) sign(σ)=sign(σ1), así tenemos que
    det(At)=σSnsign(σ)aσ(1)1aσ(n)n=σSnsign(σ1)a1σ(1)anσ(n)=σSnsign(σ)a1σ(1)anσ(n)=det(A).
  2. Si tenemos dos filas iguales, en cada producto a1σ(1)anσ(n) tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
  3. Mismo argumento que en el inciso anterior.
  4. Si tenemos una matriz triangular, ya sea superior, o inferior i=1naiσ(i)0 sólo cuando σ(i)=i ya que en otro caso este producto siempre tendrá algún factor cero.
  5. Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.

◻

Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.

Teorema. Sean A y B matrices en Mn(R). Se tiene que det(AB)=det(A)det(B).

Mas adelante

En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.

Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.

Tarea moral

  1. Sea σSn. Muestra que su inversa, σ1 también es una permutación. Después, muestra que
    sign(σ)=sign(σ1).
    Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
  2. Encuentra explícitamente cuántas inversiones tiene la permutación σ en Sn dada por S(j)=nj+1.
  3. Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma det(A)=σSnsign(σ)a1σ(1)anσ(n). Supón que las filas s y t son iguales; para cada factor argumenta por qué a1σ(1)asσ(s)atσ(t)anσ(n) el factor a1σ(1)atσ(t)asσ(s)anσ(n) donde permutamos el t-ésimo factor con el s-ésimo también está en la suma, y por qué ambos son de signos contrarios.
  4. Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
  5. Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».

Entradas relacionadas

Cálculo Diferencial e Integral III: Sistemas de ecuaciones lineales

Por Alejandro Antonio Estrada Franco

Introducción

En esta entrada daremos un repaso a la teoría de sistemas de ecuaciones lineales. En caso de que quieras leer una versión detallada, puedes comenzar con la entrada de Sistemas de ecuaciones lineales y sistemas homogéneos asociados que forma parte del curso Álgebra Lineal I aquí en el blog.

Nuestra motivación para este repaso comienza como sigue. Supongamos que T:RnRm es una transformación lineal. Tomemos un vector w¯Rm. Es muy natural preguntarse qué vectores v¯ hay en Rn tales que T(v¯)=w¯, en otras palabras, preguntarse cuál es la preimagen de w¯.

Sistemas de ecuaciones lineales

Continuando con la situación planteada en la introducción, si A es la representación matricial de T en una cierta base β, podemos contestar la pregunta planteada resolviendo la ecuación matricial AX=B donde X, B son las representaciones de los vectores v¯, w¯ en la base β, respectivamente. Una vez llegado a este punto, la ecuación AX=B nos conduce a que se deban cumplir varias igualdades. Veamos cuáles son en términos de las entradas de A, X y Y. Pensemos que A=(a11a12a1na21a22a2nam1am2amn).

Pensemos también que X es el vector columna con entradas (incógnitas) x1,,xn, y que B es el vector columna con entradas b1,,bm.

Al realizar las operaciones, la igualdad AX=B se traduce en que se deban cumplir todas las siguientes ecuaciones simultáneamente:

(5){a11x1++a1nxn=b1am1x1++amnxn=bm

Definición. Un sistema de m ecuaciones lineales con n incógnitas es un sistema de ecuaciones de la forma (5). Como discutimos arriba, al sistema también lo podemos escribir de la forma AX=B. A la matriz A le llamamos la matriz de coeficientes. Al vector X le llamamos el vector de incógnitas.

Resolver el sistema (5) se refiere a determinar todos los posibles valores que pueden tomar las incógnitas x1,,xn de manera que se cumplan todas las ecuaciones dadas.

Definición. Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

Un resultado importante que relaciona a los sistemas de ecuaciones con las operaciones elementales que discutimos con anterioridad es el siguiente.

Proposición. Sea AMm,n(R) y e una operación elemental cualquiera (intercambio de renglones, reescalamiento de renglón, o transvección). Entonces el sistema de ecuaciones AX=B es equivalente al sistema de ecuaciones e(A)X=e(B).

En otras palabras, si comenzamos con un sistema de ecuaciones AX=B y aplicamos la misma operación elemental a A y a B, entonces obtenemos un sistema equivalente. Veamos como ejemplo un esbozo de la demostración en el caso del reescalamiento de vectores. Los detalles y las demostraciones para las otras operaciones elementales quedan como ejercicio.

Demostración. Consideremos el rescalamiento e de la j-ésima columna de una matriz por un factor r. Veremos que e(A)X=e(B). Tomemos

A=(a11a1nam1amn),B=(b1bm),X=(x1xn)

Entonces la ecuación matricial AX=B nos produce el siguiente sistema de ecuaciones lineales:
{a11x1++a1nxn=b1am1x1++amnxn=bm.

Tomemos una solución del sistema: X=(x1xn)

La ecuación matricial e(A)X=e(B) nos produce el siguiente sistema de ecuaciones: {a11x1++a1nxn=b1raj1x1++rajnxn=rbj am1x1++amnxn=bm.

Ahora, de cada una de las n ecuaciones, excepto la j-ésima, sabemos que se solucionan al sustituir x1,,xm, resta revisar la j-ésima ecuación. Lo que sí sabemos de que X sea solución es que aj1x1++ajnxn=bj. Así, al multiplicar por r de ambos lados raj1x1++rajnxn=rbj. Así obtenemos que X satisface también a e(A)X=e(B). Inversamente si una solución satisface al sistema e(A)X=e(B) también lo hace para AX=Y. Te recomendamos revisar los detalles por tu cuenta.

◻

Soluciones a sistemas de ecuaciones lineales

La teoría de sistemas de ecuaciones lineales nos dice que tenemos tres posibles situaciones que se pueden presentar cuando estamos resolviendo un sistema de ecuaciones lineales en R: no hay solución, hay una única solución, o tenemos infinidad de soluciones. Por ejemplo, se puede descartar que haya exactamente dos soluciones. En cuanto sucede esto, la cantidad de soluciones se dispara a una infinidad

Haremos una discusión de cuándo se presenta cada caso. De acuerdo con la sección anterior, cualquier operación elemental pasa un sistema de ecuaciones a uno equivalente. Además, de acuerdo con el teorema de reducción gaussiana, cualquier matriz puede ser llevada a la forma escalonada reducida. Así, al aplicar tanto a A como a B las operaciones elementales que llevan A a su forma escalonada reducida Ared, llegamos a un sistema equivalente AredX=C. El comportamiento del conjunto solución de AX=B se puede leer en este otro sistema equivalente como sigue:

  1. Sin solución. El sistema AX=B no tiene solución si en AredX=C hay una igualdad lineal del estilo 0xj1++0xjn=cj, con cj0. En otras palabras, si en Ared hay una fila j de ceros y la entrada cj es distinta de cero.
  2. Infinidad de soluciones. El sistema AX=B tiene una infinidad de soluciones si tiene solución, y además hay por lo menos una columna k de Ared en la que no haya pivote de ninguna fila. Esta columna k corresponde a una variable libre xk que puede tomar cualquier valor, y el sistema tiene soluciones sin importar el valor que se le de a esta variable.
  3. Solución única. Un sistema de ecuaciones con solución, pero sin variables libres tiene una única solución. Esto se puede leer en la matriz Ared, pues se necesita que todas las columnas tengan un pivote de alguna fila.

Pensemos un poco a qué se deben los comportamientos anteriores. Pensemos en que ya llegamos a AredX=C. Iremos determinando los posibles valores de las entradas de X de abajo hacia arriba, es decir, en el orden xn,xn1,,x1. Si xk es variable libre, pongamos el valor que sea. Si xk tiene el pivote de, digamos, la fila j, entonces la ecuación j nos dice 0++0+xk++ajnxn=bj. Esto nos diría que xk=bjaj(k+1)xk+1ajnxn, así que hemos logrado expresar a xk en términos de las variables ya determinadas xk+1,xn.

Matrices equivalentes por filas

Definición. Consideremos IMm(R) la matriz identidad de tamaño m. Una matriz elemental será una matriz que se obtenga de la identidad tras aplicar una operación elemental.

Definición. Sean A,BMm,n(R). Diremos que A es equivalente por filas a B si A se puede obtener al aplicar una sucesión finita de operaciones elementales a B.

Se puede demostrar que «ser equivalente por filas» es una relación de equivalencia en Mm,n(R). Así mismo, se puede demostrar en general que si e es una operación elemental, entonces e(A) es exactamente la misma matriz que multiplicar la matriz elemental e(I) por la izquierda por A, es decir, e(A)=e(I)A. Como tarea moral, convéncete de ambas afirmaciones.

Para realizar la demostración, quizás quieras auxiliarte de la siguiente observación. Tomemos una matriz BMm,n(R) y pensemos en cada columna de B como un vector columna:

B1=(B11Bm1)Bn=(B1nBmn).

Tomemos ahora una matriz AMp,m. Tras realizar las operaciones, se puede verificar que la matriz AB tiene como columnas a los vectores columna AB1,AB2,,ABn.

El siguiente teorema nos da una manera alternativa de saber si dos matrices son equivalentes por filas.

Teorema. Sean A,BMm×n(R). Se tiene que B es equivalente por filas a A si y sólo si B=PA, donde P es una matriz en Mm(R) obtenida como producto de matrices elementales.

Demostración. Por la discusión anterior, si B es equivalente por filas a A, A resulta de la aplicación de una sucesión finita de operaciones elementales a B o, lo que es lo mismo, resulta de una aplicación finita de productos de matrices elementales por la izquierda. Por otro lado, si B=PA, con P=EkE1 producto de matrices elementales, tenemos que E1A es equivalente por filas a A, que E2(E1A) es equivalente por filas a E1A, que E3(E2(E1(A))) equivalente por filas a E2(E1(A)), y así sucesivamente. Usando que ser equivalente por filas es transitivo (por ser relación de equivalencia), concluimos que B es equivalente por filas a A.

◻

¿Qué sucede con los determinantes y las operaciones elementales? La siguiente proposición lo resume.

Proposición. Sea A una matriz en Mn(R) con determinante det(A).

  • Si se intercambian dos filas, el determinante se vuelve det(A).
  • Si se reescala una fila por un real r0, el determinante se vuelve rdet(A).
  • Si se hace una transvección, el determinante no cambia.

Observa que, en particular, si det(A)0, entonces sigue siendo distinto de cero al aplicar operaciones elementales.

Matrices invertibles y sistemas de ecuaciones lineales

En muchas ocasiones nos encontramos en cálculo de varias variables con funciones que van de Rn a sí mismo. Si la función que estamos estudiando es una transformación lineal, entonces corresponde a una matriz cuadrada en Mn(R). En estos casos hay otro concepto fundamental que ayuda, entre otras cosas, para resolver sistemas de ecuaciones lineales: el de matriz invertible. Veremos a continuación que esto interrelaciona a las matrices, las matrices elementales, los sistemas de ecuaciones lineales y a los determinantes.

Definición. Una matriz A cuadrada es invertible por la izquierda (resp. derecha) si existe una matriz B tal que BA=I (resp. AB=I). A B le llamamos la inversa izquierda (resp. derecha) de A. A una matriz invertible por la derecha y por la izquierda, donde la inversa izquierda sea igual a la derecha, simplemente se le llama invertible.

Se puede demostrar que, cuando existe, la matriz izquierda (o derecha) es única. Esto es sencillo. Se puede demostrar también que si B es inversa izquierda y B es inversa derecha, entonces B=B, lo cual no es tan sencillo. Además, se cumplen las siguientes propiedades de matrices invertibles.

Proposición. Sean A,BMn(R)

  1. Si A es invertible, también lo es A1 y (A1)1=A.
  2. Si A y B son invertibles, también lo es AB y (AB)1=B1A1.

Demostración. El inciso 1 es claro; para el inciso 2 tenemos (AB)(B1A1)=A(BB1)A1=A(I)A1=AA1=I =B1(I)B=B1(A1A)B=(B1A1)(AB).

◻

Veamos ahora cómo se conecta la noción de invertibilidad con la de matrices elementales. Como parte de la tarea moral, cerciórate de que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, piensa en otra operación elemental que aplicada sucesivamente a la primera nos de la matriz original. Con más detalle; si denotamos con e a una operación elemental (puede ser cualquiera) denotamos como e1 a la segunda a la cual llamaremos inversa de e; y estas cumplen e(e1)(A)=A=e1(e(A)) para cualquier matriz A a la que se le pueda aplicar e.

Proposición. Toda matriz elemental es invertible.

Demostración. Supongamos que E una matriz elemental correspondiente a la operación unitaria e. Si e1 es la operación inversa de e y E1=e1(I) tenemos: EE1=e(E1)=e(e1(I))=I, y así mismo tenemos E1E=e1(E)=e1(e(I))=I. De esta manera E es invertible y su inversa es E1.

◻

El resultado anterior habla sólo de la invertibilidad de matrices elementales, pero podemos usar a estas para caracterizar a las matrices invertibles.

Teorema. Sea AMn(R), los siguientes enunciados son equivalentes:

  1. A es invertible
  2. A es equivalente por filas a la matriz identidad
  3. A es producto de matrices elementales

Demostración. 12). Supongamos que A invertible, y usemos el teorema de reducción Gaussiana para encontrar la forma escalonada reducida Ared de A mediante una sucesión de operaciones elementales. Por el teorema de la sección de matrices equivalentes por filas, tenemos que R=EkE1A, donde Ek,,E1 son matrices elementales. Cada Ei es invertible, y A es invertible. Por la proposición anterior, tenemos entonces que Ared es invertible. Se puede mostrar que entonces ninguna fila de Ared puede consistir de puros ceros (verifícalo de tarea moral), de modo que toda fila de A tiene pivote (que es igual a 1). Como hay n filas y n columnas, entonces hay exactamente un 1 en cada fila y en cada columna. A Ared no le queda otra opción que ser la matriz identidad.

23). Si A es equivalente por filas a I, entonces hay operaciones elementales que la llevan a I. Como ser equivalente por filas es relación de equivalencia, existen entonces operaciones elementales que llevan I a A. Pero entonces justo A se obtiene de I tras aplicar un producto (por la izquierda) de matrices elementales. Por supuesto, en este producto podemos ignorar a I (o pensarla como un reescalamiento por 1).

31). Finalmente como cada matriz elemental es invertible y todo producto de matrices invertibles es invertible tenemos que 3 implica 1.

◻

Ya que entendemos mejor la invertibilidad, la podemos conectar también con la existencia y unicidad de soluciones en sistemas de ecuaciones lineales.

Teorema. Sea AMn(R); las siguientes afirmaciones son equivalentes:

  1. A es invertible.
  2. Para todo Y, el sistema AX=Y tiene exactamente una solución X.
  3. Para todo Y, el sistema AX=Y tiene al menos una solución X.

Demostración. 12). Supongamos A invertible. Tenemos que X=A1Y es solución pues AX=A(A1)Y=IY=Y. Veamos que la solución es única. Si X y X son soluciones, tendríamos AX=Y=AX. Multiplicando por A1 por la izquierda en ambos lados de la igualdad obtenemos X=X.

23). Es claro pues la única solución es, en particular, una solución.

31). Tomemos los vectores canónicos e^1,e^2,,e^n de Rn. Por (3) tenemos que todos los sistemas AX=e^1,,AX=e^n tienen solución. Tomemos soluciones B1,,Bn para cada uno de ellos y tomemos B como la matriz con columnas B1,,Bn. Por el truco de hacer el producto de matrices por columnas, se tiene que las columnas de AB son AB1=e^1,,ABn=e^n, es decir, AB es la matriz identidad.

◻

En la demostración anterior falta un detalle importante. ¿Puedes encontrar cuál es? Está en la demostración 31). Si quieres saber cuál es y cómo arreglarlo, puedes consultar la entrada Mariposa de 7 equivalencias de matrices invertibles.

Terminamos la teoría de esta entrada con un resultado que conecta invertibilidad y determinantes.

Proposición. Sea AMn(R). A es invertible, si y sólo si, det(A)0.

Demostración. Si A es invertible, entonces se cumple la ecuación I=AA1. Aplicando determinante de ambos lados y usando que es multiplicativo: 1=det(I)=det(AA1)=det(A)det(A1). Como al lado izquierdo tenemos un 1, entonces det(A)0.

Si det(A)0, llevemos A a su forma escalonada reducida Ared. Por la observación hecha al final de la sección de matrices elementales, se tiene que det(Ared)0. Así, en cada fila tenemos por lo menos un elemento no cero. Como argumentamos anteriormente, esto implica Ared=I. Como A es equivalente por filas a I, entonces es invertible.

◻

Mas adelante…

Continuaremos estableciendo herramientas de Álgebra lineal que usaremos en el desarrollo de los temas subsiguientes. En la siguiente entrada hablaremos de eigenvalores y eigenvectores. Con ellos, expondremos un método que proporciona una representación matricial sencilla simple para cierto tipos de transformaciones lineales.

Tarea moral

  1. Demuestra que la relación «es equivalente por filas» es una relación de equivalencia en Mm,n(R).
  2. Sea AMm,nR. Verifica que para cualquier operación elemental e de cualquiera de los tres tipos se cumple que e(A)X=e(B) es equivalente a AX=B. Deberás ver que cualquier solución de uno es solución del otro y viceversa.
  3. Demuestra que si A es invertible, también lo es A1 y que (A1)1=A. Verifica la invertibilidad izquierda y derecha.
  4. Demuestra que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, hay otra que al aplicarla sucesivamente nos regresa a la matriz original.
  5. Prueba que una matriz invertible tiene por lo menos un elemento distinto de cero en cada fila, y por lo menos un elemento distinto de cero en cada columna.

Entradas relacionadas