En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.
A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:
Pensemos en el problema de hallar los eigenvalores de una transformación lineal . Si es uno de estos eigenvalores, queremos poder encontrar vectores tales que . Esto sucede si y sólo si , lo cual sucede si y sólo si , en donde es la transformación identidad de en . Tenemos de esta manera que es un eigenvector si y sólo si .
Si existe tal que ; entonces por lo cual la transformación no es invertible, pues no es inyectiva. Así, en ninguna base es invertible, y por tanto su determinante es . Estos pasos son reversibles. Concluimos entonces que es un eigenvalor de si y sólo si en alguna base se cumple que Esto motiva la siguiente definición.
Definición. Sea una transformación lineal. Llamamos a al polinomio característico de en la base .
Por la discusión anterior, los escalares que cumplen son los eigenvalores . Para obtener los correspondientes eigenvectores, basta con resolver , lo cual es un sistema de ecuaciones en el vector de variables . Las soluciones nos darán las representaciones matriciales de vectores propios en la base .
Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.
Ejemplo: Consideremos dada por . Calculemos su representación matricial con respecto a la base canónica . Para ello, realizamos las siguientes evaluaciones:
de donde:
Calculando el polinomio característico obtenemos:
Las raíces de son , y . Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor . Para que represente a un eigenvector en la base canónica, debe pasar que:
lo cual sucede si y sólo si:
De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:
En esta forma es sencillo leer las soluciones. Tenemos que es variable pivote con , que es variable libre, y que es variable pivote dada por . Concluimos entonces que todos los posibles eigenvectores para el eigenvalor son de la forma , es decir .
Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores y .
Matrices similares
En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.
Sea una transformación lineal y sean , dos bases (ordenadas) de . Supongamos que:
Por cómo se construyen las matrices y , tenemos que:
Como es base, podemos poner a cada un de los de en términos de la base mediante combinaciones lineales, digamos:
en donde los son escalares para y . La matriz de , con entradas representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que . Para ello, tomaremos una en y expresaremos de dos formas distintas.
Por un lado, usando y por como es cada en la base tenemos que:
Por otro lado, usando y por como es cada en la base :
Comparemos ambas expresiones para . La primera es una combinación lineal de los y la segunda también. Como tiene una única expresión como combinación lineal de los , entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada se cumple:
Pero esto precisamente nos dice que la entrada de la matriz es igual a la entrada de la matriz . Con esto concluimos que , como queríamos.
En resumen, obtuvimos que para dos matrices y que representan a la misma transformación lineal, existe una matriz invertible tal que: . Además es la matriz con entradas dadas por .
Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.
Definición. Dos matrices y se llamarán similares (o semejantes), cuando existe otra matriz invertible tal que .
Sintetizamos nuestro resultado de la siguiente manera.
Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.
El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.
Proposición. Sean y matrices similares. Entonces y representan a una misma transformación lineal , quizás bajo distintas bases.
Demostración: Supongamos que las matrices y son similares con , donde las matrices , , están dadas por entradas , . Tomemos una base ordenada de . Consideremos la transformación lineal dada por
De esta manera tiene forma matricial en la base .
Construyamos ahora una nueva base ordenada de dada por vectores para construidos como sigue:
Como es invertible, en efecto tenemos que también es base de . Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de en la base será .
Así, hemos exhibido una transformación que en una base tiene representación y en otra tiene representación .
Juntando ambos resultados en uno solo, llegamos a lo siguiente.
Teorema. Dos matrices y en son similares si y sólo si representan a una misma transformación lineal , quizás bajo distintas bases.
El polinomio característico no depende de la base
Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.
Teorema. Sea una transformación lineal en un espacio sobre de dimensión finita. Sean y bases de . Entonces se obtiene lo mismo calculando el polinomio característico de en la base , que en la base .
Demostración. Tomemos y . Como y representan a la misma transformación lineal , entonces son similares y por lo tanto existe invertible con .
Para encontrar el polinomio característico de en la base , necesitamos , que justo es . Así mismo, en la base tenemos . Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:
Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con , lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.
Este teorema nos permite hablar del polinomio característico de una transformación lineal.
Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.
Teorema. Sea una transformación lineal. Supongamos que el polinomio característico de tiene raíces distintas . Entonces se cumple lo siguiente:
Si tomamos un eigenvector para cada eigenvalor , entonces forman una base para .
Con dicha base , se cumple que es una matriz diagonal con entradas en su diagonal.
Si es otra base de y , entonces para una matriz invertible con entradas dadas por .
La demostración de este resultado queda como tarea moral.
Más adelante…
En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación : 1) la transformamos en una matriz , 2) encontramos el polinomio característico mediante , 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones dan los vectores coordenada de los eigenvectores.
Como platicamos en la entrada, una condición suficiente para que una transformación de a sí mismo sea diagonalizable es que tenga eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.
Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de a son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.
Tarea moral
Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
Considera la transformación lineal de en . Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base de . Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
Demuestra que si y son dos representaciones matriciales de una misma transformación lineal , entonces .
Sea dada por . Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base en la cual es diagonal.
Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.
Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.
Matrices y transformaciones nilpotentes
En la última unidad estuvimos trabajando únicamente en o en . Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo .
Definición. Sea una matriz en . Diremos que es nilpotente si para algún entero positivo . Al menor entero positivo para el cual suceda esto le llamamos el índice de .
Ejemplo 1. La matriz es nilpotente. En efecto, tenemos que . Como , entonces el índice de es igual a dos.
Tenemos una definición correspondiente para transformaciones lineales.
Definición. Sea un espacio vectorial sobre un campo y sea una transformación lineal. Diremos que que es nilpotente si es la transformación lineal cero para algún entero positivo . Al menor entero positivo para el cual suceda esto le llamamos el índice de .
Recuerda que por definición es la transformación compuesta consigo misma veces.
Ejemplo 2. Si estamos trabajando en el espacio de polinomios reales de grado a lo más , entonces la transformación derivada para la cual es una transformación lineal nilpotente. En efecto, tras aplicarla veces a cualquier polinomio de grado a lo más obtenemos al polinomio . Su índice es exactamente pues derivar veces no anula al polinomio de .
Si estuviéramos trabajando en el espacio vectorial de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier siempre existe un polinomio tal que al derivarlo veces no se anula.
Bloques de Jordan de eigenvalor cero
Hay una familia importante de matrices nilpotentes.
Definición. Sea un campo. El bloque de Jordan de eigenvalor y tamaño es la matriz en cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, con
También podemos expresarlo de la siguiente manera:
en donde estamos pensando que la matriz es de .
Ejemplo 3. A continuación tenemos la matriz :
Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:
Luego que
Y finalmente que
De esta manera, hay una potencia de que se hace igual a cero. Como la mínima potencia es , entonces es nilpotente de índice . Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».
Todos los bloques de Jordan son nilpotentes
El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.
Teorema. La matriz es nilpotente de índice .
Demostración. Veamos qué hace la matriz cuando la multiplicamos por un vector:
En otras palabras, la matriz «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto veces, claramente llegamos al vector , así, está asociada a la transformación lineal cero y por lo tanto es la matriz . Y no es la matriz cero pues al aplicarla en , el -ésimo vector de la base canónica de tenemos por las mismas ideas de arriba que .
Una caracterización de matrices y transformaciones nilpotentes
El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.
Proposición. Sea una matriz. Todo lo siguiente es equivalente:
es nilpotente.
El polinomio mínimo de es de la forma .
El polinomio característico de es .
Demostración. Si es nilpotente, entonces hay un entero tal que . Entonces, el polinomio anula a la matriz . Pero el polinomio mínimo divide a cualquier polinomio que anule a , entonces , de donde debe ser también de la forma . De hecho, no puede suceder que pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que , pero esto es imposible pues es el menor entero tal que . Así, en este caso es justo el índice de .
Supongamos que el polinomio mínimo de es de la forma . Como el polinomio mínimo anula a la matriz tenemos que . Tomemos un escalar en fijo. Tenemos que:
Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:
Del lado izquierdo tenemos . Del lado derecho tenemos multiplicado por otra expresión polinomial en , digamos . Como esto se vale para todo escalar , se vale polinomialmente que . Así, y como el polinomio característico es de grado exactamente , obtenemos que .
Si el polinomio característico de es , entonces por el teorema de Cayley-Hamilton tenemos que , de donde es nilpotente.
Como consecuencia del teorema anterior, obtenemos los siguientes resultados.
Corolario. Si es una matriz nilpotente en , entonces y por lo tanto el índice de es menor o igual a . Análogamente, si es nilpotente y , entonces el índice de es menor o igual a .
Corolario. Si es una matriz nilpotente en , entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.
Más adelante…
En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.
Tarea moral
A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.
Encuentra una matriz nilpotente de índice en . En general, para cualquier entero positivo y cualquier entero con , da una forma de construir una matriz nilpotente de índice en .
Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
Sea un espacio vectorial de dimensión finita . Demuestra que las siguientes afirmaciones son equivalentes:
Una transformación es nilpotente de índice .
Alguna forma matricial de es nilpotente de índice .
Todas las formas matriciales de son nilpotentes de índice .
es la transformación lineal .
Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
Prueba que la única matriz nilpotente diagonalizable en es .
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»
Las matemáticas son la creación más poderosa y bella del espíritu humano. – Stefan Banach
Introducción
Con esta entrada culminaremos el estudio de los sistemas lineales. En la unidad 3 hicimos un estudio analítico y en esta unidad un estudio cualitativo, aunque reducido a un sistema compuesto por dos ecuaciones, esto con el fin de hacer al mismo tiempo un estudio geométrico en el plano.
A continuación presentamos un breve resumen de los visto en las entradas anteriores.
Clasificación de los planos fase y los puntos de equilibrio
El sistema que estudiamos todo este tiempo fue
Este sistema lo podemos escribir en forma matricial como
Si
entonces el sistema () se escribe como
Vimos que la naturaleza y estabilidad del punto de equilibrio quedó caracterizada por los valores propios de la matriz del sistema.
El único punto de equilibrio de los sistemas lineales es el origen , siempre que el determinante de sea distinto de cero. En la entrada anterior teníamos que , es por ello que obtuvimos infinitos puntos de equilibrio y es que el hecho de que tengamos valores propios nulos es un caso especial y poco común.
En el caso en el que no hay valores propios nulos, sabemos que en función del comportamiento de las trayectorias en relación con el punto de equilibrio aislado , este punto se denominará: nodo, punto silla, centro, foco, atractor o repulsor. Recordemos cuando se da cada caso.
El punto de equilibrio es un nodo.
Este caso ocurre cuando los valores propios y son reales y del mismo signo.
Si , entonces todas las trayectorias se acercan al origen, de manera que el punto de equilibrio es un nodo atractor y será asintóticamente estable.
Nodo atractor.
Si , entonces todas las trayectorias se alejan del origen, por tanto, el punto de equilibrio es un nodo repulsor y será inestable.
Nodo repulsor.
El punto crítico es un punto silla.
Este caso se presenta cuando los valores propios y son reales y de distinto signo.
Si y ocurre que dos trayectorias rectas se acercan al origen y otras dos trayectorias rectas se separan de él, mientras que el resto de trayectorias al pasar cerca del origen inmediatamente se alejan de él. Esto nos permite concluir que todo punto silla es inestable.
Punto silla.
El punto crítico es un centro.
Este caso se presenta cuando los valores propios son imaginarios puros.
Si y , entonces las trayectorias serán curvas cerradas que rodean al origen, en general tienen forma de elipses, de modo que ninguna trayectoria tiende a él cuando o , esto hace que el punto de equilibrio sea estable, pero no asintóticamente estable.
Centro.
El punto crítico es un foco.
En este caso los valores propios son complejos conjugados y tienen parte real no nula.
Si y con , entonces las trayectorias son curvas en forma de espiral que, conforme todas se acercan al origen, es por ello que el punto de equilibrio es asintóticamente estable.
Foco estable.
Si y con , entonces las trayectorias son curvas en forma de espiral que, conforme todas se separan del origen, es por ello que el punto de equilibrio es inestable.
Foco inestable.
El punto crítico es un atractor o un repulsor.
Este caso se presenta cuando un sistema lineal tiene valores propios reales, del mismo signo, pero además iguales.
Si , entonces las trayectorias tienden hacia el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un atractor y es asintóticamente estable.
Atractor.
Si , entonces las trayectorias se alejan el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un repulsor y es inestable.
Repulsor.
Los puntos críticos son una recta.
En este caso particular hay infinitos puntos de equilibrio, todos sobre una recta y ocurre cuando uno o ambos valores propios son cero.
Líneas de puntos fijos inestables.
Líneas de puntos fijos estables.
Como podemos ver, las características de las trayectorias y de los puntos de equilibrio en el plano fase quedan determinadas por los valores propios de la matriz de coeficientes . Sin embargo, estas características también se pueden describir en términos de la traza y del determinante de la matriz de coeficientes , veamos como es esto.
La traza y el determinante de la matriz de coeficientes
Consideremos la matriz de coeficientes
Sabemos que la traza de una matriz se define como la suma de los elementos de la diagonal principal de dicha matriz. En nuestro caso, la traza de es
Por otro lado, el determinante de la matriz es
Consideremos la ecuación característica de .
El polinomio característico es
Si sustituimos las ecuaciones () y () en la ecuación característica se tiene
Las raíces de esta ecuación cuadrática son
Hemos logrado escribir a los valores propios de en términos de la traza y del determinante de la misma matriz .
De tarea moral, usando () calcula explícitamente las operaciones y y verifica que se satisfacen las siguientes relaciones importantes.
y
Es decir, la traza y el determinante de también se pueden escribir en términos de los valores propios de .
El análisis cualitativo que hemos hecho a lo largo de las últimas entradas ha sido en función de los valores propios, recordemos que las posibilidades son
Valores propios reales y distintos:
.
.
y .
Valores propios complejos:
y con .
y con .
y con .
Valores propios repetidos:
.
.
Valores propios nulos
y .
y .
.
Sin embargo, ahora podemos analizar cada caso pero en función de los valores de la traza y el determinante de , ya que inmediatamente podemos notar de () que los valores propios de son complejos si , son repetidos si , y son reales y distintos si .
El plano Traza – Determinante
Comenzaremos a hacer un nuevo bosquejo para los sistemas lineales examinando el conocido plano traza – determinante. El eje corresponderá a la línea horizontal y representa a la traza, mientras que el eje corresponderá a la vertical y representa al determinante. En este plano la curva
o su equivalente,
es una parábola con concavidad hacia arriba. Arriba de ésta encontramos , y abajo de ella , tal como se muestra en la siguiente figura.
Plano traza – determinante.
Para usar este plano, calculamos primero y para una matriz dada y luego localizamos el punto en el plano. De forma inmediata podremos visualizar si los valores propios son reales, repetidos o complejos, dependiendo de la posición de respecto a la parábola.
Ejemplo: Determinar el tipo de valores propios que tiene el siguiente sistema lineal.
Solución: La matriz de coeficientes es
Vemos que
y
Ahora bien
Como , entonces inmediatamente concluimos que los valores propios son complejos conjugados. Ahora bien, aún no sabemos si se trata de un centro o algún tipo de espiral, pero por el momento no nos preocupemos por ello.
Sólo con el fin de conocer el tipo de soluciones que tiene el sistema, su plano fase es el siguiente.
Plano fase del sistema.
Las trayectorias del sistema corresponden a espirales y el punto de equilibrio es un foco inestable. Observa que la figura ya nos da los valores de la traza, el determinante y el discriminante, aunque con una notación distinta.
Ahora puedes regresar a visualizar los planos fase de todos los ejemplos que hicimos en las 4 entradas anteriores y poner más atención en los valores de la traza y el determinante.
Por su puesto que podemos hacer mucho más en el plano traza – determinante. Por ejemplo, desearíamos no sólo saber si los valores propios de son complejos, repetidos o reales, sino que también conocer si tienen parte real nula o distinta de cero o si son reales positivos, negativos o de distinto signo, etcétera.
A continuación haremos un análisis más detallado sobre las raíces () y veremos que tipo de información nos proporciona sobre los sistemas lineales.
Recordemos que los valores propios de , en términos de la traza y el determinante de son
Atendiendo a los diferentes valores de y , se tiene:
Si , entonces los valores propios y son complejos conjugados con parte real igual a . Se tienen los siguientes casos:
Los valores propios son imaginarios puros si (centro y estabilidad).
Los valores propios tienen parte real negativa cuando (foco y estabilidad asintótica).
Los valores propios tienen parte real positiva cuando (foco e inestabilidad).
Si consideramos el plano traza – determinante y denotamos por al origen podremos asegurar que por encima de la parábola se tiene:
En el eje se presentan los centros y hay estabilidad.
A la izquierda del eje se presentan los focos y hay estabilidad asintótica.
A la derecha del eje también se presentan focos, pero hay inestabilidad.
Si , entonces se tiene . En este caso los valores propios son reales y de distinto signo, lo que significa que se presentarán puntos silla e inestabilidad. En el plano traza – determinante los encontraremos por debajo del eje .
Si y , entonces los valores propios son reales y tienen el mismo signo que . Los casos posibles son:
Si , se tiene:
Cuando , los valores propios son iguales y negativos (atractor y estabilidad asintótica).
Cuando , los valores propios son reales, distintos y negativos (nodo atractor y estabilidad asintótica).
Si , se tiene:
Cuando , los valores propios son iguales y positivos (repulsor e inestabilidad).
Cuando , los valores propios son reales, distintos y positivos (nodo repulsor e inestabilidad).
Si , entonces uno o ambos valores propios son cero. Los siguientes casos se obtienen directamente de () y ().
Si (origen), entonces ambos valores propios son cero (recta de puntos de equilibrio y trayectorias paralelas a dicha recta).
Si , entonces un valor propio es cero y el otro es positivo (recta de puntos de equilibrio inestables y trayectorias rectas que se alejan de la recta de puntos de equilibrio).
Si , entonces un valor propio es cero y el otro es negativo (recta de puntos de equilibrio asintóticamente estables y trayectorias rectas que tienden a la recta de puntos de equilibrio).
¡Todo lo que hemos aprendido sobre sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales de primer orden con coeficientes constantes, incluyendo todas las características anteriores, se resume en el siguiente diagrama!.
Plano traza – determinante con todas las posibilidades de planos fase.
Veamos un ejemplo.
Ejemplo: Caracterizar el siguiente sistema lineal.
Solución: La matriz de coeficientes es
Vemos que
y
tenemos, entonces
Como , y , vamos al punto 3 y deducimos que el sistema lineal tiene valores propios iguales y positivos. De acuerdo a las ecuaciones () y () se tiene el siguiente sistema.
De la primer ecuación obtenemos , sustituyendo en la segunda ecuación se tiene
de aquí obtenemos la ecuación cuadrática
Las raíces son
La única raíz es , sustituyendo en cualquier ecuación del sistema obtenemos que . Por lo tanto, el único valor propio de la matriz es (iguales y positivos, tal como lo habíamos deducido).
Si vamos al plano traza – determinante, como y , entonces estamos en el primer cuadrante, pero además , así que estamos situados sobre la parábola del primer cuadrante, exactamente en el punto , esto nos permite concluir que el plano fase del sistema corresponde a repulsor.
El plano fase del sistema es el siguiente.
Plano fase del sistema.
Efectivamente se trata de un repulsor.
Debido a que cada punto del plano traza – determinante representa un plano fase distinto, el plano traza – determinante es un ejemplo de lo que se conoce como plano paramétrico.
El plano paramétrico
El plano traza – determinante es un ejemplo de un plano paramétrico. Los elementos de la matriz son parámetros que se pueden ajustar, cuando esos elementos cambian, la traza y el determinante de la matriz también se modifican y el punto se mueve en el plano paramétrico. Cuando este punto entra en las diversas regiones del plano traza – determinante, debemos imaginar que los retratos fase asociados también experimentan transformaciones.
El plano traza – determinante es un esquema de clasificación del comportamiento de todas las posibles soluciones de sistemas lineales.
En este enlace se tiene acceso a una herramienta visual del plano paramétrico. En él se puede mover el punto a lo largo de las diferentes regiones del plano traza – determinante a la vez que visualizamos el tipo de planos fase que se generan. ¡Pruébalo y diviértete!
Con esto concluimos el estudio de los sistemas lineales. Cabe mencionar que el plano traza – determinante no da una información completa sobre el sistema lineal tratado.
Por ejemplo, a lo largo de la parábola tenemos valores propios repetidos, pero no podemos determinar si tenemos uno o varios vectores propios linealmente independientes. para saberlo es preciso calcularlos.
De modo similar, no podemos determinar la dirección en que las soluciones se mueven alrededor del origen si . Por ejemplo, las dos matrices
tienen traza y determinante , pero las soluciones del sistema se mueven alrededor del origen en el sentido de las manecillas del reloj, mientras que las soluciones de viajan en el sentido opuesto.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
Hacer un análisis cualitativo de los siguientes sistemas lineales apoyándose de la traza y el determinante de la matriz de coeficientes , así como del plano traza – determinante. Es decir, de acuerdo al valor de la traza , el determinante y el discriminante , determinar que tipo de valores propios tiene el sistema, así como el tipo de plano fase y estabilidad del punto de equilibrio.
Más adelante…
Estamos cerca de concluir el curso. En las próximas entradas estudiaremos de manera cualitativa a los sistemas no lineales compuestos por dos ecuaciones diferenciales de primer orden.
En particular, en la siguiente entrada veremos que alrededor de un punto de equilibrio de un sistema no lineal las trayectorias son muy parecidas a las de un sistema lineal lo que nos permitirá observar el comportamiento que tienen las soluciones del sistema no lineal, al menos cerca de un punto de equilibrio.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»
En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.
Problemas de ecuaciones lineales
Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.
Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.
Problema 1. Considera los vectores
en . Prueba que para cualquier elección de , los vectores son linealmente independientes.
Solución. Sea la matriz cuyas columnas son , es decir,
Sabemos que son linealmente independiente si y sólo si , ya que , y eso es equivalente (por la clase del lunes) a demostrar que tiene una submatriz de invertible.
Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es
lo que implica que es invertible, y por lo tanto son vectores linealmente independientes.
En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre o sobre . Como , es natural preguntarnos si los resultados obtenidos en los problemas trabajados en se cumplen en . En este caso particular, si las soluciones de una matriz en son soluciones de la misma matriz pero vista como elemento en . El siguiente teorema nos da el resultado a esta pregunta.
Teorema. Sea y sea un campo contenido en . Consideremos el sistema lineal . Si el sistema tiene una solución no trivial en , entonces tiene una solución no trivial en .
Demostración. Dado que el sistema tiene una solución no trivial en , vista como elemento en . Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a como elemento de o de . Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de de dimensión . Por lo tanto, el sistema tiene una solución no trivial en .
A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.
Problema. 2 Sea el siguiente sistema lineal:
Encuentra los valores de para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.
Solución. El sistema lo podemos escribir como donde
Notemos que
entonces si , es invertible, y por lo tanto , mientras que si , no es invertible y ya que la submatriz es invertible
Además, si la matriz es igual a
quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, .
Aplicando el Teorema de Rouché-Capelli, para , el sistema no tiene soluciones. También podemos concluir que como para todo , el sistema tiene exactamente una solución. (Y nunca tiene infinitas soluciones).
Problema 3. Sean números reales dados. Resuelve el sistema lineal
Solución. La matriz del sistema es
No es difícil ver que . Si , usando la regla de Cramer, la única solución al sistema está dada por
resolviendo los determinantes obtenemos que
Ahora, si , entonces no es invertible (). El sistema es consistente si y sólo si .
Sin pérdida de generalidad, decimos que (pues ). Esto reduce el sistema a
El sistema es consistente si y distintos de cero. En este caso, tenemos que y , implicando , . De manera similar, obtenemos las posibles soluciones si o si .
Resumiendo:
Si , el sistema tiene una solución única dada por la regla de Cramer.
Si tenemos alguno de los siguientes tres casos: caso 1) y ; caso 2) y ; caso 3) y , tenemos infinitas soluciones descritas como, para todo : caso 1) ; caso 2) ; caso 3) .
Si no se cumplen ninguno de las cuatro condiciones anteriores para , el sistema no es consistente.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»
Para esta entrada del blog haremos uso de las propiedades vistas en la entrada de propiedades de determinantes para facilitar las cuentas a la hora de calcular determinantes de matrices que un primera instancia podrían parecer complicadas. Asimismo, haciendo uso de estas propiedades, se demostrará el teorema de expansión de Laplace.
Problemas resueltos
Problema 1. Considera la siguiente matriz
y calcula .
Solución. Como el determinante es multiplicativo, sabemos que , por lo que nos bastará con calcular . Es fácil ver que Así, .
Problema 2. Sea
Muestra que si entradas de son iguales a , entonces .
Muestra que se puede escoger de tal manera que tiene entradas iguales.
Muestra que si entradas de son iguales, entonces .
Demostración.
Afirmamos que la matriz tiene una columna en la que todas las entradas son cero. Supongamos que cada columna de tiene a los más ceros, entonces la matriz tiene a lo más ceros, lo cuál contradice nuestra hipótesis, por lo tanto existe una columna en la cuál todas las entradas son iguales a cero. Por lo tanto .
Consideremos la matriz dado por si y si . De esta manera nos aseguramos de que entradas son iguales a , pero , pues si sustraemos el primer renglón de cada uno de los siguientes renglones obtenemos una matriz triangular superior con entradas diagonales distintas de cero, por lo que .
Si tiene entradas iguales (digamos a un número ), entonces tiene a lo más entradas distintas a . Por lo tanto, a lo más columnas de contienen una entrada distinta de , es decir, al menos dos columnas de tienen todas sus entradas iguales a , entonces . Por consiguiente .
Teorema de Expansión de Laplace
Sea una matriz y sea el cofactor de .
(a) (Expansión con respecto a una columna ) Para cada tenemos
(b) (Expansión con respecto a una columna ). Para cada tenemos
Demostración.(a) Tomemos fija , y sea la base canónica de y sea las columnas de , tales que para toda . Se sigue que
Nos falta ver que . Mediante una serie de intercambios de columnas, podemos poner la ésima columna del determinante en la última posición, y mediante una sucesión de intercambios de renglones podemos poner el ésimo renglón en la última posición, lo que nos da
El último determinante es precisamente , y como se sigue el resultado deseado.
(b) La prueba para este inciso se sigue del inciso anterior y tomando en cuenta que .
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»