Archivo de la etiqueta: sistemas lineales

Ecuaciones Diferenciales I: Linealización de los puntos de equilibrio de sistemas no lineales

Por Omar González Franco

La educación en matemáticas es mucho más complicada que lo que esperabas,
incluso si esperabas que es más complicada que lo que esperabas.
– Edward Griffith Begle

Introducción

Nos acercamos al final de este curso. Para concluir estudiaremos un último tema que tiene que ver con los sistemas autónomos de ecuaciones diferenciales no lineales.

Resolver de forma analítica sistemas de ecuaciones diferenciales no lineales puede ser una tarea sumamente complicada y en algunos casos hasta imposible, es por ello que en muchas ocasiones se opta por resolverlos con métodos numéricos. En este curso no veremos métodos numéricos y mucho menos métodos analíticos para resolver sistemas de ecuaciones diferenciales no lineales debido a que requerimos de más teoría que queda fuera de este primer curso de ecuaciones diferenciales. Pero lo que si podemos hacer es un análisis cualitativo como lo hemos estado haciendo en esta unidad.

Recordemos que el espacio fase de un sistema de ecuaciones diferenciales aporta la suficiente información como para conocer de forma completa el comportamiento de los soluciones a diferentes tiempos, incluso esta información puede ser suficiente para describir el fenómeno que estemos estudiando sin la necesidad de conocer explícitamente las soluciones del sistema.

En esta y las próximas entradas comenzaremos a desarrollar métodos cualitativos que nos permitirán construir el espacio fase de sistemas no lineales y por tanto conocer el comportamiento de sus soluciones a diferentes tiempos y diferentes condiciones iniciales.

En estos momentos ya conocemos métodos analíticos y geométricos que nos permiten entender completamente a los sistemas lineales, es posible combinar estos métodos con algunas otras técnicas cualitativas adicionales para describir a los sistemas no lineales. Comenzaremos desarrollando el método de linealización, el cual nos mostrará cómo es que puede aproximarse un sistema no lineal a un punto de equilibrio por medio de un sistema lineal.

Trayectorias de los sistemas no lineales

Consideremos el siguiente sistema no lineal.

x=y(1)y=x+(1x2)y

Enseguida podemos darnos cuenta de que el único punto de equilibrio del sistema es el origen. Usando la herramienta que hemos estado utilizando a lo largo de esta unidad podemos visualizar el plano fase del sistema acompañado del campo vectorial asociado.

Plano fase del sistema no lineal (1).

Las trayectorias en general no muestran un comportamiento parecido a alguno de los sistemas estudiados en las entradas anteriores y claro que debe ser así, ya que en este caso se trata de un sistema no lineal. Sin embargo, se puede notar que alrededor del punto de equilibrio, es decir del origen, si hay un comportamiento que nos parece familiar, pues se trata de una espiral que se aleja del origen (parecido a foco inestable).

Lo que haremos será aproximar el sistema (1) con un sistema que sea mucho más fácil de analizar. Observemos que el término que hace que el sistema no sea lineal es x2y en la ecuación para y. Si x y y son pequeñas (cercanas al punto de equilibrio), entonces el término x2y es aún mucho más pequeño, de manera que para valores pequeños de x y de y es posible aproximar el sistema (1) en un sistema lineal en el que no aparece el término x2y, dicho sistema es

x=y(2)y=x+y

Ambos sistemas deben ser muy similares en una vecindad muy próxima al punto de equilibrio, en este caso en el origen. Veamos el plano fase del sistema lineal (2).

Plano fase del sistema lineal (2).

Si observamos con cuidado ambos planos fase vemos que efectivamente son muy similares alrededor del origen, ya que ambos corresponden a espirales que se alejan del origen.

El plano fase del sistema (2) corresponde a un sistema con valores propios complejos. Prueba que efectivamente los valores propios son

λ1=1+i32yλ2=1i32

Como son complejos con parte real positiva, sabemos que las soluciones del sistema lineal se mueven en espiral alejándose del origen.

Lo que hemos hecho se conoce como linealización del punto de equilibrio. Cerca del punto de equilibrio aproximamos el sistema no lineal por medio de un sistema lineal apropiado. Para condiciones iniciales cerca del punto de equilibrio las soluciones del sistema no lineal y de la aproximación lineal permanecen cercanas entre sí, por lo menos en algún intervalo.

El sistema no lineal (1) se conoce como ecuación de Van der Pol y más adelante volveremos a él.

Veamos cómo sería hacer una linealización de un sistema no polinomial. Consideremos el sistema no lineal

x=y(3)y=ysin(x)

El término no lineal corresponde a la función seno. Este modelo bien puede representar el movimiento de un péndulo amortiguado.

Los puntos de equilibrio del sistema son Y0=(0,0),(±π,0),(±2π,0), etcétera. Concentrémonos sólo en el origen.

Sabemos que

(4)sin(x)=xx33!+x55!

Entonces podemos escribir al sistema (3) como

x=y(5)y=y(xx33!+x55!)

Para x muy pequeña los términos con potencia son aún más pequeños, así que los podemos omitir aproximándonos al siguiente sistema lineal.

x=y(6)y=yx

Los valores propios de este sistema son

λ1=1+i32yλ2=1i32

Como estos números son complejos con parte real negativa, esperamos que el correspondiente punto de equilibrio para el sistema no lineal sea un foco estable.

A continuación se muestra el plano fase del sistema no lineal (3) y posteriormente el plano fase del sistema linealizado (6) y observemos en ambos el comportamiento de las trayectorias alrededor del punto de equilibrio Y0=(0,0).

Plano fase del sistema (3).
Plano fase del sistema (6).

Efectivamente, en ambos planos fase alrededor del origen presentan el mismo comportamiento correspondiente a un foco estable.

El proceso de linealización puede ser directo independientemente del sistema no lineal que tengamos, pero debemos apoyarnos de una herramienta del cálculo diferencial conocida como matriz Jacobiana.

Linealización de los puntos de equilibrio

Consideremos el siguiente sistema autónomo no lineal.

x=F1(x,y)(7)y=F2(x,y)

Supongamos que Y0=(x0,y0) es un punto de equilibrio de este sistema (no necesariamente el origen). Queremos entender qué sucede con las soluciones cerca de Y0, es decir, linealizar el sistema cerca de Y0. Introducimos nuevas variables.

u=xx0(8)v=yy0

Lo que hacen estas variables es mover el punto de equilibrio al origen. Si x y y están cerca del punto de equilibrio (x0,y0), entonces u y v tienden a 0.

Como los números x0 y y0 son constantes y además

x=u+x0yy=v+y0

entonces el sistema (7) escrito en términos de u y v es

dudt=d(xx0)dt=dxdt=F1(x,y)=F1(x0+u,y0+v)dvdt=d(yy0)dt=dydt=F2(x,y)=F2(x0+u,y0+v)

Esto es,

u=F1(x0+u,y0+v)(9)v=F2(x0+u,y0+v)

Si u=v=0, entonces

u=F1(x0,y0)v=F2(x0,y0)

Pero,

F1(x0,y0)=0yF2(x0,y0)=0

ya que Y0=(x0,y0) es un punto de equilibrio, esto nos muestra que hemos movido el punto de equilibrio al origen en el plano UV.

Lo que haremos a continuación es apoyarnos de algunos resultados del curso de Cálculo III. Necesitamos eliminar los términos de orden superior o no lineales del sistema (9). Como esas expresiones pueden incluir funciones exponenciales, logarítmicas y trigonométricas, no siempre es claro cuáles son los términos lineales. En este caso es necesario estudiar a F1 y F2 con más atención.

De cálculo sabemos que es posible estudiar una función analizando su mejor aproximación lineal, la cual está dada por el plano tangente para funciones de dos variables, es decir

(10)F1(x0+u,y0+v)F1(x0,y0)+[F1x(x0,y0)]u+[F1y(x0,y0)]v

El lado derecho es la ecuación para el plano tangente a la gráfica de F1 en Y0=(x0,y0). Recordemos que la expresión (10) es también la aproximación polinomial de primer grado de Taylor para F1.

Podemos, entonces, reescribir el sistema (9) como

u=F1(x0,y0)+[F1x(x0,y0)]u+[F1y(x0,y0)]v+ϑF1(11)v=F2(x0,y0)+[F2x(x0,y0)]u+[F2y(x0,y0)]v+ϑF2

Donde ϑF1 y ϑF2 son los términos que forman la diferencia entre el plano tangente y las funciones F1 y F2, respectivamente, y son precisamente los términos que deseamos ignorar al formar la aproximación lineal del sistema.

Como Y0=(x0,y0) es un punto de equilibrio, entonces

F1(x0,y0)=0yF2(x0,y0)=0

Así, las funciones (11) se pueden aproximar como

u[F1x(x0,y0)]u+[F1y(x0,y0)]v(12)v[F2x(x0,y0)]u+[F2y(x0,y0)]v

Si usamos la notación matricial podemos escribir el sistema anterior como

(13)(uv)(F1x(x0,y0)F1y(x0,y0)F2x(x0,y0)F2y(x0,y0))(uv)

La matriz de 2×2 de las derivadas parciales en esta expresión se llama matriz Jacobiana del sistema en Y0=(x0,y0).

(14)J(x0,y0)=(F1x(x0,y0)F1y(x0,y0)F2x(x0,y0)F2y(x0,y0))

Por lo tanto, el sistema linealizado en el punto de equilibrio Y0=(x0,y0) es

(15)(uv)=J(uv)

Una observación importante de este proceso es que para crear el sistema linealizado sólo es necesario conocer las derivadas parciales de las componentes F1 y F2 del campo vectorial en el punto de equilibrio Y0, no es necesario hacer el cambio de variable moviendo el punto de equilibrio al origen. Más adelante veremos ejemplos para mostrar este hecho.

Clasificación de los puntos de equilibrio

El método de linealización tiene como propósito usar un sistema lineal para predecir el comportamiento de las soluciones de un sistema no lineal cerca de un punto de equilibrio. En una vecindad de dicho punto, las soluciones de los sistemas lineales y no lineales están cercanas entre sí, por lo menos en un intervalo corto. Para la mayor parte de los sistemas, la información ganada al estudiar la linearización es suficiente para determinar el comportamiento a largo plazo de las soluciones del sistema no lineal cerca del punto de equilibrio.

Esta vez no seremos explícitos, pero es posible hacer una clasificación de los puntos de equilibrio en base a los valores propios de la matriz Jacobiana (14).

Si todos los valores propios de J son números reales negativos o números complejos con parte real negativa, entonces (u,v)=(0,0) es un nodo atractor para el sistema lineal y todas las soluciones se acercan a (u,v)=(0,0) cuando t. Para el sistema no lineal, las soluciones que empiezan cerca del punto de equilibrio (x,y)=(x0,y0) se acercan a éste cuando t. Por tanto, decimos que (x0,y0) es un nodo atractor. Si los valores propios son complejos, entonces (x0,y0) es un foco estable.

De modo similar, si J sólo tiene valores propios positivos o complejos con parte real positiva, entonces las soluciones con condiciones iniciales cerca del punto de equilibrio (x0,y0) tienden a alejarse de éste cuando t crece. Decimos entonces que para un sistema no lineal el punto (x0,y0) es una nodo repulsor. Si los valores propios son complejos, entonces (x0,y0) es un foco inestable.

Si J tiene un valor propio positivo y uno negativo, entonces el punto de equilibrio (x0,y0) es un punto silla.

Es importante mencionar que esta clasificación de los puntos de equilibrio para los sistemas no lineales no nos dice nada acerca del comportamiento de las soluciones con posiciones iniciales lejanas del punto de equilibrio (x0,y0).

Para concluir con esta entrada realicemos algunos ejemplos.

Ejemplo: Linealizar el siguiente sistema no lineal.

x=x(2xy)y=x+3y2xy

Solución: Comencemos por observar el plano fase de este sistema no lineal.

Plano fase del sistema no lineal.

Nota: Cuando estudiamos las propiedades cualitativas de las trayectorias vimos que es posible esbozar el plano fase de un sistema no lineal si resolvemos la ecuación diferencial

(16)dydx=F2(x,y)F1(x,y)

pero no siempre obtendremos una ecuación sencilla de resolver. En general, aún no sabemos cómo esbozar el plano fase de un sistema no lineal, lo ideal es que nosotros lo pudiéramos hacer a mano. Por ahora sólo nos estaremos apoyando de un programa que nos permite obtenerlo, más adelante veremos cómo esbozarlo no sólo cerca de los puntos de equilibrio.

Continuemos con el ejemplo. Del plano fase podemos observar que los puntos de equilibrio son

Y0=(0,0),Y1=(1,1)yY2=(3,1)

Veamos que es así analíticamente y linealicemos cada uno de ellos.

La función vectorial F(x,y) que define al campo vectorial es

F(x,y)=(x(2xy),x+3y2xy)

Vemos que las funciones F1(x,y) y F2(x,y) son

F1(x,y)=x(2xy)F2(x,y)=x+3y2xy

No es necesario hacer algún tipo de cambio de variable, directamente podemos determinar la matriz Jacobiana para obtener una expresión similar a (15). Calculemos las derivadas parciales de F1(x,y) y F2(x,y).

F1x=22xy,F1y=x,F2x=12y,F2y=32x

Por lo tanto, la matriz Jacobiana es

J(x,y)=(22xyx12y32x)

Por otro lado, determinemos los puntos de equilibrio. Buscamos los valores de x y y, tal que

F1(x,y)=0yF2(x,y)=0

es decir,

x(2xy)=0x+3y2xy=0

De la primer ecuación obtenemos que x=0 y 2xy=0, de este segundo resultado vemos que x=2y, sustituyamos ambos valores en la segunda ecuación.

Para x=0 obtenemos 3y=0, de donde y=0. Por lo tanto, el origen es un punto de equilibrio.

Para x=2y, tenemos

(2y)+3y2(2y)y=y21=0

De donde y1=1 y y2=1, sustituyendo ambas raíces en x=2y, se tiene

x1=21=1x2=2(1)=3

Por lo tanto, los puntos de equilibrio son

Y0=(0,0),Y1=(1,1)yY2=(3,1)

tal como lo indica el plano fase.

Linealicemos el sistema, para ello evaluemos cada punto de equilibrio en la matriz Jacobiana.

J(0,0)=(2013),J(1,1)=(1131),J(3,1)=(3313)

Por lo tanto, alrededor del punto de equilibrio Y0=(0,0) el sistema no lineal puede ser descrito por el sistema lineal

Y=(2013)Y

Plano fase del sistema linealizado en el punto de equilibrio Y0=(0,0).

Alrededor del punto de equilibrio Y0=(1,1) el sistema no lineal puede ser descrito por el sistema lineal

Y=(1131)Y

Plano fase del sistema linealizado en el punto de equilibrio Y0=(1,1).

Y finalmente el sistema no lineal, alrededor del punto de equilibrio Y0=(3,1), puede ser descrito por el sistema lineal

Y=(3313)Y

Plano fase del sistema linealizado en el punto de equilibrio Y0=(3,1).

Por su puesto que se puede aplicar todo lo que sabemos sobre sistemas lineales, podemos determinar los valores propios y los vectores propios para obtener las soluciones generales, podemos también determinar la traza, el determinante, el discriminante y determinar la estabilidad de los puntos de equilibrio, etcétera.

Lo que estamos obteniendo es una descripción local del comportamiento de las soluciones del sistema no lineal alrededor de los puntos de equilibrio.

Una aclaración importante es que los planos fase de los sistemas lineales obtenidos están siendo graficados en el plano UV, es por ello que cada uno se encuentra centrado en el origen, en el origen de dicho plano.

◻

Finalicemos esta entrada con un ejemplo de especies en competencia.

Un modelo de especies en competencia

El sistema Volterra – Lotka es un conocido sistema para especies en competencia y es de la forma

x=x(AxBy+C)(17)y=y(DxEy+F)

donde x y y son mayores o igual a cero y los parámetros AF son siempre positivos.

Consideremos un ejemplo particular del sistema Volterra – Lotka. Sean x y y las poblaciones de dos especies que compiten por recursos, un incremento en cualquier especie tiene un efecto adverso sobre la razón de crecimiento de la otra. El modelo es el siguiente.

x=2x(1x2)xyy=3y(1y3)2xy

Para un valor dado de x, si y se incrementa entonces el término xy ocasiona que x decrezca. De forma similar, para un valor dado de y, si x crece entonces 2xy provoca que y disminuya. Un aumento en la población de cualquiera de las especies ocasiona una disminución en la razón de crecimiento de la otra.

El plano fase del sistema no lineal es

Plano fase del sistema de especies en competencia.

Nota: El plano fase se ilustra para x y y en R, sin embargo, recordemos que el sistema Volterra – Lotka sólo esta definido en el primer cuadrante en el que x,y0, esto debido a que no existen poblaciones negativas. Se puede observar que los cuatro puntos de equilibrio del sistema si pertenecen al primer cuadrante. Sólo consideraremos esta zona.

La funciones F1(x,y) y F2(x,y) son

F1(x,y)=2x(1x2)xyF2(x,y)=3y(1y3)2xy

Calculemos las derivadas parciales.

F1x=22xy,F1y=x,F2x=2y,F2y=32y2x

Por lo tanto, la matriz Jacobiana es

J(x,y)=(22xyx2y32y2x)

Determinemos los puntos de equilibrio.

x(2xy)=0y(3y2x)=0

La primer ecuación se satisface si x=0 o si 2xy=0, y la segunda se cumple si y=0 o si 3y2x=0.

Supongamos primero que x=0. Entonces la ecuación y=0 da un punto de equilibrio en el origen y 3y2x=0 lo proporciona en (0,3).

Digamos ahora que 2xy=0. Entonces la ecuación y=0 da un punto de equilibrio en (2,0) y 3y2x=0 lo da en (1,1).

Por lo tanto, los puntos de equilibrio son

Y0=(0,0),Y1=(0,3),Y2=(2,0)yY3=(1,1)

Consideremos el punto de equilibrio Y3=(1,1), el cual nos indica que es posible para las dos especies coexistir en equilibrio (como las flores y las abejas que se ayudan a sobrevivir y prosperar mutuamente).

Linealizamos el sistema alrededor del punto de equilibrio Y3=(1,1), para ello evaluemos en la matriz Jacobiana.

J(1,1)=(1121)

Por lo tanto, el sistema lineal que describe al sistema no lineal alrededor del punto de equilibrio Y3=(1,1), es

Y=(1121)Y

Los valores propios del sistema son

λ1=1+2yλ2=12

como uno es positivo y otro negativo concluimos que el punto de equilibrio es un punto silla. El plano fase del sistema lineal es

Plano fase linealizado alrededor del punto de equilibrio Y3=(1,1).

Sólo hay dos trayectorias que tienden hacia el punto de equilibrio Y3=(1,1) cuando t crece, de modo que bajo cualquier perturbación en las condiciones iniciales provocará que una especie domine sobre la otra, sin embargo, este modelo de especies es muy simplificado que no esperamos ver soluciones que conduzcan al punto de equilibrio (1,1) en la naturaleza.

De tarea moral linealiza el sistema para el resto de puntos de equilibrio.

◻

Ahora sabemos como estudiar las soluciones de un sistema no lineal alrededor de sus puntos de equilibrio, esto sólo nos dará información local, de manera que no es suficiente si lo que queremos es describir las soluciones para tiempos grandes. En la siguiente entrada veremos una técnica que nos permite describir las soluciones lejos de los puntos de equilibrio.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Considerar los siguientes tres sistemas no lineales:
  • x=2x+y
    y=y+x2
  • x=2x+y
    y=y+x2
  • x=2x+y
    y=yx2

    Los tres sistemas tienen un punto de equilibrio en (0,0). ¿Cuáles dos sistemas tienen planos fase similares cerca de (0,0)?. Justificar la respuesta.
  1. Considerar los siguientes tres sistemas no lineales:
  • x=3sin(x)+y
    y=4x+cos(y)1
  • x=3sin(x)+y
    y=4x+cos(y)1
  • x=3sin(x)+y
    y=4x+3cos(y)3

    Los tres sistemas tienen un punto de equilibrio en (0,0). ¿Cuáles son los dos sistemas que tienen planos fase similares cerca de (0,0)?. Justificar la respuesta.
  1. Dado el siguiente sistema no lineal:

    x=2x+y
    y=y+x2
  • Encontrar el sistema linealizado para el punto de equilibrio (0,0).
  • Clasificar el punto de equilibrio.
  • Esbozar el plano fase para el sistema no lineal cerca del origen (0,0).
  • Repetir los puntos anteriores para el punto de equilibrio (2,4).
  1. Para el modelo de población de especies en competencia

    x=2x(1x2)xy
    y=3y(1y3)2xy

    mostramos que el punto de equilibrio (1,1) es un punto silla.
  • Encontrar el sistema linealizado cerca de cada uno de los otros puntos de equilibrio.
  • Clasificar cada punto de equilibrio.
  • Esbozar el plano fase de cada sistema linealizado.
  • Dar una breve descripción del plano fase cerca de cada punto de equilibrio del sistema no lineal.
  1. Considerar el siguiente sistema no lineal:

    x=y(x2+y2)x
    y=x(x2+y2)y
  • Visualizar el plano fase del sistema.
  • Determinar los puntos de equilibrio.
  • Linealizar el sistema con respecto al punto de equilibrio (0,0).
  • Visualizar el plano fase del sistema linealizado.

    ¿Los planos fase de ambos sistemas alrededor del punto de equilibrio (0,0) son similares?.
    ¿Qué puede estar sucediendo?.

Más adelante…

Una propiedad interesante del campo vectorial

F(x,y)=(F1(x,y),F2(x,y))

es que en un punto el vector F puede ser totalmente vertical si la componente F1 es cero, o bien puede ser totalmente horizontal se la componente F2 es cero. Esta propiedad resultará sumamente útil a la hora de estudiar las trayectorias de un sistema no lineal lejos de un punto de equilibrio.

Al conjunto de puntos en los que alguna de las componentes de la función vectorial F es cero se les denomina nulclinas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Por Omar González Franco

En la vida real, te lo aseguro, no hay algo como el álgebra.
– Fran Lebowitz

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución de sistemas lineales de primer orden. En la entrada anterior desarrollamos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

Label '1' multiply defined

Si A es la matriz de n×n con componentes constantes

Label '2' multiply defined

entonces el sistema lineal a resolver es

Label '3' multiply defined

En la segunda entrada de esta unidad vimos que la solución general del sistema lineal homogéneo

Y=(110110003)Y

es

Y(t)=c1(110)e0t+c2(110)e2t+c3(001)e3t

Y en la entrada anterior vimos que la solución del sistema lineal homogéneo

Y=(4121)Y

es

Y(t)=c1(12)e2t+c2(11)e3t

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notemos que cada vector solución es de la forma

Yi=(k1k2k3)eλit,i=1,2,3

donde ki y λi, i=1,2,3, son constantes. Lo mismo para el segundo caso, con ki, λi, i=1,2, constantes. Esta particularidad nos hace preguntarnos si siempre es posible hallar una solución de la forma

Label '4' multiply defined

como solución general del sistema lineal (3).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunos conceptos de Álgebra Lineal, en particular el de valores y vectores propios.

Valores y vectores propios

Sea T:VW una transformación lineal, en álgebra lineal muchas veces resulta útil encontrar un vector v en el espacio vectorial V tal que Tv y v sean paralelos, es decir, se busca un vector v y un escalar λ, tal que

Label '5' multiply defined

Recordemos que si v0 y λ satisfacen la ecuación (5), entonces λ se denomina un valor característico o valor propio de T y v un vector característico o vector propio de T correspondiente al valor propio λ.

También recordemos que si V tiene dimensión finita, entonces la transformación T se puede representar por una matriz AT, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con Mn×n al conjunto de todas las matrices cuadradas de n×n con componentes reales y constantes.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

Recordemos nuevamente el concepto de matriz inversa.

Para el caso especial A=I, con I la matriz identidad, se tiene que para cualquier vector vV

Label '8' multiply defined

Así, el único valor propio de A es 1 y todo v0V es un vector propio de I.

Otra observación interesante es que cualquier múltiplo de un vector propio de A es también un vector propio de A, con el mismo valor propio.

Label '9' multiply defined

Ecuación característica

Supongamos que λ es un valor propio de A, entonces existe un vector diferente de cero

v=(v1v2vn)0

tal que

Label '10' multiply defined

Reescribiendo esto, se tiene

Label '11' multiply defined

Si A es una matriz de n×n, la ecuación anterior corresponde a un sistema homogéneo de n ecuaciones con las incógnitas v1,v2,,vn. Como se ha supuesto que v0, entonces el sistema no tiene solución trivial y por tanto el determinante de (11) debe ser cero.

Label '12' multiply defined

De manera equivalente, si ocurre que |AλI|0, entonces la única solución a (11) es la trivial v=0, lo que significa que λ no es un valor propio de A.

Estos resultados quedan establecidos en el siguiente teorema.

La relación (13) es muy importante, tanto que merece nombres particulares.

El polinomio P(λ) es del mismo grado que el número de filas y columnas de la matriz A. Si AMn×n, entonces P(λ) es un polinomio de grado n en λ. Por ejemplo, si

Label '14' multiply defined

entonces,

Label '15' multiply defined

y

Label '16' multiply defined

La matriz es de 2×2 y el polinomio característico es un polinomio de grado 2.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado n con coeficientes reales o complejos tiene exactamente n raíces contando multiplicidades y dado que cualquier valor propio de A es una raíz de la ecuación característica de A, se concluye que, contando multiplicidades, toda matriz AMn×n tiene exactamente n valores propios.

Realicemos dos ejemplos sencillos en donde determinemos los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad 1) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(811642083)

Solución: De acuerdo a (13), determinemos la ecuación característica.

|81λ1642083λ|=(81λ)(83λ)16(420)=0

Reordenando obtenemos que la ecuación característica es

λ22λ3=0

y el polinomio característico es

P(λ)=λ22λ3

Resolviendo para λ se obtienen las raíces λ1=1 y λ2=3. Para obtener los vectores propios buscamos un vector v0, tal que se cumpla (11) para cada valor propio λ. Comencemos con λ1.

Caso 1: λ1=1.

(81(1)1642083(1))(v1v2)=(801642084)(v1v2)=(00)

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

80v1+16v2=0420v1+84v2=0

Que en realidad corresponden a una sola.

5v1+v2=0v2=5v1

Si elegimos v1=1, entonces v2=5, así el primer vector propio es

v1=(15)

Caso 2: λ2=3.

(81316420833)(v1v2)=(841642080)(v1v2)=(00)

La ecuación que se obtiene es

21v1+4v2=0v2=214v1

Por conveniencia elegimos v1=4, entonces v2=21, así

v2=(421)

En conclusión, los valores y vectores propios de la matriz A son λ1=1, λ2=3, v1=(15) y v2=(421), respectivamente.

◻

Realicemos el segundo ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

A=(2152)

Solución: Determinemos la ecuación característica.

|2λ152λ|=(2λ)(2λ)+5=0

La ecuación característica es

λ2+1=0

De donde λ1=i y λ2=i. Determinemos los vectores propios.

Caso 1: λ1=i.

(2i152i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2i)v1v2=05v1(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2+i y v2=5, así

v1=(2+i5)

Caso 2: λ2=i

(2+i152+i)(v1v2)=(00)

Las ecuaciones que se obtienen son

(2+i)v1v2=05v1+(2+i)v2=0

Resolviendo el sistema se obtiene que v1=2i y v2=5, así

v2=(2i5)

◻

En caso de requerir conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz se recomienda revisar directamente en el curso de Álgebra Lineal I. Recordemos que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Demostración: Como el caso m=1 se trata de un solo vector es evidente que se satisface el teorema, hagamos el caso m=2, para ello consideremos la combinación lineal

Label '17' multiply defined

Multipliquemos ambos lados de la ecuación por la matriz A.

(18)c1Av1+c2Av2=0

Como Avi=λivi, para i=1,2, entonces

(19)c1λ1v1+c2λ2v2=0

A la ecuación (17) la multiplicamos por λ1 y la restamos de la ecuación (19).

(c1λ1v1+c2λ2v2)(c1λ1v1c2λ1v2)=0

que se reduce a

(20)c2(λ2λ1)v2=0

Como v20 por definición de vector característico y por hipótesis λ1λ2, entonces se concluye que c2=0, sustituyendo en (17) se ve que c1=0, por tanto se cumple el teorema para m=2, es decir, v1 y v2 son linealmente independientes.

Ahora supongamos que el teorema es cierto para m=n, es decir, cualquier conjunto de n vectores propios de A con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de n+1 vectores propios de A con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para m=2, consideremos la siguiente combinación lineal.

(21)c1v1+c2v2++cn+1vn+1=0

Multipliquemos por A en ambos lados.

(22)c1Av1+c2Av2++cn+1Avn+1=0

Aplicando Avi=λiv1 para i=1,2,3,,n+1, se tiene

(23)c1λ1v1+c2λ2v2++cn+1λn+1vn+1=0

Si se multiplica ambos lados de la ecuación (21) por λ1 y se resta de (23), se obtiene

(24)c2(λ2λ1)v2+c3(λ3λ1)v3++cn+1(λn+1λ1)vn+1=0

Pero v2,v3,,vn+1 son vectores propios de A con valores propios distintos λ2,λ3,,λn+1, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes, así que

c2(λ2λ1)=0,c3(λ3λ1)=0,,cn+1(λn+1λ1)=0

Como los valores propios son distintos entre sí, entonces necesariamente

c2=c3==cn+1=0

Con este resultado la ecuación (21) obliga a que c1 sea cero. Por lo tanto, v1,v2,v3,,vn+1 son linealmente independientes. De esta manera queda demostrado el teorema.

◻

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (4).

Y(t)=(k1k2kn)eλt=Keλt

Si derivamos este vector, se obtiene

(25)Y=Kλeλt

Sustituyamos en el sistema homogéneo Y=AY.

(26)Kλeλt=AKeλt

Si dividimos entre eλt y reordenamos, se tiene

AK=λK

o bien,

AKλK=0

Debido a que K=IK, con I la matriz identidad, la última expresión se puede escribir como

(27)(AλI)K=0

Si A es la matriz dada en (2), entonces la ecuación matricial (27) es equivalente a las n ecuaciones algebraicas simultáneas

(a11λ)k1+a12k2++a1nkn=0a21k1+(a22λ)k2++a2nkn=0(28)an1k1+an2k2++(annλ)kn=0

Si queremos encontrar soluciones Y(t) como (4), necesitamos primero encontrar una solución no trivial del sistema (28), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

(29)|AλI|=0

Esta ecuación polinomial corresponde a la ecuación característica de la matriz A. Sus soluciones son los valores propios de A. Una solución K0 de (27) correspondiente a un valor propio λ es el vector propio de A.

La ecuación (29) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución de (3).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general del sistema lineal (3).

Demostración: Definamos las funciones

Y1(t)=eλ1tK1,Y2(t)=eλ2tK2,,Yn(t)=eλntKn

Notemos que para la i-ésima función Yi(t)=eλitKi se cumple lo siguiente.

(32)Yi=eλit(λiKi)=eλit(AKi)=AYi

En donde se hecho uso de la relación (6). Esto nos muestra que Yi(t) es solución del sistema Y=AY para cada i=1,2,,n. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

W(Y1,Y2,,Yn)=|eλ1tK1eλ2tK2eλntKn|(33)=e(λ1+λ2++λn)t|K1K2Kn|

Como la exponencial nunca se hace cero y por hipótesis los vectores K1,K2,,Kn son linealmente independientes, es decir, el determinante nunca es cero

(34)|K1K2Kn|0

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

S={eλ1tK1,eλ2tK2,,eλntKn}

es un conjunto fundamental de soluciones del sistema Y=AY y la solución general es

Y(t)=c1eλ1tK1+c2eλ2tK2++cneλntKn

con c1,c2,,cn constantes arbitrarias.

◻

En la siguiente entrada aplicaremos todo esto en el desarrollo de un nuevo método de resolución de sistemas lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • A=(622019262)
  • A=(250520001)
  1. Demostrar que para cualesquiera números reales α y β, la matriz A=(αββα) tiene valores propios α±iβ.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar lo siguiente:
  • Demostrar que A1 (la matriz inversa de A) existe si y sólo si λ1,λ2,,λn son todos distintos de cero.
  • Si A1 existe, demostrar que los valores propios de A1 son 1λ1,1λ2,,1λn.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que la matriz AαI tiene valores propios λ1α,λ2α,,λnα.
  1. Suponer que la matriz A tiene valores propios λ1,λ2,,λn. Demostrar que los valores propios de Am son λ1m,λ2m,,λnm para m=1,2,3,.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como indique el exponente, por ejemplo
    A5=AAAAA

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios de la matriz que conforma al sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma distinta de obtener la solución de los sistemas lineales homogéneos Y=AY.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Propiedades del conjunto de soluciones a un sistema lineal de ecuaciones de primer orden

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio de los sistemas de ecuaciones diferenciales de primer orden x˙1=F1(t,x1,x2,,xn)x˙2=F2(t,x1,x2,,xn)x˙n=Fn(t,x1,x2,,xn) donde revisamos las principales definiciones y enunciamos el teorema de existencia y unicidad correspondiente a sistemas de primer orden y sus problemas de condición inicial. Es momento ahora de estudiar las principales propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden, las cuales se comportan de una manera bastante similar al conjunto de soluciones a una ecuación de segundo orden lineal que revisamos en la unidad anterior.

Iniciaremos revisando al conjunto de soluciones al sistema lineal homogéneo X˙=AX el cual cumple el principio de superposición, es decir, si tenemos n soluciones, digamos X1(t),X2(t),,Xn(t), entonces cualquier combinación lineal de estas también lo será. Si recuerdas tus cursos de Álgebra Lineal, esta última propiedad nos dice que el conjunto de soluciones es cerrado bajo la suma y producto por escalar usuales definidos para matrices. Con estas operaciones, veremos que el conjunto de soluciones al sistema lineal homogéneo forma un espacio vectorial.

Posteriormente definiremos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, el cual es similar más no igual al Wronskiano que definimos para ecuaciones lineales de segundo orden. En la tarea moral demostrarás la relación que tienen estos dos Wronskianos.

Si hablamos del Wronskiano y del conjunto de soluciones como un espacio vectorial, debemos hablar también de dependencia e independencia lineal entre las soluciones al sistema. Además, demostraremos que si el Wronskiano no se anula entonces el subconjunto de soluciones es linealmente independiente. Además si lo último ocurre podremos expresar cualquier solución como una combinación lineal de las soluciones linealmente independientes. Con estos conceptos podremos definir a la matriz fundamental de soluciones del sistema, la cual revisaremos más a detalle en entradas posteriores.

Terminaremos revisando el caso no homogéneo X˙=AX+Q demostrando que su solución general será la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

El espacio vectorial del conjunto de soluciones a un sistema lineal homogéneo

En el primer video probamos el principio de superposición de soluciones al sistema lineal homogéneo. Además, vemos que el conjunto de soluciones al sistema forma un espacio vectorial con la suma y producto por escalar usuales para matrices.

El Wronskiano de un subconjunto de soluciones e independencia lineal

Definimos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, así como los conceptos de dependencia e independencia lineal de soluciones. Probamos un importante teorema que relaciona estos dos conceptos y nos dice cómo se ve la solución general al sistema. Finalizamos definiendo la matriz fundamental de soluciones del sistema.

Solución general al sistema lineal no homogéneo

Finalizamos la entrada demostrando que la solución general al sistema lineal no homogéneo es la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿El conjunto de soluciones a un sistema lineal no homogéneo forma un espacio vectorial con las operaciones usuales de matrices?
  • Prueba que X1(t)=(100);X2(t)=(t20);X3(t)=(t2t0) son linealmente independientes en R.
  • Sean X1(t),X2(t),,Xn(t) soluciones al sistema X˙=AX en el intervalo [a,b]. Demuestra que W[X1,X2,,Xn](t)=0t[a,b], ó W[X1,X2,,Xn](t)0t[a,b].
  • Considera el sistema lineal X˙=(0110)X. Prueba que X1(t)=(etet);X2(t)=(etet) son soluciones al sistema. Además prueba que son linealmente independientes en R y por lo tanto forma una matriz fundamental de soluciones al sistema.
  • Considera la ecuación y¨+p(t)y˙+q(t)y=0 y su sistema de ecuaciones correspondiente X˙=(01q(t)p(t))X. Prueba que si X1(t), X2(t) son soluciones linealmente independientes al sistema de ecuaciones, y si y1(t), y2(t) forman un conjunto fundamental de soluciones a la ecuación de segundo orden, entonces se satisface la identidad W[y1,y2](t)=cW[X1,X2](t) para alguna constante c0.

Más adelante

En la siguiente entrada comenzaremos a resolver algunos sistemas lineales bastante sencillos. El método que estudiaremos será el de eliminación de variables, el cual consiste en eliminar variables dependientes hasta quedarnos con una ecuación diferencial de orden superior. Resolviendo esta última ecuación podremos encontrar la solución general al sistema original. Este método funciona para sistemas lineales con coeficientes constantes.

¡Hasta la próxima!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Sistemas de ecuaciones lineales y sistemas homogéneos asociados

Por Julio Sampietro

Introducción

En esta sección damos un primer acercamiento al concepto de sistemas de ecuaciones lineales. Este es un concepto de fundamental importancia en muchas áreas de las matemáticas, como las ecuaciones diferenciales o incluso la geometría algebraica.

Los sistemas de ecuaciones lineales nos son familiares. Desde la educación secundaria se aprende a resolver ecuaciones «de 2×2», y más adelante «de 3×3». Estos sistemas también aparecen en cursos de la licenciatura, como geometría analítica. Sin embargo, es en un curso de álgebra lineal que se estudian con toda generalidad. Las herramientas de esta área de las matemáticas permiten determinar si un sistema de ecuaciones lineales tiene solución y, en caso de que sí, ver cómo se ven todas las soluciones.

Como veremos a continuación, un sistema de ecuaciones lineales se puede ver en términos de matrices. Esta conexión es fundamental. La información acerca de una matriz nos permite obtener información acerca del sistema de ecuaciones lineales asociado. A la vez, la información sobre un espacio o matriz se puede determinar a partir de la resolución de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Una ecuación lineal en variables x1,,xn es una ecuación de la forma

a1x1++anxn=b,

donde a1,,an,bF son escalares dados y n es un entero positivo. Las incógnitas x1,,xn suponen ser elementos de F.

Un sistema de ecuaciones lineales en las variables x1,,xn es una familia de ecuaciones lineales, usualmente escrito como

{a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm.

Aquí de nuevo los aij y los bi son escalares dados. Resolver un sistema de ecuaciones lineales consiste en describir todos los posibles valores que pueden tener x1,,xn de modo que todas las ecuaciones anteriores se satisfagan simultáneamente.

La notación que usamos no es mera coincidencia y nos permite describir de manera mucho más concisa el sistema: Si X es un vector columna con entradas x1,,xn, A es la matriz en Mm,n(F) con entradas [aij] y b es un vector columna en Fm con entradas b1,,bm entonces el sistema se reescribe como

AX=b.

Puedes verificar esto usando la definición de A como transformación lineal y comparando los vectores en ambos lados de la igualdad entrada a entrada. Resolver el sistema se traduce entonces a responder cómo son todos los vectores X en Fn que satisfacen la igualdad anterior.

Ejemplo. A continuación tenemos un sistema de ecuaciones en tres variables (o incógnitas) x1, x2 y x3:

{3x12x2+7x3=54x1+3x3=72x1+x27x3=1x1+3x2=8.

Si tomamos al vector b=(5718) en R4, al vector de incógnitas X=(x1x2x3) y a la matriz A=(327403217130), entonces el sistema de ecuaciones lineales consiste exactamente en determinar aquellos vectores X en R3 tales que AX=b.

También podríamos describir nuestro sistema en términos solo de vectores. Recordando un resultado visto en la entrada de producto de matrices, si C1,,Cn son las columnas de A, vistos como vectores columna en Fm, el sistema es equivalente a

x1C1+x2C2++xnCn=b.

Sistemas de ecuaciones lineales homogéneos

Hay un tipo de sistemas de ecuaciones lineales muy especiales: aquellos en los que b=0. Son tan importantes, que tienen un nombre especial.

Definición.

  1. El sistema de ecuaciones lineales AX=b se dice homogéneo si b=0 (es decir si b1=b2==bm=0).
  2. Dado un sistema AX=b, el sistema lineal homogéneo asociado es el sistema AX=0.

Así, un sistema es homogéneo si es de la forma AX=0 para alguna matriz A.

Ejemplo. Considera el siguiente sistema de ecuaciones lineales:

{2x+3yz=15x+8z=0x+y=1.

Este es un sistema de ecuaciones que en representación matricial se ve así:

(231508110)(xyz)=(101).

Como el vector en el lado derecho de la igualdad no es el vector cero, entonces este no es un sistema homogéneo. Sin embargo, tiene asociado el siguiente sistema lineal homogéneo:

(231508110)(xyz)=(000).

Para la resolución de sistemas lineales en general, el sistema homogéneo asociado juega un papel crucial gracias al siguiente resultado, que nos dice esencialmente que para resolver un sistema AX=b basta con encontrar un vector solución X0 y resolver el sistema homogéneo asociado.

Proposición. (Principio de superposición) Sea AMm,n(F) y bFm. Sea SFn el conjunto de soluciones del sistema homogéneo asociado AX=0. Si el sistema AX=b tiene una solución X0, entonces el conjunto de soluciones del sistema AX=b no es más que

X0+S={X0+ssS}.

Demostración: Por hipótesis, AX0=b. Ahora al sustituir, AX=b si y sólo si AX=AX0, o bien A(XX0)=0. Es decir, un vector X es solución de AX=b si y sólo si XX0 es solución de AY=0, de otra manera, si y sólo si XX0S. Pero esto último es equivalente a decir que existe sS tal que XX0=s, luego X=X0+sX0+S. Esto prueba el resultado.

◻

Consistencia de sistemas lineales

Definición. Un sistema lineal es dicho consistente si tiene al menos una solución. Se le llama inconsistente si no es consistente (es decir, si no existe una solución).

Presentamos una última definición para esta entrada.

Definición.

  1. Dos sistemas lineales se dicen equivalentes si tienen el mismo conjunto de soluciones
  2. Sean A y B dos matrices del mismo tamaño. Si los sistemas AX=0 y BX=0 son equivalentes, escribiremos AB.

Ejemplo. Un ejemplo clásico de un sistema inconsistente es

{x1=0x1=1

o bien

{x12x2=12x2x1=0.

Observación. Observamos que todo sistema homogéneo siempre es consistente, ya que el vector cero (cuyas coordenadas son todas cero) satisface el sistema. A esta solución la conocemos como solución trivial. Se sigue de la proposición que un sistema consistente AX=b tiene una única solución si y sólo si el sistema homogéneo asociado tiene como única solución la solución trival.

Más adelante

El principio de superposición dice que para entender las soluciones de los sistemas lineales de la forma AX=b, basta con entender a los homogéneos, es decir, los de la forma AX=0.

Nuestro siguiente paso será ver cómo podemos entender las soluciones de los sistemas lineales homogéneos. Para ello, tenemos que hablar de los sistemas que corresponden a matrices en forma escalonada reducida. La ventaja de estos sistemas es que sus soluciones son muy fáciles de entender, y para cualquier sistema de ecuaciones AX=0, hay uno de la forma AredX=0, con Ared una matriz escalonada reducida, y equivalente a A.

Más adelante, ya que tengamos a nuestra disposición herramientas de determinantes, hablaremos de otra forma en la que se pueden resolver sistemas de ecuaciones lineales usando la regla de Cramer.

Tarea moral

  • Muestra que el sistema {x12x2=12x2x1=0.
    es inconsistente. Para ello, puedes proceder por contradicción, suponiendo que existe una solución.
  • Rescribe el primer ejemplo de sistemas de ecuaciones lineales en términos de vectores.
  • Sea b un vector en Fn y In la matriz identidad en Mn(F). ¿Cómo se ve de manera explícita el sistema de ecuaciones (2In)X=b? ¿Cuáles son todas sus soluciones?
  • Sean A,B matrices de tamaño n×n tales que el sistema ABX=0 solo tiene como solución la solución trivial. Demuestre que el sistema BX=0 también tiene como única solución a la solución trivial.
  • Sea AM2(C) y considere el sistema homogéneo AX=0. Demuestre que son equivalentes:
    1. El sistema tiene una única solución, la solución trivial.
    2. A es invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

v1=(1,x,0,1),v2=(0,1,2,1),v3=(1,1,1,1)

en R4. Prueba que para cualquier elección de xR, los vectores v1,v2,v3 son linealmente independientes.

Solución. Sea A la matriz cuyas columnas son v1,v2,v3, es decir,

A=(101x11021111).

Sabemos que v1,v2,v3 son linealmente independiente si y sólo si dim(span(v1,v2,v3))=3, ya que rank(A)=3, y eso es equivalente (por la clase del lunes) a demostrar que A tiene una submatriz de 3×3 invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

|101021111|=1,

lo que implica que es invertible, y por lo tanto v1,v2,v3 son vectores linealmente independientes.

◻

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre R o sobre C. Como RC, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en R se cumplen en C. En este caso particular, si las soluciones de una matriz en Mm,n(R) son soluciones de la misma matriz pero vista como elemento en Mm,n(C). El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea AMm,n(F) y sea F1 un campo contenido en F. Consideremos el sistema lineal AX=0. Si el sistema tiene una solución no trivial en F1n, entonces tiene una solución no trivial en Fn.

Demostración. Dado que el sistema tiene una solución no trivial en F1n, r:=rank(A)<n vista como elemento en Mm,n(F1). Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a A como elemento de Mm,n(F1) o de Mm,n(F). Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de Fn de dimensión nr>0. Por lo tanto, el sistema AX=0 tiene una solución no trivial en Fn.

◻

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea Sa el siguiente sistema lineal:

x2y+z=13x+2y2z=22xy+az=3.

Encuentra los valores de a para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como AX=b donde

A=(12132221a)yb=(123).

Notemos que

|12132221a|=8a1,

entonces si a1/8, A es invertible, y por lo tanto rank(A)=3, mientras que si a=1/8, A no es invertible y rank(A)=2 ya que la submatriz es invertible

|1232|=8.

Además, si la matriz (A,b) es igual a

(1211322221a3),

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, rank(A,b)=3.

Aplicando el Teorema de Rouché-Capelli, para a=1/8, el sistema AX=b no tiene soluciones. También podemos concluir que como rank(A)=3 para todo a1/8, el sistema tiene exactamente una solución. (Y AX=b nunca tiene infinitas soluciones).

Problema 3. Sean a,b,c números reales dados. Resuelve el sistema lineal

(b+c)x+by+cz=1ax+(a+c)y+cz=1ax+by+(a+b)z=1.

Solución. La matriz del sistema es

A=(b+cbcaa+ccaba+b).

No es difícil ver que det(A)=4abc. Si abc0, usando la regla de Cramer, la única solución al sistema está dada por

x=|1bc1a+cc1ba+b|4abc,y=|b+c1ca1ca1a+b|4abc

y=|b+cb1aa+c1ab1|4abc,

resolviendo los determinantes obtenemos que

x=a2(bc)24abc,y=b2(ac)24abc,z=c2(ab)24abc.

Ahora, si abc=0, entonces A no es invertible (rank(A)<3). El sistema es consistente si y sólo si rank(A)=rank(A,b).

Sin pérdida de generalidad, decimos que a=0 (pues abc=0). Esto reduce el sistema a

(b+c)x+by+cz=1c(y+z)=1b(y+z)=1.

El sistema es consistente si b=c y distintos de cero. En este caso, tenemos que b(2x+y+z)=1 y b(y+z)=1, implicando x=0, y+z=1/b. De manera similar, obtenemos las posibles soluciones si b=0 o si c=0.

Resumiendo:

  • Si abc0, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) a=0 y b=c0; caso 2) b=0 y a=c0; caso 3) c=0 y a=b0, tenemos infinitas soluciones descritas como, para todo wR: caso 1) (0,w,1/bw); caso 2) (w,0,1/aw); caso 3) (w,1/aw,0).
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para a,b,c, el sistema no es consistente.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»