Archivo de la etiqueta: Sistemas de primer orden

Ecuaciones Diferenciales I – Videos: Funciones de Lyapunov

Introducción

En la entrada anterior definimos a los sistemas hamiltonianos, que son aquellos que tienen la forma $$\begin{array}{rcl} \dot{x} & = & \frac{\partial{H}}{\partial{y}} \\ \dot{y} & = & -\frac{\partial{H}}{\partial{x}} \end{array}$$ para cierta función $H:\mathbb{R}^{2} \rightarrow \mathbb{R}$ que llamamos función hamiltoniana. Vimos sus principales propiedades, una de las cuales nos dice que las curvas de nivel de $H$ coinciden con las curvas solución del sistema de ecuaciones. Así, estudiar el plano fase y la estabilidad de los puntos de equilibrio para este tipo de sistemas es bastante sencillo. Lamentablemente no todos los sistemas son hamiltonianos, y por lo tanto no es posible encontrar una función $H$ que sea una cantidad conservada para el sistema.

Comenzaremos estudiando el sistema de ecuaciones que modela el movimiento pendular con fricción. A diferencia del péndulo simple que no tiene fricción, este nuevo sistema no es hamiltoniano. Sin embargo, con ayuda de la función hamiltoniana que define al sistema del péndulo simple, podremos hacer un buen esbozo del plano fase. Esto ocurrirá ya que la derivada de $H$ respecto al tiempo satisface $$\dot{H}(x(t),y(t))\leq 0$$ para cualquier solución $(x(t),y(t))$ del sistema. Esto significa que las curvas solución al sistema recorren las curvas de nivel de $H$ de valores mayores a menores.

Con el análisis realizado para el sistema del péndulo con fricción, lo siguiente que haremos será estudiar un tipo de funciones que comparten las propiedades que satisface la función $H$ antes mencionada, y que llamaremos funciones de Lyapunov. Definiremos formalmente a dichas funciones y veremos sus principales propiedades, entre ellas el teorema de estabilidad de Lyapunov que nos dice que si existe una función de Lyapunov $L:U \rightarrow \mathbb{R}$ definida en una vecindad $U$ de un punto de equilibrio para un sistema de ecuaciones, entonces el punto de equilibrio es estable. Si además $\dot{L}<0$ en $U$, excepto en el punto de equilibrio, entonces este será asintóticamente estable.

¡Vamos a comenzar!

El péndulo con fricción

Comenzamos estudiando el sistema que modela el movimiento de un péndulo con fricción. Revisamos las diferencias y similitudes que mantiene con el sistema para el péndulo simple y esbozamos su plano fase con ayuda de la función hamiltoniana que define al sistema del péndulo simple.

Funciones de Lyapunov

En el video definimos a las funciones de Lyapunov, revisamos algunas propiedades interesantes y demostramos el Teorema de estabilidad de Lyapunov. Mediante un par de ejemplos observamos cuándo aplicar este último teorema.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Esboza el plano fase del sistema $$\begin{array}{rcl} \dot{x} & = & -xy^{4} \\ \dot{y} & = & x^{4}y. \end{array}$$ Verifica que el sistema no es hamiltoniano. Por lo tanto, existen sistemas no hamiltonianos para los cuales existen funciones que son cantidades conservadas. (Por lo dicho en el video, $L(x,y)=x^{4}+y^{4}$ es una cantidad conservada para el sistema).
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & y-2x \\ \dot{y} & = & 2x-y-x^{3}. \end{array}$$ Prueba que el origen es un punto de equilibrio. Demuestra que la función $L(x,y)=(x+y)^{2}+\frac{1}{2}x^{4}$ es una función de Lyapunov para el origen. Determina la estabilidad del punto de equilibrio.
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & y \\ \dot{y} & = & -\sin{x}-y. \end{array}$$ Prueba que los puntos de equilibrio de la forma $(m\pi,0)$ con $m$ par son asintóticamente estables, usando el último teorema del segundo video.
  • Prueba que el origen es el único punto de equilbirio para el sistema $$\begin{array}{rcl} \dot{x} & = & -xy \\ \dot{y} & = & x^{2}-y. \end{array}$$ Considera la función $L:U \rightarrow \mathbb{R}$ definida como $L(x,y)=x^{2}+y^{2}$ donde $U$ es un abierto que contiene a $(0,0)$. Prueba que $L$ es una función de Lyapunov para el punto de equilibrio. ¿Es $(0,0)$ asintóticamente estable?
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & -2x \\ \dot{y} & = & x-y. \end{array}$$ y la función $L(x,y)=c_{1}x^{2}+c_{2}y^{2}$, $c_{1}, c_{2}$ constantes. Encuentra valores para las constantes de tal forma que $L$ sea una función de Lyapunov para el sistema.

Más adelante

En la próxima entrada definiremos un tipo particular de sistemas, los llamados sistemas gradiente. Al igual que los sistemas hamiltonianos, veremos sus principales propiedades. Además, probaremos la existencia de funciones de Lyapunov para algunos puntos de equilibrio en particular de dichos sistemas.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: La exponencial de una matriz

Introducción

En la entrada anterior comenzamos a resolver algunos sistemas de ecuaciones lineales con coeficientes constantes. Sin embargo como pudimos advertir, el método de eliminación de variables funciona para casos muy sencillos con pocas ecuaciones en el sistema. Además, necesitamos previo conocimiento de cómo resolver ecuaciones diferenciales de orden superior pues dicho método nos lleva a resolver una ecuación de este tipo. Por tanto, quisiéramos un nuevo método que nos permita resolver los mismos sistemas y algunos más complejos.

Antes de presentar tal método, lo que quisiéramos conocer es si existe una fórmula explícita para las funciones solución al problema de condición inicial $$\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}$$ con condición inicial $\textbf{X}(t_{0})=\textbf{C}$, que sea muy parecida a la fórmula que encontramos para ecuaciones lineales de primer orden $\frac{dy}{dt}+p(t)y=q(t)$ con condición inicial $y(t_{0})=y_{0}$, la cual es de la forma $$y(t)=e^{-\int p(t) dt} \left[\int e^{\int p(t) dt}q(t)+k_{0}\right]$$ para cierta constante $k_{0}$. Intercambiando las respectivas funciones, nuestra hipotética solución al sistema quedaría de la forma $$\textbf{X}(t)=\textbf{e}^{-\int \textbf{A}(t) dt} \left[\int \textbf{e}^{\int \textbf{A}(t) dt}\textbf{Q}(t)+\textbf{B}\right]$$ con cierta matriz constante $\textbf{B}$. Por supuesto, no sabemos qué significa $\int \textbf{A}(t) dt$ ni mucho menos la exponencial de esta última expresión.

En esta entrada responderemos a estas preguntas. Daremos las definiciones auxiliares necesarias para construir el concepto de exponencial de una matriz cuadrada de tamaño $n \times n$ con coeficientes constantes, que denotaremos por $\textbf{e}^{\textbf{A}}$. Posteriormente, demostraremos las principales propiedades que cumple $\textbf{e}^{\textbf{A}}$, entre ellas su relación con los sistemas de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ con condición inicial $\textbf{X}(0)=\textbf{C}$. Finalmente, dado $t \in \mathbb{R}$ relacionaremos a la exponencial de $t \textbf{A}$ con la matriz fundamental de soluciones al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

¡Manos a la obra!

La exponencial de una matriz

En el primer video de esta entrada definimos la exponencial de una matriz $\textbf{A}$ de tamaño $n \times n$ con coeficientes constantes.

Propiedades de la exponencial de una matriz

En este video probamos las principales propiedades que satisface la exponencial de una matriz, entre ellas la relación que guarda con los sistemas lineales de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ con condición inicial $\textbf{X}(0)=\textbf{C}$.

La exponencial de una matriz $\textbf{A}$ y la matriz fundamental de soluciones de $\dot{\textbf{X}}=\textbf{A}\textbf{X}$

En el último video de esta entrada relacionamos el nuevo concepto de exponencial de una matriz $\textbf{A}$ con la matriz fundamental de soluciones al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que $$\textbf{A}=\begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}.$$ Demuestra que $$\textbf{e}^{t \textbf{A}}=\begin{pmatrix} \cos{t} & \sin{t} \\ -\sin{t} & \cos{t} \end{pmatrix}.$$
  • Considera las matrices $$\textbf{A}=\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} \, \, \, \, \, \, \, \, \, \, ; \, \, \, \, \, \, \, \, \, \, \textbf{B}=\begin{pmatrix} 1 & -1 \\ 0 & 0 \end{pmatrix}.$$ Muestra que $\textbf{A}\textbf{B} \neq \textbf{B}\textbf{A}$, calcula $\textbf{e}^{\textbf{A}+\textbf{B}}$ y $\textbf{e}^{\textbf{A}}e^{\textbf{B}}$. ¿Contradice este ejemplo el teorema 4 del segundo video?
  • Calcula $\textbf{e}^{t \textbf{A}}$ si $$\textbf{A}=\begin{pmatrix} -1 & 0 \\ 0 & 1 \end{pmatrix}.$$
  • Supongamos que $\textbf{A}$ es una matriz diagonal, es decir, una matriz cuyos únicos coeficientes distintos de cero se encuentran en la diagonal. Prueba que $\textbf{e}^{t \textbf{A}}$ es una matriz diagonal.
  • Supongamos que $\textbf{X}_{f}(t)$ es una matriz fundamental de soluciones al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Prueba que $\textbf{e}^{(t-t_{0}) \textbf{A}}=\textbf{X}_{f}(t)\textbf{X}^{-1}_{f}(t_{0})$.

Más adelante

Ahora que hemos definido a la exponencial de una matriz y visto sus principales propiedades, podremos enunciar y demostrar el teorema de existencia y unicidad para sistemas lineales de primer orden con coeficientes constantes. Dividiremos el teorema en dos casos: cuando nuestro sistema es homogéneo, es decir, el sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$; y cuando el sistema es no homogéneo, es decir, de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}$ con su respectiva condición inicial $\textbf{X}(t_{0})=\textbf{C}$.

Esto es lo que haremos en la próxima entrada. ¡No se la pierdan!

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Propiedades del conjunto de soluciones a un sistema lineal de ecuaciones de primer orden

Introducción

En la entrada anterior comenzamos el estudio de los sistemas de ecuaciones diferenciales de primer orden $$\begin{alignedat}{4} \dot{x}_{1} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x}_{2} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x}_{n} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ donde revisamos las principales definiciones y enunciamos el teorema de existencia y unicidad correspondiente a sistemas de primer orden y sus problemas de condición inicial. Es momento ahora de estudiar las principales propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden, las cuales se comportan de una manera bastante similar al conjunto de soluciones a una ecuación de segundo orden lineal que revisamos en la unidad anterior.

Iniciaremos revisando al conjunto de soluciones al sistema lineal homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ el cual cumple el principio de superposición, es decir, si tenemos $n$ soluciones, digamos ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$, entonces cualquier combinación lineal de estas también lo será. Si recuerdas tus cursos de Álgebra Lineal, esta última propiedad nos dice que el conjunto de soluciones es cerrado bajo la suma y producto por escalar usuales definidos para matrices. Con estas operaciones, veremos que el conjunto de soluciones al sistema lineal homogéneo forma un espacio vectorial.

Posteriormente definiremos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, el cual es similar más no igual al Wronskiano que definimos para ecuaciones lineales de segundo orden. En la tarea moral demostrarás la relación que tienen estos dos Wronskianos.

Si hablamos del Wronskiano y del conjunto de soluciones como un espacio vectorial, debemos hablar también de dependencia e independencia lineal entre las soluciones al sistema. Además, demostraremos que si el Wronskiano no se anula entonces el subconjunto de soluciones es linealmente independiente. Además si lo último ocurre podremos expresar cualquier solución como una combinación lineal de las soluciones linealmente independientes. Con estos conceptos podremos definir a la matriz fundamental de soluciones del sistema, la cual revisaremos más a detalle en entradas posteriores.

Terminaremos revisando el caso no homogéneo $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}+ {\textbf{Q}}$$ demostrando que su solución general será la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

El espacio vectorial del conjunto de soluciones a un sistema lineal homogéneo

En el primer video probamos el principio de superposición de soluciones al sistema lineal homogéneo. Además, vemos que el conjunto de soluciones al sistema forma un espacio vectorial con la suma y producto por escalar usuales para matrices.

El Wronskiano de un subconjunto de soluciones e independencia lineal

Definimos el Wronskiano de un subconjunto de soluciones al sistema lineal homogéneo, así como los conceptos de dependencia e independencia lineal de soluciones. Probamos un importante teorema que relaciona estos dos conceptos y nos dice cómo se ve la solución general al sistema. Finalizamos definiendo la matriz fundamental de soluciones del sistema.

Solución general al sistema lineal no homogéneo

Finalizamos la entrada demostrando que la solución general al sistema lineal no homogéneo es la suma de la solución general al sistema homogéneo y una solución particular al sistema no homogéneo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿El conjunto de soluciones a un sistema lineal no homogéneo forma un espacio vectorial con las operaciones usuales de matrices?
  • Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} t \\ 2 \\ 0 \end{pmatrix} ; \, \textbf{X}_{3}(t)=\begin{pmatrix} t^{2} \\ t \\ 0 \end{pmatrix}$$ son linealmente independientes en $\mathbb{R}.$
  • Sean ${\textbf{X}_{1}}(t), {\textbf{X}_{2}}(t),…,{\textbf{X}_{n}}(t)$ soluciones al sistema $$\dot{\textbf{X}}={\textbf{A}}{\textbf{X}}$$ en el intervalo $[a,b]$. Demuestra que $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t)=0 \, \, \forall t \in [a,b]$, ó $W[{\textbf{X}_{1}}, {\textbf{X}_{2}},…,{\textbf{X}_{n}}](t) \neq 0 \, \, \forall t \in [a,b]$.
  • Considera el sistema lineal $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 \\ -1 & 0 \end{pmatrix} \textbf{X}.$$ Prueba que $$\textbf{X}_{1}(t)=\begin{pmatrix} e^{t} \\ -e^{t} \end{pmatrix} ; \, \textbf{X}_{2}(t)=\begin{pmatrix} e^{-t} \\ e^{-t} \end{pmatrix}$$ son soluciones al sistema. Además prueba que son linealmente independientes en $\mathbb{R}$ y por lo tanto forma una matriz fundamental de soluciones al sistema.
  • Considera la ecuación $$\ddot{y}+p(t)\dot{y}+q(t)y=0$$ y su sistema de ecuaciones correspondiente $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -q(t) & -p(t) \end{pmatrix} \textbf{X}.$$ Prueba que si $\textbf{X}_{1}(t)$, $\textbf{X}_{2}(t)$ son soluciones linealmente independientes al sistema de ecuaciones, y si $y_{1}(t)$, $y_{2}(t)$ forman un conjunto fundamental de soluciones a la ecuación de segundo orden, entonces se satisface la identidad $$W[y_{1}, y_{2}](t)=cW[\textbf{X}_{1}, \textbf{X}_{2}](t)$$ para alguna constante $c \neq 0$.

Más adelante

En la siguiente entrada comenzaremos a resolver algunos sistemas lineales bastante sencillos. El método que estudiaremos será el de eliminación de variables, el cual consiste en eliminar variables dependientes hasta quedarnos con una ecuación diferencial de orden superior. Resolviendo esta última ecuación podremos encontrar la solución general al sistema original. Este método funciona para sistemas lineales con coeficientes constantes.

¡Hasta la próxima!

Entradas relacionadas