Archivo de la etiqueta: Puntos de equilibrio

Cálculo Diferencial e Integral III: Puntos críticos de campos escalares

Por Alejandro Antonio Estrada Franco

Introducción

En las unidades anteriores hemos desarrollado varias herramientas de la teoría de diferenciabilidad que nos permiten estudiar tanto a los campos escalares, como a los campos vectoriales. Hemos platicado un poco de las aplicaciones que esta teoría puede tener. En esta última unidad, profundizamos un poco más en cómo dichas herramientas nos permitirán hacer un análisis geométrico y cuantitativo de las funciones. Es decir, a partir de ciertas propiedades analíticas, hallaremos algunas cualidades de su comportamiento geométrico. En esta entrada estudiaremos una pregunta muy natural: ¿cuándo una función diferenciable alcanza su máximo o su mínimo? Para ello, necesitaremos definir qué quiere decir que algo sea un punto crítico de una función. Esto incluirá a los puntos más altos, los más bajos, local y globalmente y ciertos «puntos de quiebre» que llamamos puntos silla.

Introducción al estudio de los puntos críticos

Si tenemos un campo escalar $f:\mathbb{R}^n\to \mathbb{R}$, en muchas aplicaciones nos interesa poder decir cuándo alcanza sus valores máximos o mínimos. Y a veces eso sólo nos importa en una vecindad pequeña. La siguiente definición hace ciertas precisiones.

Definición. Sea $f:S\subseteq \mathbb{R}^{n}\rightarrow \mathbb{R}$ un campo escalar, y $\bar{a}\in S$.

  • Decimos que $f$ tiene un máximo absoluto (o máximo global) en $\bar{a}$ si $f(\bar{x})\leq f(\bar{a})$ para todo $\bar{x}\in S$. A $f(\bar{a})$ le llamamos el máximo absoluto (o máximo global) de $f$ en $S$.
  • Decimos que $f$ tiene un máximo relativo (o máximo local) en $\bar{a}$ si existe una bola abierta $B_{r}(\bar{a})$ tal que para todo $\bar{x}\in B_{r}(\bar{a})$ $f(\bar{x})\leq f(\bar{a})$.
  • Decimos que $f$ tiene un mínimo absoluto (o mínimo global) en $\bar{a}$ si $f(\bar{x})\geq f(\bar{a})$ para todo $\bar{x}\in S$. A $f(\bar{a})$ le llamamos el mínimo absoluto (o mínimo global) de $f$ en $S$.
  • Decimos que $f$ tiene un mínimo relativo (o mínimo local) en $\bar{a}$ si existe una bola abierta $B_{r}(\bar{a})$ tal que para todo $\bar{x}\in B_{r}(\bar{a})$ $f(\bar{x})\geq f(\bar{a})$.

En cualquiera de las situaciones anteriores, decimos que $f$ tiene un valor extremo (ya sea relativo o absoluto) en $\bar{a}$. Notemos que todo extremo absoluto en $S$ será extremo relativo al tomar una bola $B_{r}(\bar{a})$ que se quede contenida en $S$. Y de manera similar, todo extremo relativo se vuelve un extremo absoluto para la función restringida a la bola $B_{r}(\bar{a})$ que da la definición.

Usualmente, cuando no sabemos nada de una función $f$, puede ser muy difícil, si no imposible estudiar sus valores extremos. Sin embargo, la intuición que tenemos a partir de las funciones de una variable real es que deberíamos poder decir algo cuando la función que tenemos tiene cierta regularidad, por ejemplo, cuando es diferenciable. Por ejemplo, para funciones diferenciables $f:S\subseteq \mathbb{R}\to\mathbb{R}$ quizás recuerdes que si $f$ tiene un valor extremo en $\bar{a}\in S$, entonces $f'(\bar{a})=0$.

El siguiente teorema es el análogo en altas dimensiones de este resultado.

Teorema. Sea $f:S\subseteq \mathbb{R}^n\to \mathbb{R}$ un campo escalar. Supongamos que $f$ tiene un valor extremo en un punto interior $\bar{a}$ de $S$, y que $f$ es diferenciable en $\bar{a}$. Entonces el gradiente de $f$ se anula en $\bar{a}$, es decir, $$\triangledown f(\bar{a})=0.$$

Demostración. Demostraremos el resultado para cuando hay un máximo relativo en $\bar{a}$. El resto de los casos quedan como tarea moral. De la suposición, obtenemos que existe un $r>0$ tal que $f(\bar{x})\leq f(\bar{a})$ para todo $\bar{x}\in B_r(\bar{a})$. Escribamos $\bar{a}=(a_{1},\dots ,a_{n})$.

Para cada $i=1,\dots ,n$ tenemos:

\[ \frac{\partial f}{\partial x_{i}}(\bar{a})=\lim\limits_{\xi \to a_{i}}\frac{f(\xi \hat{e}_{i})-f(\bar{a})}{\xi -a_{i}}. \]

Además, ya que $f$ es diferenciable en $\bar{a}$ también se cumple

\[\lim\limits_{\xi \to a_{i}-}\frac{f(\xi e_{i})-f(a)}{\xi -a_{i}}=\lim\limits_{\xi \to a_{i}+}\frac{f(\xi e_i)-f(a)}{\xi -a_{i}}. \]

Dado que $f$ alcanza máximo en $\bar{a}$ tenemos que $f(\xi \hat{e}_{i})-f(\bar{a})\leq 0$. Para el límite por la izquierda tenemos $\xi-a_{i}\leq 0$, por lo tanto, en este caso

\[ \lim\limits_{\xi \to a_{i}-}\frac{f(\xi e_{i})-f(\bar{a})}{\xi -a_{i}}\geq 0.\]

Para el límite por la derecha tenemos $\xi-a_{i}\geq 0$, por lo cual

\[ \lim\limits_{\xi \to a_{i}+}\frac{f(\xi \hat{e}_{i})-f(\bar{a})}{\xi -a_{i}}\leq 0.\]

Pero la igualdad entre ambos límites dos dice entonces que

\[\frac{\partial f}{\partial x_{i}}(\bar{a}) =\lim\limits_{\xi \to a_{i}-}\frac{f(\xi \hat{e}_{i})-f(\bar{a})}{\xi -a_{i}}=0. \]

Por lo cual cada derivada parcial del campo vectorial es cero, y así el gradiente también lo es.

$\square$

Parece ser que es muy importante saber si para un campo vectorial su gradiente se anula, o no, en un punto. Por ello, introducimos dos nuevas definiciones.

Definición. Sea $f:S\subseteq \mathbb{R}^n \to \mathbb{R}$ un campo escalar diferenciable en un punto $\bar{a}$ en $S$. Diremos que $f$ tiene un punto estacionario en $\bar{a}$ si $\triangledown f(\bar{a})=0$.

Definición. Sea $f:S\subseteq \mathbb{R}^n \to \mathbb{R}$ un campo escalar y tomemos $\bar{a}$ en $S$. Diremos que $f$ tiene un punto crítico en $\bar{a}$ si o bien $f$ no es diferenciable en $\bar{a}$, o bien $f$ tiene un punto estacionario en $\bar{a}$.

Si $f$ tiene un valor extremo en $\bar{a}$ y no es diferenciable en $\bar{a}$, entonces tiene un punto crítico en $\bar{a}$. Si sí es diferenciable en $\bar{a}$ y $\bar{a}$ es un punto interior del dominio, por el teorema de arriba su gradiente se anula, así que tiene un punto estacionario y por lo tanto también un punto crítico en $\bar{a}$. La otra opción es que sea diferenciable en $\bar{a}$, pero que $\bar{a}$ no sea un punto interior del dominio.

Observación. Los valores extremos de $f$ se dan en los puntos críticos de $f$, o en puntos del dominio que no sean puntos interiores.

Esto nos da una receta para buscar valores extremos para un campo escalar. Los puntos candidatos a dar valores extremos son:

  1. Todos los puntos del dominio que no sean interiores.
  2. Aquellos puntos donde la función no sea diferenciable.
  3. Los puntos la función es diferenciable y el gradiente se anule.

Ya teniendo a estos candidatos, hay que tener cuidado, pues desafortunadamente no todos ellos serán puntos extremos. En la teoría que desarrollaremos a continuación, profundizaremos en el entendimiento de los puntos estacionarios y de los distintos comportamientos que las funciones de varias variables pueden tener.

Intuición geométrica

Para entender mejor qué quiere decir que el gradiente de un campo escalar se anuele, pensemos qué pasa en términos geomértricos en un caso particular, que podamos dibujar. Tomemos un campo escalar $f:\mathbb{R}^2\to \mathbb{R}$. La gráfica de la función $f$ es la superficie en $\mathbb{R}^{3}$ que se obtiene al variar los valores de $x,y$ en la expresión $(x,y,f(x,y))$.

Otra manera de pensar a esta gráfica es como un conjunto de nivel. Si definimos $F(x,y,z)=z-f(x,y)$, entonces la gráfica es precisamente el conjunto de nivel para $F$ en el valor $0$, pues precisamente $F(x,y,z)=0$ si y sólo si $z=f(x,y)$.

Si $f$ alcanza un extremo en $(a,b)$, entonces $\triangledown f(a,b)=0$ por lo cual $\triangledown F (a,b,f(a,b))=(0,0,1)$. Así, el gradiente es paralelo al eje $z$ y por lo tanto es un vector normal a la superficie $F(x,y,z)=0$. Esto lo podemos reinterpretar como que el plano tangente a la superficie citada en el punto $(a,b,f(a,b))$ es horizontal.

Puntos silla

Cuando la función es diferenciable y el gradiente se anula, en realida tenemos pocas situaciones que pueden ocurrir. Sin embargo, falta hablar de una de ellas. Vamos a introducirla mediante un ejemplo.

Ejemplo. Consideremos $f(x,y)=xy$. En este caso

$$\frac{\partial f}{\partial x}=y\hspace{0.5cm}\textup{y}\hspace{0.5cm}\frac{\partial f}{\partial y}=x.$$

Si $(x,y)=(0,0)$, entonces las parciales se anulan, así que el gradiente también. Por ello, $(0,0)$ es un punto estacionario (y por lo tanto también crítico). Pero veremos a continuación que $f(0,0)=0$ no es máximo relativo ni mínimo relativo.

Tomemos $r>0$ abitrario y $\varepsilon= r/\sqrt{8}$. El punto $(\varepsilon ,\varepsilon)\in B_{r}(0)$ pues $\sqrt{\varepsilon ^{2}+\varepsilon ^{2}}$ es igual a $\sqrt{r^{2}/8\hspace{0.1cm}+\hspace{0.1cm}r^{2}/8}=r/2<r$. Análogamente, tenemos que el punto $(\varepsilon,-\varepsilon)\in B_{r}(0)$. Sin embargo $f(\varepsilon,-\varepsilon)=-r^{2}/8<0$, por lo que $0$ no es un mínimo local, también $f(\varepsilon,\varepsilon)=r^{2}/8>0$, por lo que $0$ tampoco es máximo local. En la Figura 1 tenemos un bosquejo de esta gráfica.

Figura 1

$\triangle$

Los puntos como los de este ejemplo tienen un nombre especial que definimos a continuación.

Definición. Sea $f:S\subseteq \mathbb{R}^n\to\mathbb{R}$ un campo escalar y $\bar{a}$ un punto estacionario de $f$. Diremos que $\bar{a}$ es un punto silla si para todo $r>0$ existen $\bar{u},\bar{v}\in B_{r}(\bar{a})$ tales que $f(\bar{u})<f(\bar{a})$ y $f(\bar{v})>f(\bar{a})$.

Determinar la naturaleza de un punto estacionario

Cuando tenemos un punto estacionario $\bar{a}$ de una función $f:\mathbb{R}^n\to \mathbb{R}$, tenemos diferenciabilidad de $f$ en $\bar{a}$. Si tenemos que la función es de clase $C^2$ en ese punto, entonces tenemos todavía más. La intuición nos dice que probablemente podamos decir mucho mejor cómo se comporta $f$ cerca de $\bar{a}$ y con un poco de suerte entender si tiene algún valor extremo o punto silla ahí, y bajo qué circunstancias.

En efecto, podemos enunciar resultados de este estilo. Por la fórmula de Taylor tenemos que

$$f(\bar{a}+\bar{y})=f(\bar{a})+\triangledown f (\bar{a}) \cdot y + \frac{1}{2}[\bar{y}]^tH(\bar{a})[\bar{y}]+||\bar{y}||^{2}E_{2}(\bar{a},\bar{y}),$$

en donde el error $||\bar{y}||^{2}E_{2}(\bar{a},\bar{y})$ se va a cero conforme $||\bar{y}||\to 0$. Recuerda que aquí $H(\bar{a})$ es la matriz hessiana de $f$ en $\bar{a}$. Como $f:\mathbb{R}^n\to \mathbb{R}$, se tiene que $H(\bar{a})\in M_n(\mathbb{R})$.

Para un punto estacionario $\bar{a}$ se cumple que $\triangledown f(\bar{a})=0$, así que de lo anterior tenemos

\[ f(\bar{a}+\bar{y})-f(\bar{a})=\frac{1}{2}[\bar{y}]^tH(\bar{a})[\bar{y}]+||\bar{y}||^{2}E_{2}(\bar{a},\bar{y}).\]

De manera heurística, dado que $\lim\limits_{||\bar{y}||\to 0}||\bar{y}||^{2}E_{2}(\bar{a},\bar{y})=0$, estamos invitados a pensar que el signo de $f(\bar{a}+\bar{y})-f(\bar{a})$ es el mismo que el la expresión $[\bar{y}]^tH(\bar{a})[\bar{y}]$. Pero como hemos platicado anteriormente, esto es una forma cuadrática en la variable $\bar{y}$, y podemos saber si es siempre positiva, siempre negativa o una mezcla de ambas, estudiando a la matriz hessiana $H(\bar{a})$.

Esta matriz es simétrica y de entradas reales, así que por el teorema espectral es diagonalizable mediante una matriz ortogonal $P$. Tenemos entonces que $P^tAP$ es una matriz diagonal $D$. Sabemos también que las entradas de la diagonal de $D$ son los eigenvalores $\lambda_1,\ldots,\lambda_n$ de $A$ contados con la multiplicidad que aparecen en el polinomio característico.

Teorema. Sea $X$ una matriz simétrica en $M_n(\mathbb{R})$. Consideremos la forma bilineal $\mathfrak{B}(\bar{v})=[\bar{v}]^tX[\bar{v}]$. Se cumple:

  1. $\mathfrak{B}(\bar{v})>0$ para todo $\bar{v}\neq \bar{0}$ si y sólo si todos los eigenvalores de $X$ son positivos.
  2. $\mathfrak{B}(\bar{v})<0$ para todo $\bar{v}\neq \bar{0}$ si y sólo si todos los eigenvalores de $X$ son negativos.

Demostración. Veamos la demostración del inciso 1.

$\Rightarrow )$ Por la discusión anterior, existe una matriz ortogonal $P$ tal que $P^tXP$ es diagonal, con entradas $\lambda_1,\ldots,\lambda_n$ que son los eigenvalores de $X$. Así, en alguna base ortonormal $\beta$ tenemos $$\mathfrak{B}(\bar{v})=\sum_{i=1}^{n}\lambda _{i}a_{i}^{2}$$ donde $\bar{a}=(a_{1},\dots ,a_{n})$ es el vector $\bar{v}$ en la base $\beta$. Si todos los eigenvalores son positivos, claramente $\mathfrak{B}(\bar{v})>0$, para todo $\bar{v}\neq \bar{0}$.

$\Leftarrow )$ Si $\mathfrak{B}(\bar{v})>0$ para todo $\bar{v}\neq \bar{0}$ podemos elegir $\bar{v}$ como el vector $e_k$ de la base $\beta$. Para esta elección de $\bar{v}$ tenemos $\mathfrak{B}(\hat{e_{k}})=\lambda _{k}$, de modo que para toda $k$, $\lambda _{k}>0$.

El inciso $2$ es análogo y deja como tarea moral su demostración.

$\square$

A las formas cuadráticas que cumplen el primer inciso ya las habíamos llamado positivas definidas. A las que cumplen el segundo inciso las llamaremos negativas definidas.

Combinando las ideas anteriores, podemos formalmente enunciar el teorema que nos habla de cómo son los puntos estacionarios en términos de los eigenvalores de la matriz hessiana.

Teorema. Consideremos un campo escalar $f:S\subseteq \mathbb{R}^n\to \mathbb{R}$ de clase $C^2$ en un cierto punto interior $\bar{a}\in S$. Supongamos que $\bar{a}$ es un punto estacionario.

  1. Si todos los eigenvalores de $H(\bar{a})$ son positivos, $f$ tiene un mínimo relativo en $\bar{a}$.
  2. Si todos los eigenvalores de $H(\bar{a})$ son negativos, $f$ tiene un máximo relativo en $\bar{a}$.
  3. Si $H(\bar{a})$ tiene por lo menos un eigenvalor positivo, y por lo menos un eigenvalor negativo, $f$ tiene punto silla en $\bar{a}$.

Antes de continuar, verifica que los tres puntos anteriores no cubren todos los casos posibles para los eigenvalores. ¿Qué casos nos faltan?

Demostración: Definamos la forma bilineal $\mathfrak{B}(\bar{v})=[\bar{v}]^tH(\bar{a})[\bar{v}]$ y usemos el teorema de Taylor para escribir

\[ \begin{equation}\label{eq:taylor}f(\bar{a}+\bar{v})-f(\bar{a})=\frac{1}{2}\mathfrak{B}(\bar{v})+||\bar{v}||^{2}E(\bar{a},\bar{v}) \end{equation} \]

con

\[ \begin{equation}\label{eq:error}\lim\limits_{\bar{v}\to \bar{0}}E(\bar{a},\bar{v})=0. \end{equation} \]

En primer lugar haremos el caso para los eigenvalores positivos. Sean $\lambda _{1},\dots ,\lambda_{n}$ los eigenvalores de $H(\bar{a})$. Sea $\lambda _{*}=\min\{ \lambda _{1},\dots ,\lambda _{n}\}$. Si $\varepsilon <\lambda_{*}$, para cada $i=1,\dots , n$ tenemos $\lambda _{i}-\varepsilon>0$. Además, los números $\lambda _{i}-\varepsilon$ son los eigenvalores de la matriz $H(\bar{a})-\varepsilon I$, la cual es simétrica porque $H(\bar{a})$ lo es. De acuerdo con nuestro teorema anterior la forma cuadrática $[\bar{v}]^t(H(\bar{a})-\varepsilon I)[\bar{v}]$ es definida positiva, y por lo tanto

$$[\bar{v}]^tH(\bar{a})[\bar{v}]>[\bar{v}]^t\varepsilon I [\bar{v}] = \varepsilon ||\bar{v}||^2.$$

Esto funciona para todo $\varepsilon <\lambda _{*}$. Tomando $\varepsilon =\frac{1}{2}\lambda _{*}$ obtenemos $\mathfrak{B}(\bar{v})>\frac{1}{2}||\bar{v}||^2$ para todo $\bar{v}\neq \bar{0}$. Por el límite de \eqref{eq:error} tenemos que existe $r>0$ tal que $|E(\bar{a},\bar{v})|<\frac{1}{4}\lambda _{*}$ para $0<||\bar{v}||<r$. En este caso se cumple

\begin{align*}0&\leq ||\bar{v}||^{2}|E(\bar{a},\bar{v})|\\ &<\frac{1}{4}\lambda _{*}||\bar{v}||^{2}\\ &<\frac{1}{2}\mathfrak{B}(\bar{v}),\end{align*}

Luego por la ecuación \eqref{eq:taylor} tenemos
\begin{align*}
f(\bar{a}+\bar{v})-f(\bar{a})&=\frac{1}{2}\mathfrak{B}(\bar{v})+||\bar{v}||^{2}E(\bar{a},\bar{v})\\
&\geq \frac{1}{2}\mathfrak{B}(\bar{v})-||\bar{v}||^{2}|E(\bar{a},\bar{v})|\\
&>0.
\end{align*}

Esto muestra que $f$ tiene un mínimo relativo en $\bar{a}$ para la vecindad $B_{r}(\bar{a})$.

Para probar la parte $2$ se usa exactamente el mismo proceder sólo que hay que considerar la función $-f$, lo cual quedará hacer como tarea moral.

Revisemos pues la parte del punto silla, la parte $3$. Consideremos $\lambda _{1}$ y $\lambda _{2}$ dos eigenvalores de $H(\bar{a})$ tales que $\lambda _1 <0$ y $\lambda _2 >0$. Pongamos $\lambda _{*}=\min\{ |\lambda _{1}|,|\lambda _{2}|\}$. Notemos que para todo $\varepsilon \in (-\lambda _{*},\lambda _{*})$ se tiene que $\lambda _{1}-\varepsilon$ y $\lambda _{2}-\varepsilon$ son números de signos opuestos y además eigenvalores de la matriz $H(\bar{a})-\varepsilon I$. Tomando vectores en dirección de los eigenvectores $\bar{v}_1$ y $\bar{v}_2$ correspondientes a $\lambda_1$ y $\lambda_2$ notamos que $[\bar{v}](H(\bar{a})-\varepsilon I)[\bar{v}]^{t}$ toma valores positivos y negativos en toda vecindad de $\bar{0}$. Finalmente escojamos $r>0$ de tal manera que $|E(\bar{a},\bar{v})|<\frac{1}{4}\varepsilon$ cuando $0<||\bar{v}||<r$. Usando las mismas desigualdades del la parte $1$, vemos que para $\bar{v}$ en la dirección de $\bar{v}_1$ la diferencia $f(\bar{a}+\bar{v})-f(\bar{a})$ es negativa y para $\bar{v}$ en la dirección de $\bar{v}_2$ es positiva. Así, $f$ tiene un punto silla en $\bar{a}$.

$\square$

Hay algunas situaciones en las que el teorema anterior no puede ser usado. Por ejemplo, cuando los eigenvalores de $H(\bar{a})$ son todos iguales a cero. En dicho caso, el teorema no funciona y no nos dice nada de si tenemos máximo, mínimo o punto silla, y de hecho cualquiera de esas cosas puede pasar.

Ejemplos de análisis de puntos críticos

Ejemplo. Tomemos el campo escalar $f(x,y)=x^{2}+(y-1)^{2}$ y veamos cómo identificar y clasificar sus puntos estacionarios. Lo primero por hacer es encontrar el gradiente, que está dado por $$\triangledown f(x,y)=(2x,2(y-1)).$$ El gradiente se anula cuando $2x=0$ y $2(y-1)=0$, lo cual pasa si y sólo si $x=0$ y $y=1$. Esto dice que sólo hay un punto estacionario. Para determinar su naturaleza, encontraremos la matriz hessiana en este punto, así como los eigenvalores que tiene. La matriz hessiana es

\[ H(\bar{v})=\begin{pmatrix} \frac{\partial ^{2}f}{\partial x^{2}}(\bar{v}) & \frac{\partial ^{2}f}{\partial y \partial x}(\bar{v}) \\ \frac{\partial ^{2}f}{\partial x \partial y}(\bar{v}) & \frac{\partial ^{2}f}{\partial y^{2}}(\bar{v}) \end{pmatrix}=\begin{pmatrix} 2 & 0 \\ 0 & 2 \end{pmatrix}.\]

Notemos que la matriz hessiana ya está diagonalizada y es la misma para todo $\bar{v}$. En particular, en $(0,1)$ sus valores propios son $2$ y $2$, que son positivos. Así, la matriz hessiana es positiva definida y por lo tanto tenemos un mínimo local en el punto $(0,1)$. Esto lo confirma visualmente la gráfica de la Figura 2.

$\triangle$

Figura 2

Ejemplo. Veamos cómo identificar y clasificar los puntos estacionarios del campo escalar $f(x,y)=x^{3}+y^{3}-3xy.$ Localicemos primero los puntos estacionarios. Para ello calculemos el gradiente $\triangledown f(x,y)=(3x^{2}-3y,3y^{2}-3x)$. Esto nos dice que los puntos estacionarios cumplen el sistema de ecuaciones

\[\left\{ \begin{matrix} 3x^2-3y=0\\ 3y^2-3x=0.\end{matrix} \right.\]

Puedes verificar que las únicas soluciones están dadas son los puntos $(0,0)$ y $(1,1)$ (Sugerencia. Multiplica la segunda ecuación por $x$ y suma ambas). La matriz hessiana es la siguiente:

\[ H(x,y)=\begin{pmatrix} 6x & -3 \\ -3 & 6y \end{pmatrix}.\]

En $(x,y)=(0,0)$ la matriz hessiana es $\begin{pmatrix} 0 & -3 \\ -3 & 0 \end{pmatrix}$. Para encontar sus eigenvalores calculamos el polinomio característico

\begin{align*} \det(H(0,0)-\lambda I)&=\begin{vmatrix} -\lambda & -3 \\ -3 & -\lambda \end{vmatrix} \\ &= \lambda ^{2}-9.\end{align*}

Las raíces del polinomio característico (y por lo tanto los eigenvalores) son $\lambda _{1}=3$ y $\lambda _{2}=-3$. Ya que tenemos valores propios de signos distintos tenemos un punto silla en $(0,0)$.

Para $(x,y)=(1,1)$ la cuenta correspondiente de polinomio característico es

\begin{align*} \det(H(1,1)-\lambda I)&=\begin{vmatrix} 6-\lambda & -3 \\ -3 & 6-\lambda\end{vmatrix}\\ &=(6-\lambda )^{2}-9.\end{align*}

Tras manipulaciones algebraicas, las raíces son $\lambda _{1}=9$, $\lambda _{2}=3$. Como ambas son positivas, en $(1,1)$ tenemos un mínimo.

Puedes confirmar visualmente todo lo que encontramos en la gráfica de esta función, la cual está en la Figura 3.

$\triangle$

Figura 3

A continuación se muestra otro problema que se puede resolver con lo que hemos platicado. Imaginemos que queremos aproximar a la función $x^2$ mediante una función lineal $ax+b$. ¿Cuál es la mejor forma de elegir $a,b$ para que las funciones queden «cerquita» en el intervalo $[0,1]$? Esa cercanía se puede medir de muchas formas, pero una es pidiendo que una integral se haga chiquita.

Ejemplo. Determinemos qué valores de las constantes $a,b\in \mathbb{R}$ minimizan la siguiente integral

\[ \int_{0}^{1}[ax+b-x^2]^2 dx.\]

Trabajemos sobre la integral.

\begin{align*} \int_{0}^{1}[ax+b-x^{2}]^{2}dx&=\int_{0}^{1}(2abx+(a^{2}-2b)x^{2}-2ax^{3}+x^{4}+b^{2})dx\\ &=\int_{0}^{1}2abx\hspace{0.1cm}dx+\int_{0}^{1}(a^{2}-2b)x^{2}dx-\int_{0}^{1}2ax^{3}dx+\int_{0}^{1}x^{4}dx+\int_{0}^{1}b^{2}dx\\ &=b^{2}+\frac{1}{3}a^{2}+ab-\frac{2}{3}b-\frac{1}{2}a+\frac{1}{5}. \end{align*}

Es decir, tenemos

\[ \int_{0}^{1}[ax+b-x^{2}]^{2}dx=b^{2}+\frac{1}{3}a^{2}+ab-\frac{2}{3}b-\frac{1}{2}a+\frac{1}{5}.\]

Ahora definamos $f(a,b)=b^{2}+\frac{1}{3}a^{2}+ab-\frac{2}{3}b-\frac{1}{2}a+\frac{1}{5}$; basándonos en la forma general de la ecuación cuadrática de dos variables podemos comprobar rápidamente que $f$ nos dibuja una elipse en cada una de sus curvas de nivel. Continuando con nuestra misión, tenemos que $\triangledown f(a,b)=(\frac{2}{3}a+b-\frac{1}{2},2b+a-\frac{2}{3})$. Al resolver el sistema
\[\left\{\begin{matrix}\frac{2}{3}a+b-\frac{1}{2}=0\\2b+a-\frac{2}{3}=0,\end{matrix}\right.\]

hay una única solución $a=1$ y $b=-\frac{1}{6}$. Puedes verificar que la matriz hessiana es la siguiente en todo punto.

\[ H(\bar{v})=\begin{pmatrix} \frac{2}{3} & 1 \\ 1 & 2 \end{pmatrix}.\]

Para determinar si tenemos un mínimo, calculamos el polinomio característico como sigue

\begin{align*} \det(H(\bar{v})-\lambda I)&=\begin{vmatrix} \frac{2}{3}-\lambda & 1 \\ 1 & 2-\lambda \end{vmatrix}\\ &=\left( \frac{2}{3}-\lambda \right)\left( 2-\lambda\right)-1\\ &=\lambda ^{2}-\frac{8}{3}\lambda + \frac{1}{3}.\end{align*}

Esta expresión se anula para $\lambda _{1}=\frac{4+\sqrt{13}}{3}$ y $\lambda_{2}=\frac{4-\sqrt{13}}{3}$. Ambos son números positivos, por lo que en el único punto estacionario de $f$ tenemos un mínimo. Así el punto en el cual la integral se minimiza es $(a,b)=(1,-\frac{1}{6})$. Concluimos que la mejor función lineal $ax+b$ que aproxima a la función $x^2$ en el intervalo $[0,1]$ con la distancia inducida por la integral dada es la función $x-\frac{1}{6}$.

En la Figura 3 puedes ver un fragmento de la gráfica de la función $f(a,b)$ que nos interesa.

Figura 3. Gráfica de la función $f(a,b)$.

$\triangle$

Mas adelante…

La siguiente será nuestra última entrada del curso y nos permitirá resolver problemas de optimización en los que las variables que nos dan tengan ciertas restricciones. Esto debe recordarnos al teorema de la función implícita. En efecto, para demostrar los resultados de la siguiente entrada se necesitará este importante teorema, así que es recomendable que lo repases y recuerdes cómo se usa.

Tarea moral

  1. Identifica y clasifica los puntos estacionarios de los siguientes campos escalares:
    • $f(x,y)=(x-y+1)^{2}$
    • $f(x,y)=(x^{2}+y^{2})e^{-(x^{2}+y^{2})}$
    • $f(x,y)=\sin(x)\cos(x)$.
  2. Determina si hay constantes $a,b\in \mathbb{R}$ tales que el valor de la integral \[\int_{0}^{1}[ax+b-f(x)]^{2}dx \] sea mínima para $f(x)=(x^{2}+1)^{-1}$. Esto en cierto sentido nos dice «cuál es la mejor aproximación lineal para $\frac{1}{x^2+1}$».
  3. Este problema habla de lo que se conoce como el método de los mínimos cuadrados. Consideremos $n$ puntos $(x_{i},y_{i})$ en $\mathbb{R}^2$, todos distintos. En general es imposible hallar una recta que pase por todos y cada uno de estos puntos; es decir, hallar una función $f(x)=ax+b$ tal que $f(x_{i})=y_{i}$ para cada $i$. Sin embargo, sí es posible encontrar una función lineal $f(x)=ax+b$ que minimice el error cuadrático total que está dado por \[ E(a,b)=\sum_{i=1}^{n}[f(x_{i})-y_{i}]^{2}.\] Determina los valores de $a$ y $b$ para que esto ocurra. Sugerencia. Trabaja con el campo escalar $E(a,b)$ recuerda que los puntos $(x_{i},y_{i})$ son constantes.
  4. Completa la demostración de que si una matriz $X$ tiene puros eigenvalores negativos, entonces es negativa definida.
  5. En el teorema de clasificación de puntos estacionarios, muestra que en efecto si la matriz hessiana es negativa definida, entonces el punto estacionario es un punto en donde la función tiene máximo local.

Entradas relacionadas

Ecuaciones Diferenciales I: Teorema de Poincaré – Bendixson en el plano

Por Omar González Franco

Una de las cosas más impresionantes sobre las matemáticas es que la gente que
la practica no están normalmente interesadas en su aplicación, porque
las matemáticas en si mismas son una forma de hermoso arte.
– Danica McKellar

Introducción

¡Hemos llegado a la última entrada del curso!

Concluiremos esta unidad con la introducción a un importante teorema de la teoría cualitativa de las ecuaciones diferenciales. El teorema de Poincaré – Bendixson.

La demostración a este teorema suele ser compleja y requiere de definiciones y resultados previos, algunos de ellos sobre topología elemental. En este curso sólo enunciaremos este teorema en una versión simplificada de manera que podamos aplicarlo a los sistemas no lineales de dos ecuaciones diferénciales, por esta razón es que este teorema también se conoce como teorema de Poincaré – Bendixson en el plano.

En la entrada sobre linearización visualizamos el plano fase del sistema

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -x + \mu(1 -x^{2})y \label{1} \tag{1}
\end{align*}

Para el caso en el que $\mu = 1$. Dicho plano fase fue el siguiente.

Plano fase del sistema.

El sistema (\ref{1}) en realidad se deduce de la ecuación diferencial de segundo orden

$$\dfrac{d^{2}y}{dt^2} + \mu(y^{2} -1) \dfrac{dy}{dt}+ y = 0 \label{2} \tag{2}$$

la cual lleva por nombre ecuación de Van der Pol y representa el movimiento de un oscilador con amortiguamiento no lineal.

Lo que podemos observar del plano fase es que existe una trayectoria límite (resaltada en rojo) que de alguna manera divide al plano fase en secciones. Si nos concentramos en la trayectoria periódica formada, entonces podemos hablar de la zona interior y la zona exterior a dicha trayectoria y lo que observamos es que por fuera de ella todas las trayectorias tienden a la trayectoria periódica, mientras que dentro de ella todas se alejan del origen para aproximarse, de igual manera, a la trayectoria límite.

Esto es lo que se conoce como un ciclo límite y lo presentan algunos sistemas no lineales. El teorema de Poincaré – Bendixson nos dará las condiciones necesarias para asegurar que un sistema no lineal presenta ciclos límites.

Antes de continuar haremos un breve paréntesis para recordar un par de resultados importantes de las coordenadas polares que nos servirán para hacer más sencillos los cálculos de los ejemplos que realicemos más adelante.

Coordenadas polares

Las coordenadas cartesianas se relacionan con las polares a través de las siguientes relaciones.

\begin{align*}
x &= r \cos(\theta) \\
y &= r \sin(\theta) \label{3} \tag{3}
\end{align*}

Es claro que

\begin{align*}
r^{2} &= x^{2} + y^{2} \\
\theta &= \arctan \left( \dfrac{y}{x} \right) \label{4} \tag{4}
\end{align*}

Derivemos explícitamente cada una de estas ecuaciones. Por un lado, derivando la ecuación de $r$, se tiene

$$2r \dfrac{dr}{dt} = 2x \dfrac{dx}{dt} + 2y \dfrac{dy}{dt}$$

o bien,

$$r \dfrac{dr}{dt} = x \dfrac{dx}{dt} + y \dfrac{dy}{dt}$$

Utilizando la notación prima, el primer resultado que nos interesa es el siguiente.

$$r r^{\prime} = x x^{\prime} + y y^{\prime} \label{5} \tag{5}$$

Por otro lado, para la ecuación de $\theta$ se tiene

$$\dfrac{d \theta}{dt} = \dfrac{1}{1 + \left( \dfrac{y^{2}}{x^{2}} \right)} \left( \dfrac{x \dfrac{dy}{dt} -y \dfrac{dx}{dt}}{x^{2}} \right) = \dfrac{x \dfrac{dy}{dt} -y \dfrac{dx}{dt}}{x^{2} + y^{2}}$$

Nuevamente usando la notación prima, el segundo resultado que nos interesa es el siguiente.

$$r^{2} \theta^{\prime} = x x^{\prime} -y y^{\prime} \label{6} \tag{6}$$

Las ecuaciones (\ref{5}) y (\ref{6}) nos serán de utilidad a continuación.

Un ciclo límite

Antes de revisar algunos conceptos y de presentar el teorema de Poincaré – Bendixson, consideremos el siguiente sistema no lineal.

\begin{align*}
x^{\prime} &= -y + x(1 -x^{2} -y^{2}) \\
y^{\prime} &= x + y(1 -x^{2} -y^{2}) \label{7} \tag{7}
\end{align*}

Es sencillo hacer notar que el único punto de equilibrio del sistema es el origen $Y_{0} = (0, 0)$.

Utilizando las relaciones (\ref{5}) y (\ref{6}) podemos transformar el sistema en coordenadas polares. Comencemos por obtener la ecuación diferencial para $r$, para ello sustituyamos $x^{\prime}$ y $y^{\prime}$ del sistema (\ref{7}) en la ecuación (\ref{5}).

$$rr^{\prime} = x [-y + x(1 -x^{2} -y^{2})] + y[x + y(1 -x^{2} -y^{2})]$$

Desarrollando, obtenemos

$$r r^{\prime} = r^{2}(1 -r^{2}) \label{8} \tag{8}$$

Para el caso de $\theta$ sustituimos (\ref{7}) en (\ref{6}).

$$r^{2} \theta^{\prime} = x[-y + x(1 -x^{2} -y^{2})] -y[x + y(1 -x^{2} -y^{2})]$$

Desarrollando, obtenemos

$$r^{2} \theta^{\prime} = r^{2} \label{9} \tag{9}$$

Por lo tanto, el sistema no lineal (\ref{7}) en coordenadas polares es el siguiente.

\begin{align*}
r^{\prime} &= r(1 -r^{2}) \\
\theta^{\prime} &= 1 \label{10} \tag{10}
\end{align*}

Este sistema esta desacoplado, de manera que podemos resolver cada ecuación por separado para obtener las funciones $r(t)$ y $\theta(t)$ explícitamente.

Comencemos con la ecuación de $r^{\prime}$. Dicha ecuación es separable.

\begin{align*}
\dfrac{dr}{dt} &= r(1 -r^{2}) \\
dr &= r(1 -r^{2}) dt \\
\int{\dfrac{dr}{r(1 -r^{2})}} &= \int{dt} \\
\end{align*}

Por un lado, tomando fracciones parciales, se tiene

\begin{align*}
\int{\dfrac{dr}{r(1 -r^{2})}} &= \int{ \left( \dfrac{1}{r} -\dfrac{1}{2(r + 1)} -\dfrac{1}{2(r -1)} \right) dr} \\
&= \int{\dfrac{dr}{r}} -\int{\dfrac{dr}{2(r + 1)}} -\int{\dfrac{dr}{2(r -1)}} \\
&= \ln|r|-\dfrac{1}{2} \ln|r + 1| -\dfrac{1}{2} \ln|r -1| + c_{1}\\
\end{align*}

y por otro lado,

$$\int{dt} = t + c_{2}$$

De ambos resultados se tiene que

$$\ln|r|-\dfrac{1}{2} \ln|r + 1| -\dfrac{1}{2} \ln|r -1| = t + c_{3}$$

Multipliquemos ambos lados de la igualdad por $-2$.

$$-2 \ln|r| + \ln|r + 1| + \ln|r -1| = -2t -2c_{3}$$

Ahora tomemos exponencial en ambos lados,

\begin{align*}
r^{-2}(r + 1)(r -1) &= e^{-2t -2c_{3}} \\
1 -r^{-2} &= e^{-2t} e^{-2c_{3}} \\
r^{-2} &= 1 -ce^{-2t}
\end{align*}

Por lo tanto,

$$r^{2} = \dfrac{1}{1 + ce^{-2t}} \label{11} \tag{11}$$

Como $r \geq 0$, entonces

$$r(t) = \dfrac{1}{\sqrt{1+ ce^{ -2t}}} \label{12} \tag{12}$$

Para el caso de la ecuación de $\theta^{\prime}$ es inmediato que

$$\theta(t) = t + t_{0} \label{13} \tag{13}$$

Por lo tanto, la solución general de (\ref{10}) es

\begin{align*}
r(t) &= \dfrac{1}{\sqrt{1+ ce^{ -2t}}} \\
\theta(t) &= t + t_{0} \label{14} \tag{14}
\end{align*}

De manera que la correspondiente solución del sistema no lineal (\ref{7}) es

\begin{align*}
x(t) &= \dfrac{\cos (t + t_{0})}{\sqrt{1 + ce^{ -2t}}} \\
y(t) &= \dfrac{\sin (t + t_{0})}{\sqrt{1+ ce^{ -2t}}} \label{15} \tag{15}
\end{align*}

Analizando el resultado (\ref{14}) se tienen 3 casos:

Si $c = 0$ se obtiene la solución

\begin{align*}
r(t) &= 1 \\
\theta(t) &= t + t_{0} \label{16} \tag{16}
\end{align*}

Que no es más que la circunferencia de radio $1$, $(x^{2} + y^{2} = 1)$ en sentido anti-horario.

Si $c < 0$ es claro que $r > 1$, $\theta = t + t_{0}$ y además,

$$ \lim_{t \to -\infty} \dfrac{1}{\sqrt{1+ ce^{ -2t}}} = \infty \hspace{1cm} y \hspace{1cm} \lim_{t \to \infty} \dfrac{1}{\sqrt{1+ ce^{ -2t}}} = 1 \label{17} \tag{17}$$

Finalmente, si $c > 0$ se observa que $r < 1$, $\theta = t + t_{0}$ y además,

$$\lim_{t \to -\infty} \dfrac{1}{\sqrt{1+ ce^{ -2t}}} = 0 \hspace{1cm} y \hspace{1cm} \lim_{t \to \infty} \dfrac{1}{\sqrt{1+ ce^{ -2t}}} = 1 \label{18} \tag{18}$$

Lo que obtenemos es una curva cerrada o ciclo límite correspondiente a una trayectoria periódica para $r = 1$ y todas las demás trayectorias se acercan en espiral desde el exterior y el interior cuando $t \rightarrow \infty$, tal como se muestra en la siguiente figura.

Plano fase del sistema.

Nota: Este plano fase está definido con las trayectorias dadas por (\ref{15}), es decir, corresponde al plano $XY$.

Lo que hemos hecho es probar que el sistema no lineal (\ref{7}) tiene una trayectoria periódica, pero lo hemos hecho resolviendo el sistema explícitamente. Sin embargo, no siempre será sencillo resolver las ecuaciones involucradas, desearíamos de alguna manera saber si un sistema no lineal tiene o no trayectorias periódicas, pero sin conocer las soluciones explícitas. ¡Esto es posible con ayuda del teorema de Poincaré – Bendixson!.

Teorema de Poincaré – Bendixson en el plano.

Consideremos un sistema no lineal

\begin{align*}
x^{\prime} &= F_{1}(x, y) \\
y^{\prime} &= F_{2}(x, y) \label{19} \tag{19}
\end{align*}

La definición formal de ciclo límite es la siguiente.

En el ejemplo visto es claro que se trata de un ciclo límite estable.

En este caso, para que sean claras las siguientes definiciones, detonaremos a una solución del sistema (\ref{19}) como $Y(t; x, y)$ indicando que tanto $x$ como $y$ dependen de la variable $t$.

Ejemplo: Un sistema lineal cuyo punto de equilibrio es nodo atractor

Nodo atractor

tiene como punto $\omega -$límite al punto $Y_{0} = (0, 0)$, ya que cualquier trayectoria $Y(t_{n}; x, y)$ tiende a dicho punto para $t_{n} \rightarrow \infty$. Mas aún, el conjunto $\omega -$límite es $\omega(Y) = \{ (0, 0) \}$.

$\square$

Los conjuntos $\alpha -$límite y $\omega -$límite se pueden describir como el lugar geométrico donde nace y muere la trayectoria de la solución de un sistema dinámico dado.

En el primer ejemplo visto anteriormente obtuvimos una trayectoria periódica definida por la circunferencia $x^{2} + y^{2} = 1$, o bien $r = 1$. De acuerdo al plano fase, dicha circunferencia es un conjunto $\omega -$límite tanto para las trayectorias $Y(t; x, y)$ fuera de la circunferencia unitaria $(r > 0)$ como para las trayectorias $Y(t; x, y)$, dentro de la circunferencia unitaria $(r < 1)$.

Observando nuevamente el plano fase del sistema del ejemplo desarrollado, es posible encontrar un región por fuera de la circunferencia unitaria en la que las trayectorias se comiencen a trazar a partir de $t = 0$. Lo mismo se puede hacer en una región dentro de la circunferencia unitaria, de manera que dicha circunferencia quede completamente contenida en la unión de ambas regiones. Esto lo sabemos de los resultados (\ref{17}) y (\ref{18}).

Conjunto positivamente invariante.

Dicha unión de conjuntos corresponde al conjunto $U \subset \mathbb{R}^{2}$, en este caso, positivamente invariante ya que para todo punto $(x, y) \in U$ las trayectorias $Y(t; x, y) \in U$ para todo $t \geq 0$.

Ahora conocemos los conceptos básicos que nos permitirán comprender el teorema de Poincaré – Bendixson. Cabe mencionar que existen varias formas de enunciar este teorema dependiendo incluso de la profundidad teórica que se este tratando, sin embargo el resultado siempre será el mismo. Lo que haremos en este curso será enunciar el teorema de Poincaré-Bendixson de una forma un poco intuitiva, posteriormente lo enunciaremos nuevamente de forma formal y como corolarios de este teorema enunciaremos dos resultados importantes que incluso se pueden encontrar como enunciados del mismo teorema de Poincaré – Bendixson.

Comenzamos por enunciar el teorema de Poincaré – Bendixson de forma intuitiva.

Si recurrimos una vez más a nuestro ejemplo, podemos tomar la curva $\varphi_{1}$ como la frontera exterior del conjunto $U$, mientras que la curva $\varphi_{2}$ como la frontera interior del mismo conjunto.

Curvas que definen al conjunto positivamente invariante.

Lo que observamos es que el campo vectorial sobre los puntos de la curva $\varphi_{1}$ está dirigido hacia el interior de dicha curva, mientras que el campo vectorial sobre los puntos de la curva $\varphi_{2}$ está dirigido hacia el exterior. Es decir, en ambos casos el campo vectorial incide a la región positivamente invariante $U$ y sabemos que efectivamente hay una un ciclo límite comprendido entre ambas trayectorias.

Enunciemos ahora el teorema de Poincaré – Bendixson de manera más formal.

En esta entrada no demostraremos el teorema de Poincaré – Bendixson, sin embargo, en la sección de videos se ha hecho un enorme esfuerzo por desarrollar con detalle la teoría previa para su demostración, así como la demostración del teorema. Se recomienda visitar la entrada.

Antes de realizar algunos ejemplos enunciemos dos resultados importantes que se deducen del teorema de Poincaré – Bendixson.

Concluiremos esta entrada realizando algunos ejemplos en los que apliquemos el teorema de Poincaré – Bendixson, así como ambos corolarios para determinar que los sistemas no lineales estudiados presentan soluciones periódicas.

Ejemplo: Demostrar que el siguiente sistema no lineal tiene una trayectoria periódica.

\begin{align*}
x^{\prime} &= x -y -\left( x^{2} + \dfrac{3}{2}y^{2} \right)x \\
y^{\prime} &= x + y -\left( x^{2} + \dfrac{1}{2}y^{2} \right)y
\end{align*}

Solución: Por su puesto que intentar resolver el sistema para conocer explícitamente a la trayectoria periódica puede ser muy complicado, incluso si conociéramos métodos de resolución. Para poder aplicar el teorema de Poincaré – Bendixson lo que haremos será encontrar una región $U \subset \mathbb{R}^{2}$ que sea positivamente (o negativamente) invariante y que no contenga puntos de equilibrio del sistema.

Como ejercicio moral muestra que el único punto de equilibrio del sistema es el origen $Y_{0} = (0, 0)$. Esto nos indica que la región $U$ no debe contener al origen.

Nuevamente usemos coordenadas polares con la intención de hallar el intervalo en el que $r$ puede estar comprendido y cuyos valores extremos definan la región $U$ que buscamos.

Sustituyamos $x^{\prime}$ y $y^{\prime}$ del sistema no lineal en la ecuación (\ref{5}).

\begin{align*}
r r^{\prime} &= x \left[ x -y -\left( x^{2} + \dfrac{3}{2}y^{2} \right) x \right] + y \left[ x + y -\left( x^{2} + \dfrac{1}{2}y^{2} \right) y \right] \\
&= x^{2} + y^{2} -x^{4} -\dfrac{1}{2}y^{4} -\dfrac{5}{2}x^{2}y^{2} \\
&= (x^{2} + y^{2}) -(x^{4} +2x^{2}y^{2} + y^{4}) + \dfrac{1}{2}y^{4} -\dfrac{1}{2}x^{2}y^{2} \\
&= r^{2} -r^{4} + \dfrac{1}{2}y^{2}(y^{2} -x^{2})
\end{align*}

En el siguiente procedimiento haremos uso de las identidades trigonométricas

\begin{align*}
\cos(2 \theta) &= \cos^{2}(\theta) -\sin^{2}(\theta) \\
\cos(2 \theta) &= 1 -2\sin^{2}(\theta) \label{22} \tag{22}
\end{align*}

Si usamos las transformaciones (\ref{3}) y las identidades anteriores, tenemos lo siguiente.

\begin{align*}
y^{2}(y^{2} -x^{2}) &= r^{2} \sin^{2}(\theta) [r^{2} \sin^{2}(\theta) -r^{2} \cos^{2}(\theta)] \\
&= -r^{4} \sin^{2}(\theta) [\cos^{2}(\theta) -\sin^{2}(\theta)] \\
&= -r^{4} \sin^{2}(\theta) \cos(2 \theta) \\
&= -r^{4} \left[ \dfrac{1 -\cos(2 \theta)}{2} \right] \cos(2 \theta) \\
&= r^{4} \left[ \dfrac{\cos^{2}(2 \theta) -\cos(2 \theta)}{2} \right]
\end{align*}

Sustituyamos este resultado en nuestro desarrollo de $rr^{\prime}$.

$$rr^{\prime} = r^{2} -r^{4} + \dfrac{1}{2} r^{4} \left[ \dfrac{\cos^{2}(2 \theta) -\cos(2 \theta)}{2} \right]$$

De donde

$$r^{\prime} = r -r^{3} \left( 1+ \dfrac{\cos(2 \theta)}{4} -\dfrac{\cos^{2}(2 \theta)}{4} \right)$$

Para encontrar la región $U$ que contenga a la trayectoria periódica se debe hacer $r^{\prime} = 0$, debido a que tal región debe ser tangente a la trayectoria periódica en algún punto en el cual $r^{\prime} = 0$, entonces

$$r^{\prime} = r -r^{3} \left( 1+ \dfrac{\cos(2 \theta)}{4} -\dfrac{\cos^{2}(2 \theta)}{4} \right) = 0$$

Factorizando convenientemente se tiene,

$$\cos(2 \theta) -\cos^{2}(2 \theta) = 4 \left( \dfrac{1}{r^{2}} -1 \right)$$

Se puede hacer uso de un graficador para mostrar que

$$-2 \leq \cos(2 \theta) -\cos^{2}(2 \theta) < \dfrac{1}{4} \label{23} \tag{23}$$

Entonces se cumple la siguiente desigualdad

$$-2 \leq 4 \left ( \dfrac{1}{r^{2}} -1 \right ) < \dfrac{1}{4}$$

Desarrollando se tiene lo siguiente.

$$-\dfrac{1}{2} \leq \dfrac{1}{r^{2}} -1 < \dfrac{1}{16}$$

$$\dfrac{1}{2} \leq \dfrac{1}{r^{2}} < \dfrac{17}{16}$$

$$\dfrac{16}{17} \leq r^{2} < 2$$

Finalmente, el radio $r > 0$ tiene como desigualdades a

$$\dfrac{4}{\sqrt{17}} \leq r < \sqrt{2}$$

Observemos que si $r = \dfrac{4}{\sqrt{17}}$, entonces $r^{\prime} > 0$. En este caso, cualquier trayectoria por un punto en el conjunto

$$(x_{0}, y_{0}) \in \left\{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} < \left( \dfrac{4}{\sqrt{17}} \right)^{2} \right\}$$

sale del disco abierto

$$x^{2} + y^{2} < \left ( \dfrac{4}{\sqrt{17}} \right )^{2}$$

Por otro lado, si $r = \sqrt{2}$, entonces $r^{\prime} < 0$. En este caso, cualquier trayectoria por el punto

$$(x_{0}, y_{0}) \in \left\{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} > \sqrt{2} \right\}$$

entra al disco cerrado

$$x^{2} + y^{2} \leq \sqrt{2}$$

Por lo tanto, el conjunto

$$U = \left\{ (x, y) \in \mathbb{R}^{2} : \left( \dfrac{4}{\sqrt{17}} \right)^{2} \leq x^{2} + y^{2} \leq (\sqrt{2})^{2} \right\}$$

es un conjunto positivamente invariante. Esto quiere decir que para cualquier punto que se tome en el conjunto $U$, la trayectoria por este punto permanecerá en tal conjunto.

Como el punto de equilibrio $(0, 0)$ no pertenece a $U$, entonces por el teorema de Poincaré – Bendixson se concluye que existe una trayectoria periódica contenida en $U$.

El plano fase del sistema no lineal, indicando la región $U$, se muestra a continuación.

Plano fase del sistema indicando la región positivamente invariante.

En la figura observamos que efectivamente la región $U$ contiene un conjunto límite correspondiente a una trayectoria periódica del sistema no lineal.

$\square$

Realicemos un ejemplo más.

Ejemplo: Mostrar que el siguiente sistema no lineal tiene por lo menos una trayectoria periódica.

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -x + y(1 -x^{2} -2y^{2})
\end{align*}

Solución: El punto $Y_{0} = (0, 0)$ es el único punto de equilibrio del sistema. Debemos construir una región $U$ en la cual se pueda aplicar el Teorema de Poincaré – Bendixson.

Apliquemos la ecuación (\ref{5}).

\begin{align*}
rr^{\prime} &= x x^{\prime} + y y^{\prime} \\
&= x[y] + y[-x + y(1 -x^{2} -2y^{2})] \\
&= xy -xy + y^{2} -x^{2}y^{2} -2y^{4} \\
&= y^{2}(1 -x^{2} -2y^{2}) \\
&= r^{2} \sin^{2}(\theta) [1 -r^{2} \cos^{2}(\theta) -2r^{2} \sin^{2}(\theta)]
\end{align*}

De donde,

$$r^{\prime} = r \sin^{2}(\theta) [1 -r^{2} \cos^{2}(\theta) -2r^{2} \sin^{2}(\theta)]$$

Hacemos $r^{\prime} = 0$.

$$r \sin^{2}(\theta) [1 -r^{2} \cos^{2}(\theta) -2r^{2} \sin^{2}(\theta)] = 0$$

Como queremos hallar el intervalo que comprende a $r$ nos quedamos con la ecuación

$$1 -r^{2} \cos^{2}(\theta) -2r^{2} \sin^{2}(\theta) = 0$$

Desarrollando, se tiene

\begin{align*}
1 &= r^{2} \cos^{2}(\theta) + 2r^{2} \sin^{2}(\theta) \\
&= r^{2} [1 -\sin^{2}(\theta) + 2\sin^{2}(\theta) ]\\
&= r^{2} [1 + \sin^{2}(\theta)]
\end{align*}

De donde,

$$r^{2} = \dfrac{1}{1 + \sin^{2}(\theta)}$$

Sabemos que

$$0 \leq \sin^{2}(\theta) \leq 1$$

Entonces,

$$1 \leq 1 + \sin^{2}(\theta) \leq 2$$

$$\dfrac{1}{2} \leq \dfrac{1}{1 + \sin^{2}(\theta)} \leq 1$$

es decir,

$$\dfrac{1}{2} \leq r^{2} \leq 1$$

O bien,

$$\dfrac{1}{2} \leq x^{2} + y^{2} \leq 1$$

Esta desigualdad nos define la región $U$. Notemos que $r^{\prime} > 0$ para $x^{2} + y^{2} < \dfrac{1}{2}$. En este caso, cualquier trayectoria por el punto

$$(x_{0}, y_{0}) \in \left\{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} < \dfrac{1}{2} \right\}$$

sale del disco abierto

$$x^{2} + y^{2} < \dfrac{1}{2}$$

Por otro lado, $r^{\prime} \leq 0$ para $x^{2} + y^{2} > 1$. En este caso cualquier trayectoria por el punto

$$(x_{0}, y_{0}) \in \left\{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} > 1 \right\}$$

entra al disco cerrado

$$x^{2} + y^{2} \leq 1$$

Por lo tanto, el conjunto

$$U = \left\{ (x, y) \in \mathbb{R}^{2} : \dfrac{1}{2}< x^{2} + y^{2} < 1 \right\}$$

es positivamente invariante. Es decir, para cualquier punto que se tome en el conjunto $U$, la trayectoria por dicho punto permanecerá allí para $t \geq 0$. Como el origen no esta contenido en la región $U$, entonces es posible aplicar el Teorema de Poincaré – Bendixson mostrando así que existe al menos una órbita periódica en dicha región.

El plano fase del sistema, indicando la región $U$, es el siguiente.

Plano fase del sistema indicando la región positivamente invariante.

Efectivamente existe una trayectoria periódica contenida en la región $U$.

$\square$

Concluyamos con un último ejemplo.

Ejemplo: Mostrar que el siguiente sistema no lineal tiene por lo menos una trayectoria periódica.

\begin{align*}
x^{\prime} &= -y + x(r^{4} -3r^{2} + 1) \\
y^{\prime} &= x + y(r^{4} -3r^{2} + 1)
\end{align*}

con $r^{2} = x^{2} + y^{2}$.

Solución: El único punto de equilibrio del sistema es el origen $Y_{0} = (0, 0)$. Determinemos la región $U$ en la que podamos aplicar el teorema de Poincaré – Bendixson.

Sustituyamos las ecuaciones $x^{\prime}$ y $y^{\prime}$ del sistema en la ecuación (\ref{5}).

\begin{align*}
rr^{\prime} &= xx^{\prime} + yy^{\prime} \\
&= x[-y + x(r^{4} -3r^{2} + 1)] + y[ x + y(r^{4} -3r^{2} + 1)] \\
&= -xy + x^{2}(r^{4} -3r^{2} + 1) + xy + y^{2}(r^{4} -3r^{2} + 1) \\
&= (x^{2} + y^{2}) (r^{4} -3r^{2} + 1) \\
&= r^{2}(r^{4} -3r^{2} + 1)
\end{align*}

De donde,

$$r^{\prime} = r(r^{4} -3r^{2} + 1)$$

Si hacemos $r^{\prime} = 0$, obtenemos la ecuación de interés.

$$r^{4} -3r^{2} + 1 = 0$$

Hacemos $s = r^{2}$, de manera que la ecuación anterior se pueda escribir como

$$s^{2} -3s + 1 = 0$$

Las raíces de esta ecuación son

$$s_{1} = r^{2}_{1} = \dfrac{3 + \sqrt{5}}{2} \hspace{1cm} y \hspace{1cm} s_{2} = r^{2}_{2} = \dfrac{3 -\sqrt{5}}{2}$$

Si $r^{2} = \dfrac{3 + \sqrt{5}}{2}$ se verifica que $r^{\prime} > 0$ de forma que cualquier trayectoria por el punto

$$(x_{0}, y_{0}) \in \left \{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} < \dfrac{3 + \sqrt{5}}{2} \right \}$$

sale del disco cerrado

$$x^{2} + y^{2} \leq \dfrac{3 + \sqrt{5}}{2}$$

Si $r^{2} = \dfrac{3 -\sqrt{5}}{2}$ se verifica nuevamente que $r^{\prime} > 0$ de forma que cualquier trayectoria por el punto

$$(x_{0}, y_{0}) \in \left \{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} < \dfrac{3 -\sqrt{5}}{2} \right \}$$

sale del disco abierto

$$x^{2} + y^{2} < \dfrac{3 -\sqrt{5}}{2}$$

De ambos resultados notamos que el conjunto

$$U = \left \{ (x, y) \in \mathbb{R}^{2} : \dfrac{3 -\sqrt{5}}{2} \leq x^{2} + y^{2} \leq \dfrac{3 + \sqrt{5}}{2} \right \}$$

no es un conjunto ni positivamente ni negativamente invariante, pues en ambos casos las trayectorias salen de ambos discos.

Si tomamos $r = 1$ observamos que $r^{\prime} < 0$, es decir las trayectorias por un punto

$$(x_{0}, y_{0}) \in \left \{ (x, y) \in \mathbb{R}^{2} : x^{2} + y^{2} > 1 \right \}$$

entran al disco cerrado

$$x^{2} + y^{2} \leq 1$$

Este importante resultado nos indica que la región $U$ se puede dividir en dos regiones en las que una de ellas será positivamente invariante y la otra negativamente invariante, dichas regiones son.

$$U_{1} = \left \{ (x, y) \in \mathbb{R}^{2} : \dfrac{3 -\sqrt{5}}{2} \leq x^{2} + y^{2} \leq 1 \right \}$$

$$U_{2} = \left \{ (x, y) \in \mathbb{R}^{2} : 1 < x^{2} + y^{2} \leq \dfrac{3 + \sqrt{5}}{2} \right \}$$

Es claro que $U_{1}$ es un conjunto negativamente invariante y $U_{2}$ un conjunto positivamente invariante.

Como ninguna de ambas regiones contiene al punto de equilibrio, entonces podemos aplicar el teorema de Poincaré – Bendixson sobre cada una de las regiones deduciendo que en cada una de ellas existe una trayectoria periódica que corresponden a soluciones periódicas del sistema no lineal.

El plano fase del sistema, indicando ambas regiones, es el siguiente.

Plano fase del sistema indicando ambas regiones invariantes.

En este ejemplo mostramos que el sistema no lineal tiene dos trayectorias periódicas como solución.

$\square$

Felicidades, ¡Hemos concluido el curso!

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Mostrar que los siguientes sistemas no lineales tienen por lo menos un trayectoria periódica. Verifica tu resultado visualizando el plano fase del sistema.
  • $x^{\prime} = -y -\dfrac{x(x^{2} + y^{2} -2)}{\sqrt{x^{2} + y^{2}}}$
    $y^{\prime} = x -\dfrac{y(x^{2} + y^{2} -2)}{\sqrt{x^{2} + y^{2}}}$
  • $x^{\prime} = y + x(x^{2} + y^{2} -1)(x^{2} + y^{2} -2)$
    $y^{\prime} = -x + y(x^{2} + y^{2} -1)(x^{2} + y^{2} -2)$
  • $x^{\prime} = xy + x \cos (x^{2} + y^{2})$
    $y^{\prime} = -x^{2} + y \cos (x^{2} + y^{2})$

Más adelante…

Hemos concluido con el curso de Ecuaciones Diferenciales I.

Esperamos que este curso haya sido de tu agrado, lo hayas disfrutado y hayas aprendido mucho.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Las nulclinas en el estudio cualitativo de los sistemas no lineales

Por Omar González Franco

Algún matemático dijo que el verdadero placer no reside
en el descubrimiento de la verdad, sino en su búsqueda.
– Tolstoy

Introducción

Hemos comenzado con el estudio cualitativo de los sistemas no lineales. Hasta este momento sólo somos capaces de predecir el comportamiento de las soluciones de un sistema no lineal alrededor de los puntos de equilibrio. Vimos que para hacerlo debemos encontrar el sistema lineal cuyas soluciones mejor se aproximen a las del sistema no lineal, a tal proceso se le conoce como linearización.

Nuestro propósito es esbozar de manera general el plano fase de un sistema no lineal, o al menos describir las trayectorias en zonas lejanas a los puntos de equilibrio.

En esta entrada veremos como hacer una descripción más general del plano fase a través de un método geométrico.

Nulclinas

Una observación de la definición anterior es que las nulclinas corresponden a las curvas de nivel de las funciones $F_{1}$ y $F_{2}$

\begin{align*}
F_{1}(x, y) &= c \\
F_{2}(x, y) &= c \label{2} \tag{2}
\end{align*}

en el caso en el que $c = 0$.

Ejemplo: Determinar las nulclinas del siguiente sistema no lineal.

\begin{align*}
x^{\prime} &= x(2 -x -y) \\
y^{\prime} &= y(y -x)
\end{align*}

Solución: De este sistema no lineal vemos que

\begin{align*}
F_{1}(x, y) &= x(2 -x -y) \\
F_{2}(x, y) &= y(y -x)
\end{align*}

Para obtener la nulclina $x$ (o nulclinas $x$) hacemos $F_{1}(x, y) = 0$, es decir

$$x(2 -x -y) = 0$$

de donde $x = 0$ o $2 -x -y = 0$. Una primer nulclina $x$ corresponde al eje $y$ del plano fase ya que $x = 0$. De la segunda expresión se obtiene la función $y(x) =2 -x$, la cual corresponde a una recta con pendiente negativa. Dicha recta es una segunda nulclina $x$.

Para obtener las nulclinas $y$ hacemos $F_{2}(x, y) = 0$, es decir,

$$y(y -x) = 0$$

de donde $y = 0$ o $y -x = 0$. En este caso una nulclina $y$ corresponde al eje $x$ del plano fase ya que $y = 0$, mientras que la segunda nulclina corresponde a la recta definida por la función $y(x) =x$.

Por lo tanto, las rectas $x = 0$ (eje $y$), $y = 0$ (eje $x$), $y(x) =x$ y $y(x) =2 -x$ son las nulclinas del sistema no lineal. A continuación se muestran las nulclinas en el plano fase (o plano $XY$).

Nulclinas del sistema.

$\square$

¿Y de qué nos sirven las nulclinas?. Consideremos la función vectorial

$$F(x, y) = (F_{1}(x, y), F_{2}(x, y)) \label{3} \tag{3}$$

De acuerdo a la definición de nulclinas notamos enseguida que, en general, el campo vectorial sobre una nulclina siempre será vertical (apuntará hacia arriba o hacia abajo) o será horizontal (apuntará hacia la izquierda o a la derecha) dependiendo de qué componente de la función vectorial (\ref{3}) sea cero.

Supongamos que los puntos $(x_{0}, y_{0})$ pertenecen a la nulclina $x$, entonces, por definición, se cumple

$$F(x_{0}, y_{0}) = (0, F_{2}(x_{0}, y_{0})) \label{4} \tag{4}$$

en este caso el campo vectorial en el punto $(x_{0}, y_{0})$ será vertical ya que no hay componente horizontal y apuntará hacia arriba si $F_{2}(x_{0}, y_{0}) > 0$ o hacia abajo si $F_{2}(x_{0}, y_{0}) < 0$.

De forma similar, si los puntos $(x_{0}, y_{0})$ pertenecen a la nulclina $y$, entonces se cumple

$$F(x_{0}, y_{0}) = (F_{1}(x_{0}, y_{0}), 0) \label{5} \tag{5}$$

es decir, el campo vectorial será horizontal a lo largo de la nulclina $y$. Apuntará a la izquierda si $F_{1}(x_{0}, y_{0}) < 0$ o a la derecha si $F_{2}(x_{0}, y_{0}) > 0$.

Notemos otro hecho importante. Por definición, un punto de equilibrio satisface que

$$F(x_{0}, y_{0}) = (0, 0) \label{6} \tag{6}$$

es decir,

\begin{align*}
F_{1}(x_{0}, y_{0}) &= 0 \\
F_{2}(x_{0}, y_{0}) &= 0 \label{7} \tag{7}
\end{align*}

Eso significa que existe un punto $(x_{0}, y_{0})$ que esta tanto en la nulclina $x$ como en la nulclina $y$, en otras palabras, las intersecciones entre nulclinas corresponden a los puntos de equilibrio del sistema no lineal.

Ejemplo: Determinar los puntos de equilibrio así como la dirección del campo vectorial sobre las nulclinas del sistema no lineal del ejemplo anterior.

Solución: El sistema que teníamos era

\begin{align*}
x^{\prime} &= x(2 -x -y) \\
y^{\prime} &= y(y -x)
\end{align*}

La función vectorial $F$ es

$$F(x, y) = (x(2 -x -y), y(y -x))$$

Comencemos por determinar los puntos de equilibrio, dichos puntos se obtienen de resolver el sistema

\begin{align*}
x(2 -x -y) &= 0 \\
y(y -x) &= 0
\end{align*}

De la primer ecuación tenemos $x = 0$ o $2 -x -y = 0$, de la segunda relación se obtiene $y = 2 -x$. Por otro lado, de la segunda ecuación tenemos $y = 0$ o $y -x = 0$. Sustituyendo $x = 0$, entonces $y = 0$, por lo tanto, un punto de equilibrio es el origen $Y_{0} = (0, 0)$.

Si sustituimos $y = 2-x$ en $y -x = 0$ se tiene

$$(2 -x) -x = 2 -2x = 0$$

de donde $x = 1$, así $y = 2 -1 =1$, por tanto, otro punto de equilibrio es $Y_{1} = (1, 1)$.

Finalmente si $y = 0$, entonces $x = 2$, así el punto $Y_{2} = (2, 0)$ es otro punto de equilibrio.

Recordemos que las nulclinas del sistema están definidas por las rectas $x = 0$, $y = 0$, $y = x$ y $y = 2 -x$. Verifica que los puntos de equilibrio

$$Y_{0} = (0, 0), \hspace{1cm} Y_{1} = (1, 1) \hspace{1cm} y \hspace{1cm} Y_{2} = (2, 0)$$

efectivamente corresponden a los puntos de intersección entre las nulclinas del sistema.

¿Por qué el punto $(0, 2)$ no es un punto de equilibrio si es también la intersección de dos nulclinas?.

Ahora veamos que dirección tiene el campo vectorial sobre cada nulclina.

Lo primero que debemos notar es que cada nulclina está definida en intervalos.

Distintos intervalos para las nulclinas.
  • El eje $y$ (nulclina $x = 0$) se debe estudiar en los intervalos $y \in (-\infty, 0), (0, \infty)$.
  • El eje $x$ (nulclina $y = 0$) se debe estudiar en los intervalos $x \in (-\infty, 0), (0, 2), (2, \infty)$.
  • La nulclina definida por $y(x) = x$ se debe estudiar en los intervalos en los que $x \in (-\infty, 0), (0, 1), (1, \infty)$.
  • Finalmente, la nulclina definida por $y(x) = 2 -x$ se debe estudiar en los intervalos $x \in (-\infty, 1), (1, 2), (2, \infty)$.

Determinemos la dirección de los vectores en cada intervalo de cada nulclina apoyándonos de la función vectorial

$$F(x, y) = (x(2 -x -y), y(y -x))$$

Comencemos por la nulclina $x$ definida por $x = 0$. Si $x = 0$, entonces

$$F(0, y) = (0, y^{2})$$

como $y^{2} > 0$ en todo momento, es decir para $y \in (-\infty, 0)$ y $y \in (0, \infty)$, entonces el campo vectorial sera vertical apuntando hacia arriba.

Dirección del campo vectorial sobre la nulclina definida por $x = 0$.

Para el caso de la nulclina $y$ definida por $y = 0$, se tiene

$$F(x, 0) = (2x -x^{2}, 0)$$

Comencemos con $x \in (-\infty, 0)$. Si $x < 0$, entonces $2x < 0$ y claro está que $-x^{2} < 0$, por tanto, en dicho intervalo $2x -x^{2} < 0$, esto significa que el campo vectorial será horizontal señalando hacia la izquierda.

Si $x \in (0, 2)$, entonces $x > 0$, o bien $2x > 0$ y $-x^{2} < 0$, es sencillo notar que dentro del intervalo que estamos considerando se cumple que $2x -x^{2} > 0$, por tanto, el campo apuntará a la derecha

Finamente, si $x \in (2, \infty)$, es claro que $2x -x^{2} < 0$, así que el campo volverá a apuntar hacia la izquierda.

Campo vectorial sobre las nulclinas definidas por $y = 0$ y $x = 0$.

Consideremos ahora la nulclina $y$ definida por $y = x$, en este caso el campo vectorial esta dado por

$$F(y, y) = (2y -2y^{2}, 0)$$

o bien,

$$F(x, x) = (2x -2x^{2}, 0)$$

En el intervalo $x \in (-\infty, 0)$, se cumple que $x < 0$, $2x < 0$ y claro es que $-2x^{2} < 0$, así en dicho intervalo $2x -2x^{2} < 0$, por lo tanto, el campo vectorial es horizontal y apunta hacia la izquierda.

Si $x \in (0,1)$, entonces $2x -2x^{2} > 0$, el campo apuntará a la derecha y finalmente volverá a apuntar a la izquierda para $x \in (1, \infty )$, ya que $2x -2x^{2} < 0$.

Campo vectorial sobre la nulclina definida por $y(x) = x$.

Finalmente, para la nulclina $x$ definida por $y = 2 -x$, se tiene

$$F(x, 2 -x) = (0, 2x^{2} -6x + 4)$$

Es posible verificar que si $x \in (-\infty, 1)$, entonces

$$2x^{2} -6x + 4 > 0$$

Si $x \in (1, 2)$, entonces

$$2x^{2} -6x + 4 < 0$$

y si $x \in (2, \infty)$ se cumple que

$$2x^{2} -6 + 4 > 0$$

Por lo tanto, el campo vectorial apuntará hacia arriba, luego hacia abajo y después nuevamente hacia arriba, respectivamente.

Campo vectorial sobre la nulclina definida por $y(x) = 2 -x$.

Por lo tanto, el campo vectorial sobre cada nulclina se ve de la siguiente forma.

Campo vectorial sobre las nulclinas del sistema.

$\square$

Recordemos que el campo vectorial es tangente a las trayectorias del sistema y la dirección indica la evolución de dichas trayectorias conforme $t \rightarrow \infty$, de manera que ahora tenemos una idea, aunque puede ser un poco vaga, de como se puede ir viendo el plano fase del sistema.

Una última observación que hacemos es que las curvas que representan a las nulclinas dividen al plano en varias regiones. En el ejemplo anterior se forman 10 regiones distintas las cuales se muestran en la siguiente figura.

Regiones limitadas por las nulclinas del sistema no lineal estudiado.

Esto nos permitirá esbozar el campo vectorial sobre cada región y con ello podremos trazar trayectorias obteniendo así una representación más general del plano fase de un sistema no lineal.

Ejemplo: Intentar esbozar el plano fase del sistema no lineal estudiado.

\begin{align*}
x^{\prime} &= x(2 -x -y) \\
y^{\prime} &= y(y -x)
\end{align*}

Solución: Hasta este momento conocemos los puntos de equilibrio del sistema, las nulclinas y la dirección del campo vectorial sobre cada una de ellas.

Lo que se puede hacer es determinar un vector aleatorio sobre cada una de las regiones limitadas por las nulclinas del sistema y en base a él aproximar una solución apoyándose también de los vectores ubicados sobre las nulclinas. En el segundo video de la sección de videos de este curso puedes encontrar el desarrollo de este método.

Debido a que a nosotros nos resulta más difícil dibujar algunas trayectorias, lo que haremos es utilizar nuestra herramienta de costumbre para visualizar el campo vectorial del sistema.

Campo vectorial del sistema no lineal indicando las nulclinas.

En esta figura visualizamos el campo vectorial del sistema, así como sobre las nulclinas.

Lo primero que se puede hacer es linealizar el sistema con respecto a cada uno de los puntos de equilibrio. Recordemos que la función vectorial $F$ es

$$F(x, y) = (x(2 -x -y), y(y -x))$$

de manera que

\begin{align*}
F_{1}(x, y) &= x(2 -x -y) \\
F_{2}(x, y) &= y(y -x)
\end{align*}

Las derivadas parciales son

$$\dfrac{\partial F_{1}}{\partial x} = 2 -2x -y, \hspace{1cm} \dfrac{\partial F_{1}}{\partial y} = -x, \hspace{1cm} \dfrac{\partial F_{2}}{\partial x} = -y, \hspace{1cm} \dfrac{\partial F_{2}}{\partial y} = 2y -x$$

Por lo tanto, la matriz Jacobiana es

$$\mathbf{J}(x, y) = \begin{pmatrix}
2 -2x -y & -x \\ -y & 2y -x
\end{pmatrix}$$

Los puntos de equilibrio son $(0, 0), (1, 1)$ y $(2, 0)$, evaluando cada punto en la matriz Jacobiana se obtienen las siguientes matrices.

$$\mathbf{J}(0, 0) = \begin{pmatrix}
2 & 0 \\ 0 & 0
\end{pmatrix}, \hspace{1cm} \mathbf{J}(1, 1) = \begin{pmatrix}
-1 & -1 \\ -1 & 1
\end{pmatrix}, \hspace{1cm} \mathbf{J}(2, 0) = \begin{pmatrix}
-2 & -2 \\ 0 & -2
\end{pmatrix}$$

Por lo tanto, los sistemas lineales que se aproximan a la descripción de las trayectorias del sistema no lineal alrededor de los puntos de equilibrio son:

  • $Y_{0} = (0, 0)$:

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 0 \\ 0 & 0
\end{pmatrix}\mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{0} = (0, 0)$.
  • $Y_{1} = (1, 1)$:

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 \\ -1 & 1
\end{pmatrix}\mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{1} = (1, 1)$.
  • $Y_{2} = (2, 0)$:

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-2 & -2 \\ 0 & -2
\end{pmatrix}\mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{2} = (2, 0)$.

Con el conocimiento de la forma de las trayectorias alrededor de los puntos de equilibrio y con la dirección del campo vectorial sobre algunos puntos del plano fase, entre ellos sobre las nulclinas, es que podemos esbozar completamente el plano fase del sistema no lineal.

En este caso, el plano fase correspondiente al sistema no lineal estudiado es

Plano fase y campo vectorial del sistema.

El flujo de las trayectorias es algo que ya intuíamos al considerar toda la información que estuvimos desarrollando sobre el sistema a lo largo de la entrada.

$\square$

Con esto concluimos el estudio cualitativo de algunos sistemas no lineales sencillos.

En la siguiente entrada estudiaremos un comportamiento interesante que presentan las trayectorias de algunos sistemas no lineales y cuya descripción se establece en el conocido teorema de Poincaré – Bendixon.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Hacer un bosquejo del plano fase de los siguientes sistemas no lineales siguiendo el método desarrollado a lo largo de la unidad.
    (Recuerda que el propósito es esbozar el plano fase a mano, una vez que concluyas puede comparar tu resultado con el obtenido usando una computadora.)
  • $x^{\prime} = x(2 -x -y)$
    $y^{\prime} = y(y -x^{2})$
  • $x^{\prime} = x(x -1)$
    $y^{\prime} = y(x^{2} -y)$
  • $x^{\prime} = xy -2y$
    $y^{\prime} = x^{2} + y$
  1. Intentar hacer un bosquejo del plano fase del siguiente sistema no lineal.
  • $x^{\prime} = y$
    $y^{\prime} = -x + (1 -x^{2} -2y^{2})y$

    ¿Qué se observa de este sistema no lineal?.
    ¿Hay alguna dificultad en esbozar el plano fase?.

Más adelante…

Ahora somos capaces de hacer un estudio cualitativo de algunos sistemas no lineales, sin embargo existen situaciones en las que un sistema no lineal presenta un comportamiento interesante en el que las trayectorias tienden a una curva cerrada conocida como ciclo límite. En la siguiente y última entrada del curso estudiaremos la descripción de estos sistemas y enunciaremos el teorema de Poincaré – Bendixson en el plano.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Linealización de los puntos de equilibrio de sistemas no lineales

Por Omar González Franco

La educación en matemáticas es mucho más complicada que lo que esperabas,
incluso si esperabas que es más complicada que lo que esperabas.
– Edward Griffith Begle

Introducción

Nos acercamos al final de este curso. Para concluir estudiaremos un último tema que tiene que ver con los sistemas autónomos de ecuaciones diferenciales no lineales.

Resolver de forma analítica sistemas de ecuaciones diferenciales no lineales puede ser una tarea sumamente complicada y en algunos casos hasta imposible, es por ello que en muchas ocasiones se opta por resolverlos con métodos numéricos. En este curso no veremos métodos numéricos y mucho menos métodos analíticos para resolver sistemas de ecuaciones diferenciales no lineales debido a que requerimos de más teoría que queda fuera de este primer curso de ecuaciones diferenciales. Pero lo que si podemos hacer es un análisis cualitativo como lo hemos estado haciendo en esta unidad.

Recordemos que el espacio fase de un sistema de ecuaciones diferenciales aporta la suficiente información como para conocer de forma completa el comportamiento de los soluciones a diferentes tiempos, incluso esta información puede ser suficiente para describir el fenómeno que estemos estudiando sin la necesidad de conocer explícitamente las soluciones del sistema.

En esta y las próximas entradas comenzaremos a desarrollar métodos cualitativos que nos permitirán construir el espacio fase de sistemas no lineales y por tanto conocer el comportamiento de sus soluciones a diferentes tiempos y diferentes condiciones iniciales.

En estos momentos ya conocemos métodos analíticos y geométricos que nos permiten entender completamente a los sistemas lineales, es posible combinar estos métodos con algunas otras técnicas cualitativas adicionales para describir a los sistemas no lineales. Comenzaremos desarrollando el método de linealización, el cual nos mostrará cómo es que puede aproximarse un sistema no lineal a un punto de equilibrio por medio de un sistema lineal.

Trayectorias de los sistemas no lineales

Consideremos el siguiente sistema no lineal.

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -x + (1 -x^{2})y \label{1} \tag{1}
\end{align*}

Enseguida podemos darnos cuenta de que el único punto de equilibrio del sistema es el origen. Usando la herramienta que hemos estado utilizando a lo largo de esta unidad podemos visualizar el plano fase del sistema acompañado del campo vectorial asociado.

Plano fase del sistema no lineal (1).

Las trayectorias en general no muestran un comportamiento parecido a alguno de los sistemas estudiados en las entradas anteriores y claro que debe ser así, ya que en este caso se trata de un sistema no lineal. Sin embargo, se puede notar que alrededor del punto de equilibrio, es decir del origen, si hay un comportamiento que nos parece familiar, pues se trata de una espiral que se aleja del origen (parecido a foco inestable).

Lo que haremos será aproximar el sistema (\ref{1}) con un sistema que sea mucho más fácil de analizar. Observemos que el término que hace que el sistema no sea lineal es $x^{2}y$ en la ecuación para $y^{\prime}$. Si $x$ y $y$ son pequeñas (cercanas al punto de equilibrio), entonces el término $x^{2}y$ es aún mucho más pequeño, de manera que para valores pequeños de $x$ y de $y$ es posible aproximar el sistema (\ref{1}) en un sistema lineal en el que no aparece el término $x^{2}y$, dicho sistema es

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -x + y \label{2} \tag{2}
\end{align*}

Ambos sistemas deben ser muy similares en una vecindad muy próxima al punto de equilibrio, en este caso en el origen. Veamos el plano fase del sistema lineal (\ref{2}).

Plano fase del sistema lineal (2).

Si observamos con cuidado ambos planos fase vemos que efectivamente son muy similares alrededor del origen, ya que ambos corresponden a espirales que se alejan del origen.

El plano fase del sistema (\ref{2}) corresponde a un sistema con valores propios complejos. Prueba que efectivamente los valores propios son

$$\lambda_{1} = \dfrac{1 + i \sqrt{3}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{1 -i \sqrt{3}}{2}$$

Como son complejos con parte real positiva, sabemos que las soluciones del sistema lineal se mueven en espiral alejándose del origen.

Lo que hemos hecho se conoce como linealización del punto de equilibrio. Cerca del punto de equilibrio aproximamos el sistema no lineal por medio de un sistema lineal apropiado. Para condiciones iniciales cerca del punto de equilibrio las soluciones del sistema no lineal y de la aproximación lineal permanecen cercanas entre sí, por lo menos en algún intervalo.

El sistema no lineal (\ref{1}) se conoce como ecuación de Van der Pol y más adelante volveremos a él.

Veamos cómo sería hacer una linealización de un sistema no polinomial. Consideremos el sistema no lineal

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -y -\sin(x) \label{3} \tag{3}
\end{align*}

El término no lineal corresponde a la función seno. Este modelo bien puede representar el movimiento de un péndulo amortiguado.

Los puntos de equilibrio del sistema son $Y_{0} = (0, 0), (\pm \pi, 0), (\pm 2\pi, 0)$, etcétera. Concentrémonos sólo en el origen.

Sabemos que

$$\sin(x) = x -\dfrac{x^{3}}{3!} + \dfrac{x^{5}}{5!} – \cdots \label{4} \tag{4}$$

Entonces podemos escribir al sistema (\ref{3}) como

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -y -\left( x -\dfrac{x^{3}}{3!} + \dfrac{x^{5}}{5!} – \cdots \right) \label{5} \tag{5}
\end{align*}

Para $x$ muy pequeña los términos con potencia son aún más pequeños, así que los podemos omitir aproximándonos al siguiente sistema lineal.

\begin{align*}
x^{\prime} &= y \\
y^{\prime} &= -y -x \label{6} \tag{6}
\end{align*}

Los valores propios de este sistema son

$$\lambda_{1} = \dfrac{-1 + i \sqrt{3}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{-1 -i \sqrt{3}}{2}$$

Como estos números son complejos con parte real negativa, esperamos que el correspondiente punto de equilibrio para el sistema no lineal sea un foco estable.

A continuación se muestra el plano fase del sistema no lineal (\ref{3}) y posteriormente el plano fase del sistema linealizado (\ref{6}) y observemos en ambos el comportamiento de las trayectorias alrededor del punto de equilibrio $Y_{0} = (0, 0)$.

Plano fase del sistema (3).
Plano fase del sistema (6).

Efectivamente, en ambos planos fase alrededor del origen presentan el mismo comportamiento correspondiente a un foco estable.

El proceso de linealización puede ser directo independientemente del sistema no lineal que tengamos, pero debemos apoyarnos de una herramienta del cálculo diferencial conocida como matriz Jacobiana.

Linealización de los puntos de equilibrio

Consideremos el siguiente sistema autónomo no lineal.

\begin{align*}
x^{\prime} &= F_{1}(x, y) \\
y^{\prime} &= F_{2}(x, y) \label{7} \tag{7}
\end{align*}

Supongamos que $Y_{0} = (x_{0}, y_{0})$ es un punto de equilibrio de este sistema (no necesariamente el origen). Queremos entender qué sucede con las soluciones cerca de $Y_{0}$, es decir, linealizar el sistema cerca de $Y_{0}$. Introducimos nuevas variables.

\begin{align*}
u &= x -x_{0} \\
v &= y -y_{0} \label{8} \tag{8}
\end{align*}

Lo que hacen estas variables es mover el punto de equilibrio al origen. Si $x$ y $y$ están cerca del punto de equilibrio $(x_{0}, y_{0})$, entonces $u$ y $v$ tienden a $0$.

Como los números $x_{0}$ y $y_{0}$ son constantes y además

$$x = u + x_{0} \hspace{1cm} y \hspace{1cm} y = v + y_{0}$$

entonces el sistema (\ref{7}) escrito en términos de $u$ y $v$ es

\begin{align*}
\dfrac{du}{dt} &= \dfrac{d(x -x_{0})}{dt} = \dfrac{dx}{dt} = F_{1}(x, y) = F_{1}(x_{0} + u, y_{0} + v) \\
\dfrac{dv}{dt} &= \dfrac{d(y -y_{0})}{dt} = \dfrac{dy}{dt} = F_{2}(x, y) = F_{2}(x_{0} + u, y_{0} + v)
\end{align*}

Esto es,

\begin{align*}
u^{\prime} &= F_{1}(x_{0} + u, y_{0} + v) \\
v^{\prime} &= F_{2}(x_{0} + u, y_{0} + v) \label{9} \tag{9}
\end{align*}

Si $u = v = 0$, entonces

\begin{align*}
u^{\prime} &= F_{1}(x_{0}, y_{0}) \\
v^{\prime} &= F_{2}(x_{0}, y_{0})
\end{align*}

Pero,

$$F_{1}(x_{0}, y_{0}) = 0 \hspace{1cm} y \hspace{1cm} F_{2}(x_{0}, y_{0}) = 0$$

ya que $Y_{0} = (x_{0}, y_{0})$ es un punto de equilibrio, esto nos muestra que hemos movido el punto de equilibrio al origen en el plano $UV$.

Lo que haremos a continuación es apoyarnos de algunos resultados del curso de Cálculo III. Necesitamos eliminar los términos de orden superior o no lineales del sistema (\ref{9}). Como esas expresiones pueden incluir funciones exponenciales, logarítmicas y trigonométricas, no siempre es claro cuáles son los términos lineales. En este caso es necesario estudiar a $F_{1}$ y $F_{2}$ con más atención.

De cálculo sabemos que es posible estudiar una función analizando su mejor aproximación lineal, la cual está dada por el plano tangente para funciones de dos variables, es decir

$$F_{1}(x_{0} + u, y_{0} + v) \approx F_{1}(x_{0}, y_{0}) + \left[ \dfrac{\partial F_{1}}{\partial x}(x_{0}, y_{0}) \right]u + \left[ \dfrac{\partial F_{1}}{\partial y}(x_{0}, y_{0}) \right]v \label{10} \tag{10}$$

El lado derecho es la ecuación para el plano tangente a la gráfica de $F_{1}$ en $Y_{0} = (x_{0}, y_{0})$. Recordemos que la expresión (\ref{10}) es también la aproximación polinomial de primer grado de Taylor para $F_{1}$.

Podemos, entonces, reescribir el sistema (\ref{9}) como

\begin{align*}
u^{\prime} &= F_{1}(x_{0}, y_{0}) + \left[ \dfrac{\partial F_{1}}{\partial x}(x_{0}, y_{0}) \right]u + \left[ \dfrac{\partial F_{1}}{\partial y}(x_{0}, y_{0}) \right]v + \vartheta_{F_{1}} \\
v^{\prime} &= F_{2}(x_{0}, y_{0}) + \left[ \dfrac{\partial F_{2}}{\partial x}(x_{0}, y_{0}) \right]u + \left[ \dfrac{\partial F_{2}}{\partial y}(x_{0}, y_{0}) \right]v + \vartheta_{F_{2}} \label{11} \tag{11}
\end{align*}

Donde $\vartheta_{F_{1}}$ y $\vartheta_{F_{2}}$ son los términos que forman la diferencia entre el plano tangente y las funciones $F_{1}$ y $F_{2}$, respectivamente, y son precisamente los términos que deseamos ignorar al formar la aproximación lineal del sistema.

Como $Y_{0} = (x_{0}, y_{0})$ es un punto de equilibrio, entonces

$$F_{1}(x_{0}, y_{0}) = 0 \hspace{1cm} y \hspace{1cm} F_{2}(x_{0}, y_{0}) = 0$$

Así, las funciones (\ref{11}) se pueden aproximar como

\begin{align*}
u^{\prime} &\approx \left[ \dfrac{\partial F_{1}}{\partial x}(x_{0}, y_{0}) \right]u + \left[ \dfrac{\partial F_{1}}{\partial y}(x_{0}, y_{0}) \right]v \\
v^{\prime} &\approx \left[ \dfrac{\partial F_{2}}{\partial x}(x_{0}, y_{0}) \right]u + \left[ \dfrac{\partial F_{2}}{\partial y}(x_{0}, y_{0}) \right]v \label{12} \tag{12}
\end{align*}

Si usamos la notación matricial podemos escribir el sistema anterior como

$$\begin{pmatrix}
u^{\prime} \\ v^{\prime}
\end{pmatrix} \approx \begin{pmatrix}
\dfrac{\partial F_{1}}{\partial x}(x_{0}, y_{0}) & \dfrac{\partial F_{1}}{\partial y}(x_{0}, y_{0}) \\ \dfrac{\partial F_{2}}{\partial x}(x_{0}, y_{0})
& \dfrac{\partial F_{2}}{\partial y}(x_{0}, y_{0})
\end{pmatrix} \begin{pmatrix}
u \\ v
\end{pmatrix} \label{13} \tag{13}$$

La matriz de $2 \times 2$ de las derivadas parciales en esta expresión se llama matriz Jacobiana del sistema en $Y_{0} = (x_{0}, y_{0})$.

$$\mathbf{J}(x_{0}, y_{0}) = \begin{pmatrix}
\dfrac{\partial F_{1}}{\partial x}(x_{0}, y_{0}) & \dfrac{\partial F_{1}}{\partial y}(x_{0}, y_{0}) \\ \dfrac{\partial F_{2}}{\partial x}(x_{0}, y_{0})
& \dfrac{\partial F_{2}}{\partial y}(x_{0}, y_{0})
\end{pmatrix} \label{14} \tag{14}$$

Por lo tanto, el sistema linealizado en el punto de equilibrio $Y_{0} = (x_{0},y_{0})$ es

$$\begin{pmatrix}
u^{\prime} \\ v^{\prime}
\end{pmatrix} = \mathbf{J} \begin{pmatrix}
u \\ v
\end{pmatrix} \label{15} \tag{15}$$

Una observación importante de este proceso es que para crear el sistema linealizado sólo es necesario conocer las derivadas parciales de las componentes $F_{1}$ y $F_{2}$ del campo vectorial en el punto de equilibrio $Y_{0}$, no es necesario hacer el cambio de variable moviendo el punto de equilibrio al origen. Más adelante veremos ejemplos para mostrar este hecho.

Clasificación de los puntos de equilibrio

El método de linealización tiene como propósito usar un sistema lineal para predecir el comportamiento de las soluciones de un sistema no lineal cerca de un punto de equilibrio. En una vecindad de dicho punto, las soluciones de los sistemas lineales y no lineales están cercanas entre sí, por lo menos en un intervalo corto. Para la mayor parte de los sistemas, la información ganada al estudiar la linearización es suficiente para determinar el comportamiento a largo plazo de las soluciones del sistema no lineal cerca del punto de equilibrio.

Esta vez no seremos explícitos, pero es posible hacer una clasificación de los puntos de equilibrio en base a los valores propios de la matriz Jacobiana (\ref{14}).

Si todos los valores propios de $\mathbf{J}$ son números reales negativos o números complejos con parte real negativa, entonces $(u, v) = (0, 0)$ es un nodo atractor para el sistema lineal y todas las soluciones se acercan a $(u, v) = (0, 0)$ cuando $t \rightarrow \infty$. Para el sistema no lineal, las soluciones que empiezan cerca del punto de equilibrio $(x, y) = (x_{0}, y_{0})$ se acercan a éste cuando $t \rightarrow \infty$. Por tanto, decimos que $(x_{0}, y_{0})$ es un nodo atractor. Si los valores propios son complejos, entonces $(x_{0}, y_{0})$ es un foco estable.

De modo similar, si $\mathbf{J}$ sólo tiene valores propios positivos o complejos con parte real positiva, entonces las soluciones con condiciones iniciales cerca del punto de equilibrio $(x_{0}, y_{0})$ tienden a alejarse de éste cuando $t$ crece. Decimos entonces que para un sistema no lineal el punto $(x_{0}, y_{0})$ es una nodo repulsor. Si los valores propios son complejos, entonces $(x_{0}, y_{0})$ es un foco inestable.

Si $\mathbf{J}$ tiene un valor propio positivo y uno negativo, entonces el punto de equilibrio $(x_{0}, y_{0})$ es un punto silla.

Es importante mencionar que esta clasificación de los puntos de equilibrio para los sistemas no lineales no nos dice nada acerca del comportamiento de las soluciones con posiciones iniciales lejanas del punto de equilibrio $(x_{0}, y_{0})$.

Para concluir con esta entrada realicemos algunos ejemplos.

Ejemplo: Linealizar el siguiente sistema no lineal.

\begin{align*}
x^{\prime} &= x(2 -x -y) \\
y^{\prime} &= -x + 3y -2xy
\end{align*}

Solución: Comencemos por observar el plano fase de este sistema no lineal.

Plano fase del sistema no lineal.

Nota: Cuando estudiamos las propiedades cualitativas de las trayectorias vimos que es posible esbozar el plano fase de un sistema no lineal si resolvemos la ecuación diferencial

$$\dfrac{dy}{dx} = \dfrac{F_{2}(x, y)}{F_{1}(x, y)} \label{16} \tag{16}$$

pero no siempre obtendremos una ecuación sencilla de resolver. En general, aún no sabemos cómo esbozar el plano fase de un sistema no lineal, lo ideal es que nosotros lo pudiéramos hacer a mano. Por ahora sólo nos estaremos apoyando de un programa que nos permite obtenerlo, más adelante veremos cómo esbozarlo no sólo cerca de los puntos de equilibrio.

Continuemos con el ejemplo. Del plano fase podemos observar que los puntos de equilibrio son

$$Y_{0} = (0, 0), \hspace{1cm} Y_{1} = (1, 1) \hspace{1cm} y \hspace{1cm} Y_{2} = (3, -1)$$

Veamos que es así analíticamente y linealicemos cada uno de ellos.

La función vectorial $F(x, y)$ que define al campo vectorial es

$$F(x, y) = (x(2 -x -y), -x + 3y -2xy)$$

Vemos que las funciones $F_{1}(x, y)$ y $F_{2}(x, y)$ son

\begin{align*}
F_{1}(x, y) &= x(2 -x -y) \\
F_{2}(x, y) &= -x + 3y -2xy
\end{align*}

No es necesario hacer algún tipo de cambio de variable, directamente podemos determinar la matriz Jacobiana para obtener una expresión similar a (\ref{15}). Calculemos las derivadas parciales de $F_{1}(x, y)$ y $F_{2}(x, y)$.

$$\dfrac{\partial F_{1}}{\partial x} = 2 -2x -y, \hspace{1cm} \dfrac{\partial F_{1}}{\partial y} = -x, \hspace{1cm} \dfrac{\partial F_{2}}{\partial x} = -1 -2y, \hspace{1cm} \dfrac{\partial F_{2}}{\partial y} = 3 -2x$$

Por lo tanto, la matriz Jacobiana es

$$\mathbf{J}(x, y) = \begin{pmatrix}
2 -2x -y & -x \\ -1 -2y & 3 -2x
\end{pmatrix}$$

Por otro lado, determinemos los puntos de equilibrio. Buscamos los valores de $x$ y $y$, tal que

$$F_{1}(x, y) = 0 \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = 0$$

es decir,

\begin{align*}
x(2 -x -y) &= 0 \\
-x + 3y -2xy &= 0
\end{align*}

De la primer ecuación obtenemos que $x = 0$ y $2 -x -y = 0$, de este segundo resultado vemos que $x = 2 -y$, sustituyamos ambos valores en la segunda ecuación.

Para $x =0$ obtenemos $3y =0$, de donde $y =0$. Por lo tanto, el origen es un punto de equilibrio.

Para $x =2 -y$, tenemos

$$-(2 -y) + 3y -2(2 -y)y =y^{2} -1 = 0$$

De donde $y_{1} = 1$ y $y_{2} = -1$, sustituyendo ambas raíces en $x = 2 -y$, se tiene

\begin{align*}
x_{1} &= 2 -1 = 1 \\
x_{2} &= 2 -( -1) = 3
\end{align*}

Por lo tanto, los puntos de equilibrio son

$$Y_{0} = (0, 0), \hspace{1cm} Y_{1} = (1, 1) \hspace{1cm} y \hspace{1cm} Y_{2} = (3, -1)$$

tal como lo indica el plano fase.

Linealicemos el sistema, para ello evaluemos cada punto de equilibrio en la matriz Jacobiana.

$$\mathbf{J}(0, 0) = \begin{pmatrix}
2 & 0 \\ -1 & 3
\end{pmatrix}, \hspace{1cm} \mathbf{J}(1, 1) = \begin{pmatrix}
-1 & -1 \\ -3 & 1
\end{pmatrix}, \hspace{1cm} \mathbf{J}(3, -1) = \begin{pmatrix}
-3 & -3 \\ 1 & -3
\end{pmatrix}$$

Por lo tanto, alrededor del punto de equilibrio $Y_{0} = (0, 0)$ el sistema no lineal puede ser descrito por el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 0 \\ -1 & 3
\end{pmatrix}\mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{0} = (0, 0)$.

Alrededor del punto de equilibrio $Y_{0} = (1, 1)$ el sistema no lineal puede ser descrito por el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 \\ -3 & 1
\end{pmatrix} \mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{0} = (1, 1)$.

Y finalmente el sistema no lineal, alrededor del punto de equilibrio $Y_{0} = (3, -1)$, puede ser descrito por el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3 & -3 \\ 1 & -3
\end{pmatrix} \mathbf{Y}$$

Plano fase del sistema linealizado en el punto de equilibrio $Y_{0} = (3, -1)$.

Por su puesto que se puede aplicar todo lo que sabemos sobre sistemas lineales, podemos determinar los valores propios y los vectores propios para obtener las soluciones generales, podemos también determinar la traza, el determinante, el discriminante y determinar la estabilidad de los puntos de equilibrio, etcétera.

Lo que estamos obteniendo es una descripción local del comportamiento de las soluciones del sistema no lineal alrededor de los puntos de equilibrio.

Una aclaración importante es que los planos fase de los sistemas lineales obtenidos están siendo graficados en el plano $UV$, es por ello que cada uno se encuentra centrado en el origen, en el origen de dicho plano.

$\square$

Finalicemos esta entrada con un ejemplo de especies en competencia.

Un modelo de especies en competencia

El sistema Volterra – Lotka es un conocido sistema para especies en competencia y es de la forma

\begin{align*}
x^{\prime} &= x(-Ax -By + C) \\
y^{\prime} &= y(-Dx -Ey + F) \label{17} \tag{17}
\end{align*}

donde $x$ y $y$ son mayores o igual a cero y los parámetros $A -F$ son siempre positivos.

Consideremos un ejemplo particular del sistema Volterra – Lotka. Sean $x$ y $y$ las poblaciones de dos especies que compiten por recursos, un incremento en cualquier especie tiene un efecto adverso sobre la razón de crecimiento de la otra. El modelo es el siguiente.

\begin{align*}
x^{\prime} &= 2x \left( 1 -\dfrac{x}{2} \right) -xy \\
y^{\prime} &= 3y \left( 1 -\dfrac{y}{3} \right) -2xy
\end{align*}

Para un valor dado de $x$, si $y$ se incrementa entonces el término $-xy$ ocasiona que $x^{\prime}$ decrezca. De forma similar, para un valor dado de $y$, si $x$ crece entonces $-2xy$ provoca que $y^{\prime}$ disminuya. Un aumento en la población de cualquiera de las especies ocasiona una disminución en la razón de crecimiento de la otra.

El plano fase del sistema no lineal es

Plano fase del sistema de especies en competencia.

Nota: El plano fase se ilustra para $x$ y $y$ en $\mathbb{R}$, sin embargo, recordemos que el sistema Volterra – Lotka sólo esta definido en el primer cuadrante en el que $x, y \geq 0$, esto debido a que no existen poblaciones negativas. Se puede observar que los cuatro puntos de equilibrio del sistema si pertenecen al primer cuadrante. Sólo consideraremos esta zona.

La funciones $F_{1}(x, y)$ y $F_{2}(x, y)$ son

\begin{align*}
F_{1}(x, y) &= 2x \left( 1 -\dfrac{x}{2} \right) -xy \\
F_{2}(x, y) &= 3y \left( 1 -\dfrac{y}{3} \right) -2xy
\end{align*}

Calculemos las derivadas parciales.

$$\dfrac{\partial F_{1}}{\partial x} = 2 -2x -y, \hspace{1cm} \dfrac{\partial F_{1}}{\partial y} = -x, \hspace{1cm} \dfrac{\partial F_{2}}{\partial x} = -2y, \hspace{1cm} \dfrac{\partial F_{2}}{\partial y} = 3 -2y -2x$$

Por lo tanto, la matriz Jacobiana es

$$\mathbf{J}(x, y) = \begin{pmatrix}
2 -2x -y & -x \\ -2y & 3 -2y -2x
\end{pmatrix}$$

Determinemos los puntos de equilibrio.

\begin{align*}
x(2 -x -y) &= 0 \\
y(3 -y-2x) &= 0
\end{align*}

La primer ecuación se satisface si $x = 0$ o si $2 -x -y = 0$, y la segunda se cumple si $y = 0$ o si $3 -y -2x = 0$.

Supongamos primero que $x = 0$. Entonces la ecuación $y = 0$ da un punto de equilibrio en el origen y $3 -y -2x = 0$ lo proporciona en $(0, 3)$.

Digamos ahora que $2 -x -y = 0$. Entonces la ecuación $y = 0$ da un punto de equilibrio en $(2, 0)$ y $3 -y -2x = 0$ lo da en $(1, 1)$.

Por lo tanto, los puntos de equilibrio son

$$Y_{0} = (0, 0), \hspace{1cm} Y_{1} = (0, 3), \hspace{1cm} Y_{2} = (2, 0) \hspace{1cm} y \hspace{1cm} Y_{3} = (1, 1)$$

Consideremos el punto de equilibrio $Y_{3} = (1,1)$, el cual nos indica que es posible para las dos especies coexistir en equilibrio (como las flores y las abejas que se ayudan a sobrevivir y prosperar mutuamente).

Linealizamos el sistema alrededor del punto de equilibrio $Y_{3} = (1, 1)$, para ello evaluemos en la matriz Jacobiana.

$$\mathbf{J}(1,1) = \begin{pmatrix}
-1 & -1 \\ -2 & -1
\end{pmatrix}$$

Por lo tanto, el sistema lineal que describe al sistema no lineal alrededor del punto de equilibrio $Y_{3} = (1, 1)$, es

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 \\ -2 & -1
\end{pmatrix}\mathbf{Y}$$

Los valores propios del sistema son

$$\lambda_{1} = -1 + \sqrt{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = -1 -\sqrt{2}$$

como uno es positivo y otro negativo concluimos que el punto de equilibrio es un punto silla. El plano fase del sistema lineal es

Plano fase linealizado alrededor del punto de equilibrio $Y_{3} = (1, 1)$.

Sólo hay dos trayectorias que tienden hacia el punto de equilibrio $Y_{3} = (1, 1)$ cuando $t$ crece, de modo que bajo cualquier perturbación en las condiciones iniciales provocará que una especie domine sobre la otra, sin embargo, este modelo de especies es muy simplificado que no esperamos ver soluciones que conduzcan al punto de equilibrio $(1, 1)$ en la naturaleza.

De tarea moral linealiza el sistema para el resto de puntos de equilibrio.

$\square$

Ahora sabemos como estudiar las soluciones de un sistema no lineal alrededor de sus puntos de equilibrio, esto sólo nos dará información local, de manera que no es suficiente si lo que queremos es describir las soluciones para tiempos grandes. En la siguiente entrada veremos una técnica que nos permite describir las soluciones lejos de los puntos de equilibrio.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Considerar los siguientes tres sistemas no lineales:
  • $x^{\prime} = 2x + y$
    $y^{\prime} = -y + x^{2}$
  • $x^{\prime} = 2x + y$
    $y^{\prime} = y + x^{2}$
  • $x^{\prime} = 2x + y$
    $y^{\prime} = -y -x^{2}$

    Los tres sistemas tienen un punto de equilibrio en $(0,0)$. ¿Cuáles dos sistemas tienen planos fase similares cerca de $(0,0)$?. Justificar la respuesta.
  1. Considerar los siguientes tres sistemas no lineales:
  • $x^{\prime} = 3 \sin(x) + y$
    $y^{\prime} = 4x + \cos(y) -1$
  • $x^{\prime} = -3 \sin(x) + y$
    $y^{\prime} = 4x + \cos(y) -1$
  • $x^{\prime} = -3 \sin(x) + y$
    $y^{\prime} = 4x + 3 \cos(y) -3$

    Los tres sistemas tienen un punto de equilibrio en $(0,0)$. ¿Cuáles son los dos sistemas que tienen planos fase similares cerca de $(0,0)$?. Justificar la respuesta.
  1. Dado el siguiente sistema no lineal:

    $x^{\prime} = -2x + y$
    $y^{\prime} = -y + x^{2}$
  • Encontrar el sistema linealizado para el punto de equilibrio $(0, 0)$.
  • Clasificar el punto de equilibrio.
  • Esbozar el plano fase para el sistema no lineal cerca del origen $(0, 0)$.
  • Repetir los puntos anteriores para el punto de equilibrio $(2, 4)$.
  1. Para el modelo de población de especies en competencia

    $x^{\prime} = 2x \left( 1 -\dfrac{x}{2} \right) -xy$
    $y^{\prime} = 3y \left( 1 -\dfrac{y}{3} \right) -2xy$

    mostramos que el punto de equilibrio $(1, 1)$ es un punto silla.
  • Encontrar el sistema linealizado cerca de cada uno de los otros puntos de equilibrio.
  • Clasificar cada punto de equilibrio.
  • Esbozar el plano fase de cada sistema linealizado.
  • Dar una breve descripción del plano fase cerca de cada punto de equilibrio del sistema no lineal.
  1. Considerar el siguiente sistema no lineal:

    $x^{\prime} = y -(x^{2} + y^{2})x$
    $y^{\prime} = -x-(x^{2} + y^{2})y$
  • Visualizar el plano fase del sistema.
  • Determinar los puntos de equilibrio.
  • Linealizar el sistema con respecto al punto de equilibrio $(0, 0)$.
  • Visualizar el plano fase del sistema linealizado.

    ¿Los planos fase de ambos sistemas alrededor del punto de equilibrio $(0, 0)$ son similares?.
    ¿Qué puede estar sucediendo?.

Más adelante…

Una propiedad interesante del campo vectorial

$$F(x, y) = (F_{1}(x, y), F_{2}(x, y))$$

es que en un punto el vector $F$ puede ser totalmente vertical si la componente $F_{1}$ es cero, o bien puede ser totalmente horizontal se la componente $F_{2}$ es cero. Esta propiedad resultará sumamente útil a la hora de estudiar las trayectorias de un sistema no lineal lejos de un punto de equilibrio.

Al conjunto de puntos en los que alguna de las componentes de la función vectorial $F$ es cero se les denomina nulclinas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Funciones de Lyapunov

Por Eduardo Vera Rosales

Introducción

En la entrada anterior definimos a los sistemas hamiltonianos, que son aquellos que tienen la forma $$\begin{array}{rcl} \dot{x} & = & \frac{\partial{H}}{\partial{y}} \\ \dot{y} & = & -\frac{\partial{H}}{\partial{x}} \end{array}$$ para cierta función $H:\mathbb{R}^{2} \rightarrow \mathbb{R}$ que llamamos función hamiltoniana. Vimos sus principales propiedades, una de las cuales nos dice que las curvas de nivel de $H$ coinciden con las curvas solución del sistema de ecuaciones. Así, estudiar el plano fase y la estabilidad de los puntos de equilibrio para este tipo de sistemas es bastante sencillo. Lamentablemente no todos los sistemas son hamiltonianos, y por lo tanto no es posible encontrar una función $H$ que sea una cantidad conservada para el sistema.

Comenzaremos estudiando el sistema de ecuaciones que modela el movimiento pendular con fricción. A diferencia del péndulo simple que no tiene fricción, este nuevo sistema no es hamiltoniano. Sin embargo, con ayuda de la función hamiltoniana que define al sistema del péndulo simple, podremos hacer un buen esbozo del plano fase. Esto ocurrirá ya que la derivada de $H$ respecto al tiempo satisface $$\dot{H}(x(t),y(t))\leq 0$$ para cualquier solución $(x(t),y(t))$ del sistema. Esto significa que las curvas solución al sistema recorren las curvas de nivel de $H$ de valores mayores a menores.

Con el análisis realizado para el sistema del péndulo con fricción, lo siguiente que haremos será estudiar un tipo de funciones que comparten las propiedades que satisface la función $H$ antes mencionada, y que llamaremos funciones de Lyapunov. Definiremos formalmente a dichas funciones y veremos sus principales propiedades, entre ellas el teorema de estabilidad de Lyapunov que nos dice que si existe una función de Lyapunov $L:U \rightarrow \mathbb{R}$ definida en una vecindad $U$ de un punto de equilibrio para un sistema de ecuaciones, entonces el punto de equilibrio es estable. Si además $\dot{L}<0$ en $U$, excepto en el punto de equilibrio, entonces este será asintóticamente estable.

¡Vamos a comenzar!

El péndulo con fricción

Comenzamos estudiando el sistema que modela el movimiento de un péndulo con fricción. Revisamos las diferencias y similitudes que mantiene con el sistema para el péndulo simple y esbozamos su plano fase con ayuda de la función hamiltoniana que define al sistema del péndulo simple.

Funciones de Lyapunov

En el video definimos a las funciones de Lyapunov, revisamos algunas propiedades interesantes y demostramos el Teorema de estabilidad de Lyapunov. Mediante un par de ejemplos observamos cuándo aplicar este último teorema.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Esboza el plano fase del sistema $$\begin{array}{rcl} \dot{x} & = & -xy^{4} \\ \dot{y} & = & x^{4}y. \end{array}$$ Verifica que el sistema no es hamiltoniano. Por lo tanto, existen sistemas no hamiltonianos para los cuales existen funciones que son cantidades conservadas. (Por lo dicho en el video, $L(x,y)=x^{4}+y^{4}$ es una cantidad conservada para el sistema).
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & y-2x \\ \dot{y} & = & 2x-y-x^{3}. \end{array}$$ Prueba que el origen es un punto de equilibrio. Demuestra que la función $L(x,y)=(x+y)^{2}+\frac{1}{2}x^{4}$ es una función de Lyapunov para el origen. Determina la estabilidad del punto de equilibrio.
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & y \\ \dot{y} & = & -\sin{x}-y. \end{array}$$ Prueba que los puntos de equilibrio de la forma $(m\pi,0)$ con $m$ par son asintóticamente estables, usando el último teorema del segundo video.
  • Prueba que el origen es el único punto de equilbirio para el sistema $$\begin{array}{rcl} \dot{x} & = & -xy \\ \dot{y} & = & x^{2}-y. \end{array}$$ Considera la función $L:U \rightarrow \mathbb{R}$ definida como $L(x,y)=x^{2}+y^{2}$ donde $U$ es un abierto que contiene a $(0,0)$. Prueba que $L$ es una función de Lyapunov para el punto de equilibrio. ¿Es $(0,0)$ asintóticamente estable?
  • Considera el sistema $$\begin{array}{rcl} \dot{x} & = & -2x \\ \dot{y} & = & x-y. \end{array}$$ y la función $L(x,y)=c_{1}x^{2}+c_{2}y^{2}$, $c_{1}, c_{2}$ constantes. Encuentra valores para las constantes de tal forma que $L$ sea una función de Lyapunov para el sistema.

Más adelante

En la próxima entrada definiremos un tipo particular de sistemas, los llamados sistemas gradiente. Al igual que los sistemas hamiltonianos, veremos sus principales propiedades. Además, probaremos la existencia de funciones de Lyapunov para algunos puntos de equilibrio en particular de dichos sistemas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»