Archivo de la etiqueta: valores propios

Cálculo Diferencial e Integral III: Representaciones matriciales, eigenvalores y eigenvectores

Por Alejandro Antonio Estrada Franco

Introducción

Como se ha mencionado anteriormente el objetivo de introducir ideas de álgebra lineal en cálculo diferencial es poder establecer una transformación lineal que sea la mejor aproximación lineal en un punto a una función dada. Esto nos ayudará a entender a la función dada en el punto en términos de otra función «más simple». Pero así mismo, las transformaciones lineales pueden ellas mismas pensarse en términos de transformaciones más sencillas. En esta entrada revisaremos esta idea y la conectaremos con la noción de eigenvectores.

Por un lado, recordaremos cómo es que una transformación lineal puede ser representada mediante una matriz una vez que se ha elegido una base del espacio vectorial. Luego, hablaremos de cómo elegir, de entre todas las bases, aquella que nos de una representación matricial lo más sencilla posible.

Representación matricial de las transformaciones lineales

Comencemos esta entrada repasando la importante relación entre transformaciones lineales y matrices. Denotaremos como $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ al espacio vectorial de transformaciones lineales de $\mathbb{R}^n$ a $\mathbb{R}^m$.

Si tomamos cualquier transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$, entonces los valores de $T$ en cualquier vector de $\mathbb{R}^n$ quedan totalmente determinados por los valores de $T$ en los elementos de alguna base $\beta$ para $\mathbb{R}^n$. Tomemos $\gamma=\{\bar{w}_{1},\dots ,\bar{w}_{m}\}$ una base ordenada para $\mathbb{R}^m$, y $\beta=\{\bar{e}_{1},\dots ,\bar{e}_{n}\}$ una base ordenada para $\mathbb{R}^n$. Para cada $\bar{e}_{k}$ tenemos:

$$\begin{equation} T(\bar{e}_{k})=\sum_{i=1}^{m}t_{ik}\bar{w}_{i} \end{equation},$$

para algunos escalares $t_{1k},\dots ,t_{mk}$ que justo son las componentes de $T(\bar{e}_{k})$ en la base $\gamma$. Con estos escalares, podemos considerar la matriz: \[ \text{Mat}_{\gamma,\beta}(T)= \begin{pmatrix} t_{11} & \dots & t_{1n} \\ \vdots & \ddots & \vdots \\ t_{m1} & \dots & t_{mn} \end{pmatrix} \]

Esta es llamada la representación matricial de la transformación $T$ con respecto a las bases $\beta$ y $\gamma$. Esta matriz ayuda a calcular $T$ en cualquier vector de $\mathbb{R}^n$ como explicamos a continuación.

Para cada $\bar{v}\in \mathbb{R}^n$, podemos expresarlo como combinación lineal de elementos de la base $\beta$ digamos que $\bar{v}=\sum_{i=1}^{n} v_{i}\bar{e}_{i}$. Mediante estos coeficientes, podemos entonces asociar a $\bar{v}$ al siguiente vector columna de $\mathbb{R}^n$ \[ [\bar{v}]_{\beta}=\begin{pmatrix} v_{1} \\ \vdots \\ v_{n} \end{pmatrix}, \]

al que llamamos el vector de coordenadas de $\bar{v}$ con respecto a la base $\beta$.

Realicemos por un lado el siguiente cálculo:

\[ \text{Mat}_{\gamma,\beta}(T)[\bar{v}]_{\beta}=\begin{pmatrix} t_{11} & \dots & t_{1n}\\ \vdots & \ddots & \vdots \\ t_{m1} & \dots & t_{mn} \end{pmatrix} \begin{pmatrix} v_{1} \\ \vdots \\ v_{n} \end{pmatrix}=\begin{pmatrix} \displaystyle\sum_{k=1}^{n}t_{1k}v_{k} \\ \vdots \\ \displaystyle\sum_{k=1}^{n}t_{mk}v_{k}.\end{pmatrix} \]

Por otro lado tenemos lo siguiente:

\begin{align*}
T(\bar{v})&=T \left( \sum_{k=1}^{n}v_{k}\bar{e}_{k} \right)\\&=\sum_{k=1}^{n}v_{k}T(\bar{e}_{k})\\&=\sum_{k=1}^{n}v_{k}T\left( \sum_{i=1}^{m}t_{ik}\bar{w}_{i} \right)\\&=\sum_{i=1}^{m}\left( \sum_{k=1}^{n}v_{k}t_{ik} \right)\bar{w}_{i}.
\end{align*}

Juntando ambos cálculos: \[ [T(\bar{v})]_{\gamma}=\begin{pmatrix} \sum_{k=1}^{n}v_{k}t_{1k} \\ \vdots \\ \sum_{k=1}^{n}v_{k}t_{mk} \end{pmatrix} = \text{Mat}_{\gamma,\beta}(T)[\bar{v}]_{\beta}.\]

En otras palabras, aplicar $T$ a un vector $\bar{v}$ equivale a multiplicar $\text{Mat}_{\gamma,\beta}$ por el vector columna asociado a $\bar{v}$ en la base $\beta$, en el sentido de que tras hacer este producto recuperamos el vector de coordenadas para $T(\bar{v})$ en la base $\gamma$.

Isomorfismo entre transformaciones lineales y matrices

Con las operaciones de suma y multiplicación por escalar que vimos en la entrada de Matrices, se tiene que $M_{m,n}\left( \mathbb{R} \right)$ es un espacio vectorial sobre $\mathbb{R}$. De igual manera $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ es un espacio vectorial sobre $\mathbb{R}$ con las siguientes operaciones:

  • Si $T$ y $U$ son dos transformaciones, la transformación $T+U$ es aquella que envía a todo vector $\bar{v}\in \mathbb{R}^n$ al vector $T(\bar{v})+U(\bar{v})$.
  • Si $r\in \mathbb{R}$ la transformación $rT$ es la que a todo $\bar{v}\in \mathbb{R}^n$ lo envía al vector $rT(\bar{v})$.

Queda como ejercicio que verifiques que esto dota efectivamente a $\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ de la estructura de espacio vectorial.

A continuación veremos que estos dos espacios vectoriales son, prácticamente, el mismo. Lo que haremos es construir una función $$\Phi :M_{m,n}\left( \mathbb{R} \right) \to\mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$$ que sea biyectiva y que preserve las operaciones de suma y de producto escalar.

Para ello, tomemos una base $\beta=\{\bar{e}_1,\ldots,\bar{e}_n\}$ de $\mathbb{R}^{n}$ y una base $\gamma=\{\bar{u}_1,\ldots,\bar{u}_m\}$ de $\mathbb{R}^m$. Tomemos una matriz $A\in M_{m,n}(\mathbb{R})$. Explicaremos a continuación cómo construir la transformación $\Phi(A)$, para lo cual diremos qué hace con cada elemento de la base $\beta$. Tomaremos aquella transformación lineal $T_A\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$ tal que

$$T_A(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{u}_i.$$

Tomamos entonces $\Phi(A)=T_A$. Veamos que $\Phi$ tiene todas las propiedades que queremos.

  • $\Phi$ es suprayectiva. Si tenemos una transformación $T:\mathbb{R}^n\to \mathbb{R}^m$, entonces por la construcción anterior se tiene que su forma matricial $A:=\text{Mat}_{\gamma,\beta}(T)$ justo cumple $T_A=T$, de modo que $\Phi(A)=T$.
  • $\Phi$ es inyectiva. Si $A$ y $B$ son matrices distintas, entonces difieren en alguna entrada, digamos $(i,j)$. Pero entonces $T_A$ y $T_B$ difieren ya que $T_A(\bar{e}_j)\neq T_B(\bar{e}_j)$ ya que en las combinaciones lineales creadas hay un coeficiente distinto. Así, $\Phi(A)\neq \Phi(B)$.
  • $\Phi $ es lineal. Para $r\in \mathbb{R}$, $A$ y $B$ matrices con entradas $a_{ij}$ y $b_{ij}$, respectivamente, se cumple que $\Phi \left( rA+B \right)=T_{(rA+B)}$ y entonces se satisface para cada $j=1,\dots ,n$ lo siguiente:
    \begin{align*}
    (rA+B)[\bar{e}_{j}]_{\beta}&=rA[\bar{e}_{j}]_{\beta}+B[\bar{e}_{j}]_{\beta}\\&=r[T_A(\bar{e}_{i})]_{\gamma}+[T_{B}(\bar{e}_{i})]_{\gamma}.
    \end{align*}
    Por tanto para cada $\bar{e}_{i}$ tenemos que $$T_{(rA+B)}(\bar{e}_{i})=rT_{A}(\bar{e}_{i})+T_{B}(\bar{e}_{i})$$ y en consecuencia $$T_{(rA+B)}=rT_{A}+T_{B}.$$ Así $$\Phi (rA+B)=r\Phi (A)+\Phi(B).$$

Todo lo anterior implica que $M_{m,n}\left( \mathbb{R} \right)\simeq \mathcal{L}(\mathbb{R}^n,\mathbb{R}^m)$, es decir, que ambos espacios vectoriales son isomorfos.

En búsqueda de una matriz sencilla

Por lo que hemos platicado hasta ahora, a cada transformación lineal le corresponde una matriz, y viceversa. De hecho, esta asociación respeta operaciones como la suma y el producto por escalar. Esta equivalencia está dada a partir de la función $\Phi$ encontrada en la sección anterior.

Si $\Phi $ es biyectiva, ¿por qué hablamos entonces de encontrar una representación matricial simple para una transformación lineal $T$? Esto parecería no tener sentido, pues a cada transformación le corresponde una y sólo una matriz. Sin embargo, esto es cierto únicamente tras haber fijado las bases $\beta$ y $\gamma$ para $\mathbb{R}^n$ y $\mathbb{R}^m$, respectivamente. Así, dependiendo de la elección de las bases las representaciones matriciales cambian y si tenemos una transformación lineal $T$, es posible que querramos encontrar bases $\beta$ y $\gamma$ en donde la representación matricial sea sencilla.

Nos enfocaremos únicamente en transformaciones lineales que van de un espacio vectorial a sí mismo. Tomemos entonces $T:\mathbb{R}^n\to \mathbb{R}^n$ y una base $\beta$ de $\mathbb{R}^n$. Por simplicidad, escribiremos $\text{Mat}_{\beta, \beta}(T)$ simplemente como $\text{Mat}_{\beta}(T)$. Hay propiedades de $T$ que podemos leer en su matriz $\text{Mat}_{\beta}(T)$ y que no dependen de la base $\beta$ que hayamos elegido. Si con una base $\beta$ especial resulta que $\text{Mat}_{\beta}(T)$ es muy sencilla, entonces podremos leer estas propiedades de $T$ muy fácilmente. Un ejemplo es la siguiente proposición, la cual queda como tarea moral.

Proposición. La transformación lineal $T:\mathbb{R}^n\to\mathbb{R}^n$ es invertible si y sólo si $\text{Mat}_{\beta}(T)$ es invertible.

Si $A=\text{Mat}_{\beta}(T)$ fuera muy muy sencilla, por ejemplo, si fuera una matriz diagonal, entonces podríamos saber la invertibilidad de $T$ sabiendo la invertibilidad de $A$, y la de $A$ sería muy fácil de ver pues por ser matriz diagonal bastaría hacer el producto de las entradas de su diagonal para obtener su determinante y estudiar si es distinto de cero.

Motivados por el ejemplo anterior, estudiemos la siguiente pregunta: ¿toda transformación lineal se puede representar con una matriz diagonal? Si una transformación lineal se puede representar de esta manera, diremos que es diagonalizable.

Eigenvalores, eigenvectores y eigenespacios

En lo que sigue repasaremos el aparato conceptual que nos permitirá dar una respuesta parcial de cuándo una matriz es diagonalizable. Un tratamiento mucho más detallado se puede encontrar aquí en el blog, en el curso de Álgebra Lineal II, comenzando con la entrada Eigenvectores y eigenvalores.

Para nuestro repaso, debemos introducir algunos conceptos y estudiarlos.

Definición. Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal. Diremos que un escalar $r \in \mathbb{R}$ es un eigenvalor de $T$ si existe $\bar{v}\in \mathbb{R}^n\setminus\{ \bar{0} \}$ tal que $T(\bar{v})=r\bar{v}$. A dicho vector $\bar{v}$ le llamaremos un eigenvector de $T$ con eigenvalor asociado $r$.

Dado un eigenvector $\bar{v}\in \mathbb{R}^n$, sólo hay un eigenvalor correspondiente a éste. Si $T(\bar{v})=r\bar{v}$ y $T(\bar{v})=t\bar{v}$, entonces $r\bar{v}=t\bar{v}$ de donde $(r-t)\bar{v}=\bar{0}$. Como $\bar{v}\neq \bar{0}$, se sigue que $r=t$.

Por otro lado, para un eigenvalor $r$ puede haber más de un eigenvector con eigenvalor asociado $r$. Consideremos para un eigenvalor $r$ el conjunto $E(r)=\{ \bar{v}\in V |T(\bar{v})=r\bar{v}\}$. Notemos que $\bar{0}\in E(r)$ y también todos los eigenvectores de $r$ están en $E(r)$. Además, $E(r)$ es un subespacio de $\mathbb{R}^n$, pues si $\bar{u},\bar{v} \in E(r)$, y $a\in \mathbb{R}$, tenemos

\begin{align*}
T(a\bar{u}+\bar{v})&=aT(\bar{u})+T(\bar{v})\\
&=a(r\bar{u})+(r\bar{v})\\
&=r(a\bar{u}+\bar{v}),
\end{align*}

lo cual implica que $a\bar{u}+\bar{v} \in E(r)$.

Definición. Para una transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$ y un eigenvalor $r$ de $T$ llamaremos a

$$E(r)=\{ \bar{v}\in V |T(\bar{v})=r\bar{v}\}$$

el eigenespacio de $T$ correspondiente a $r$.

Cuando tenemos eigenvectores correspondientes a eigenvalores distintos, cumplen algo especial.

Proposición. Si $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son eigenvectores de una transformación lineal $T:\mathbb{R}^n \rightarrow \mathbb{R}^n$ con eigenvalores correspondientes $r_{1}, \dots ,r_{l}$ distintos entonces $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son linealmente independientes.

Demostración. La ruta para establecer la demostración de este teorema será por inducción sobre $l$. Para un conjunto con sólo un eigenvector el resultado es evidente (¿por qué?). Supongamos cierto para cualquier subconjunto de $l-1$ eigenvectores que pertenecen a eigenespacios distintos. Sean $\bar{v}_{1}, \dots ,\bar{v}_{l}$ eigenvectores en distintos eigenespacios y consideremos $\alpha _{1}, \dots ,\alpha_{l}$ escalares tales que:

\begin{equation}
\label{eq:comb-cero}
\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k}=\bar{0}.
\end{equation}

Aplicamos $T$ a la igualdad anterior. Usando que cada $\bar{v}_{k}$ es eigenvector correspondiente al eigenvalor $r_{k}$ obtenemos:

\begin{align*}
\bar{0}=T(\bar{0})&=T\left(\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k} \right)\\&=\sum_{k=1}^{l}\alpha _{k}T(\bar{v}_{k})\\&=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}.
\end{align*}

Es decir,

\begin{equation}
\label{eq:aplicarT}
\textbf{0}=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}
\end{equation}

Multipliquemos \eqref{eq:comb-cero} por $r_{l}$ y restemos el resultado de \eqref{eq:aplicarT} para obtener que

\begin{align*}
\bar{0}=\bar{0}-\bar{0}&=\sum_{k=1}^{l}\alpha _{k}r_{k}\bar{v}_{k}-r_{l}\sum_{k=1}^{l}\alpha _{k}\bar{v}_{k}\\&=\sum_{k=1}^{l-1}\alpha _{k}(r_{k}-r_{l})\bar{v}_{k}.
\end{align*}

Tenemos entonces:

\[ \sum_{k=1}^{l-1}\alpha _{k}(r_{k}-r_{l})\bar{v}_{k}=\bar{0}.\]

Ya que por hipótesis de inducción $\bar{v}_{1}, \dots ,\bar{v}_{l-1}$ son linealmente independientes entonces $\alpha _{k}(r_{k}-r_{l})=0$ para todo $k$, pero los eigenvalores son todos distintos entre sí por lo tanto para todo $k$ de $1$ a $l-1$ se tiene $r_{k}-r_{l}\neq 0$ y así $\alpha _{k}=0$. Finalmente, usando \eqref{eq:comb-cero} obtenemos $\alpha_l=0$. Por lo tanto $\bar{v}_{1}, \dots ,\bar{v}_{l}$ son linealmente independientes.

$\square$

Eigenvectores y transformaciones diagonalizables

Recuerda que dijimos que una transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$ es diagonalizable si existe una base $\beta$ de $\mathbb{R}^n$ tal que $\text{Mat}_{\beta}(T)$ es una matriz diagonal. El siguiente resultado conecta las dos ideas que hemos estado explorando: los eigenvectores y la representabilidad sencilla de $T$.

Teorema. Sea $T:\mathbb{R}^{n}\rightarrow \mathbb{R}^{n}$ transformación lineal. Una matriz $T$ es diagonalizable si y sólo si existe una base de $\mathbb{R}^n$ conformada por eigenvectores de $T$.

En realidad la demostración consiste únicamente en entender correctamente cómo se construyen las matrices para una base dada.

Demostración. $\Rightarrow )$ Supongamos que $T$ tiene una representación matricial que es una matriz diagonal $A:=\text{Mat}_{\beta}(T)=\text{diag}(r_{1}, \dots ,r_{n})$ con respecto a la base $\beta=\{\bar{v}_{1}, \dots ,\bar{v}_{n}\}$. Afirmamos que para cada $j=1,\ldots,n$ se tiene $\bar{v}_j$ es eigevector de eigenvalor $r_j$. En efecto, la forma en la que se construyó la matriz $A$ nos dice que

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i \\&= a_{jj} \bar{e}_j \\&= r_j \bar{e}_j,
\end{align*}

en donde estamos usando que las entradas $a_{ij}$ de la matriz son cero si $i\neq j$ (por ser diagonal), y son $r_j$ si $i=j$. Por supuesto, como $\bar{e}_j$ forma parte de una base, tampoco es el vector cero. Así, $\bar{e}_j$ es eigenvector de eigenvalor $\bar{e}_j$.

$\Leftarrow )$ Supongamos ahora que $\bar{v}_{1},\dots ,\bar{v}_{n}$ son una base $\beta$ de $\mathbb{R}^n$ conformada por eigenvectores de $T$ con eigenvalores asociados, digamos, $r_{1},\dots ,r_{n}$. Aquí se puede mostrar que $\text{Mat}_\beta(T)$ es diagonal. Queda como tarea moral hacer las cuentas.

$\square$

Hay una situación particular en la que podemos aprovechar el teorema anterior de manera inmediata: cuando la transformación tiene $n$ eigenvalores distintos. Esta consecuencia queda establecida en el siguiente resultado.

Corolario. Toda transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ tiene a lo más $n$ eigenvalores distintos. Si $T$ tiene exactamente $n$ eigenvalores distintos, entonces los eigenvectores correspondientes forman una base para $\mathbb{R}^n$ y la matriz de $T$ relativa a esa base es una matriz diagonal con los eigenvalores como elementos diagonales.

Demostración. Queda como tarea moral. Como sugerencia, recuerda que mostramos arriba que los eigenvectores de eigenvalores distintos son linealmente independientes.

$\square$

Al parecer los eigenvalores, eigenvectores y eigenespacios de una transformación lineal son cruciales para poder expresarla de manera sencilla. ¿Cómo los encontramos? Esto lo veremos en la siguiente entrada.

Antes de concluir, mencionamos que hay otro teorema crucial sobre diagonalización de matrices. Diremos que una matriz $P\in M_n(\mathbb{R})$ es ortogonal si $P^tP=I$.

Teorema (el teorema espectral). Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces, existe una matriz ortogonal $P$ tal que $PAP^t$ es una matriz diagonal.

El teorema anterior nos dice no únicamente que la matriz $A$ es diagonalizable, sino que además es diagonalizable mediante un tipo muy especial de matrices. Un estudio y demostración de este teorema queda fuera de los alcances de nuestro curso, pero puedes revisar, por ejemplo la entrada teorema espectral del curso de Álgebra Lineal I que tenemos en el blog.

Más adelante

Lo que haremos en la siguiente entrada es desarrollar un método para conocer los eigenvalores de una matriz. A partir de ellos podremos encontrar sus eigenvectores. Y en ciertos casos especiales, esto nos permitirá mostrar que la transformación es diagonalizable y, de hecho, nos dará la base para la cual la matriz asociada es diagonal.

Tarea moral

  1. Considera la transformación lineal de $\mathbb{R}^{3}$ en $\mathbb{R}^{2}$, dada como $T(x,y,z)=(x+y,z+y)$. Encuentra su representación matricial con las bases canónicas de $\mathbb{R}^3$ y $\mathbb{R}^2$. Luego, encuentra su representación matricial con las bases $\{(1,2,3),(1,0,1),(0,-1,0)\}$ de $\mathbb{R}^3$ y $\{(1,1),(1,-1)\}$ de $\mathbb{R}^2$.
  2. Considera la siguiente matriz: \[ \begin{pmatrix} 1 & 0 & 2 & 3 \\ 0 & -1 & 0 & 2 \\ \end{pmatrix}\] Da una transformación lineal $T:\mathbb{R}^4\to \mathbb{R}^2$ y ciertas bases $\beta$ de $\mathbb{R}^4$ y $\gamma$ de $\mathbb{R}^2$ para las cuales esta matriz sea la representación matricial de $T$ en las bases $\beta$ y $\gamma$.
  3. Fija bases $\beta$, $\gamma$ y $\delta$ para $\mathbb{R}^n$, $\mathbb{R}^m$ y $\mathbb{R}^l$. Considera dos transformaciones lineales $T:\mathbb{R}^n\to \mathbb{R}^m$ y $S:\mathbb{R}^m\to \mathbb{R}^l$. Demuestra que:
    $$\text{Mat}_{\delta, \beta} (S \circ T) = \text{Mat}_{\delta,\gamma}(S) \text{Mat}_{\gamma, \beta} (T).$$
    En otras palabras que la «composición de transformaciones corresponde al producto de sus matrices».
  4. Sea $T:\mathbb{R}^n\to\mathbb{R}^n$ una transformación lineal y $\beta$ una base de $\mathbb{R}^n$. Demuestra que $T$ es biyectiva si y sólo si $\text{Mat}_{\beta}(T)$ es invertible.
  5. Verifica que los vectores $\bar{v}_1,\ldots,\bar{v}_n$ dados en el último teorema en efecto ayudan a dar una representación matricial diagonal para $T$.
  6. La demostración del último corolario es un conjunto de sencillas consecuencias de las definiciones y teoremas desarrollados en esta entrada con respecto a los eigenvalores y eigenvectores. Realiza esta demostración.

Entradas relacionadas

Ecuaciones Diferenciales I: El plano Traza – Determinante

Por Omar González Franco

Las matemáticas son la creación más poderosa y bella del espíritu humano.
– Stefan Banach

Introducción

Con esta entrada culminaremos el estudio de los sistemas lineales. En la unidad 3 hicimos un estudio analítico y en esta unidad un estudio cualitativo, aunque reducido a un sistema compuesto por dos ecuaciones, esto con el fin de hacer al mismo tiempo un estudio geométrico en el plano.

A continuación presentamos un breve resumen de los visto en las entradas anteriores.

Clasificación de los planos fase y los puntos de equilibrio

El sistema que estudiamos todo este tiempo fue

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Este sistema lo podemos escribir en forma matricial como

$$\begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \begin{pmatrix}
x \\ y
\end{pmatrix} \label{2} \tag{2}$$

Si

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

entonces el sistema (\ref{2}) se escribe como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Vimos que la naturaleza y estabilidad del punto de equilibrio quedó caracterizada por los valores propios de la matriz $\mathbf{A}$ del sistema.

El único punto de equilibrio de los sistemas lineales es el origen $Y_{0} = (0, 0)$, siempre que el determinante de $\mathbf{A}$ sea distinto de cero. En la entrada anterior teníamos que $|\mathbf{A}| = 0$, es por ello que obtuvimos infinitos puntos de equilibrio y es que el hecho de que tengamos valores propios nulos es un caso especial y poco común.

En el caso en el que no hay valores propios nulos, sabemos que en función del comportamiento de las trayectorias en relación con el punto de equilibrio aislado $Y_{0} = (0, 0)$, este punto se denominará: nodo, punto silla, centro, foco, atractor o repulsor. Recordemos cuando se da cada caso.

  1. El punto de equilibrio es un nodo.

    Este caso ocurre cuando los valores propios $\lambda_{1}$ y $\lambda_{2}$ son reales y del mismo signo.
  • Si $\lambda_{1} < \lambda_{2} < 0$, entonces todas las trayectorias se acercan al origen, de manera que el punto de equilibrio es un nodo atractor y será asintóticamente estable.
Nodo atractor.
  • Si $\lambda_{1} > \lambda_{2} > 0$, entonces todas las trayectorias se alejan del origen, por tanto, el punto de equilibrio es un nodo repulsor y será inestable.
Nodo repulsor.
  1. El punto crítico es un punto silla.

    Este caso se presenta cuando los valores propios $\lambda_{1}$ y $\lambda_{2}$ son reales y de distinto signo.
  • Si $\lambda_{1} < 0$ y $\lambda_{2} > 0$ ocurre que dos trayectorias rectas se acercan al origen y otras dos trayectorias rectas se separan de él, mientras que el resto de trayectorias al pasar cerca del origen inmediatamente se alejan de él. Esto nos permite concluir que todo punto silla es inestable.
Punto silla.
  1. El punto crítico es un centro.

    Este caso se presenta cuando los valores propios son imaginarios puros.
  • Si $\lambda_{1} = i \beta$ y $\lambda_{2} = -i \beta$, entonces las trayectorias serán curvas cerradas que rodean al origen, en general tienen forma de elipses, de modo que ninguna trayectoria tiende a él cuando $t \rightarrow + \infty $ o $t \rightarrow -\infty $, esto hace que el punto de equilibrio sea estable, pero no asintóticamente estable.
Centro.
  1. El punto crítico es un foco.

    En este caso los valores propios son complejos conjugados y tienen parte real no nula.
  • Si $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$, entonces las trayectorias son curvas en forma de espiral que, conforme $t \rightarrow + \infty$ todas se acercan al origen, es por ello que el punto de equilibrio es asintóticamente estable.
Foco estable.
  • Si $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$, entonces las trayectorias son curvas en forma de espiral que, conforme $t \rightarrow + \infty$ todas se separan del origen, es por ello que el punto de equilibrio es inestable.
Foco inestable.
  1. El punto crítico es un atractor o un repulsor.

    Este caso se presenta cuando un sistema lineal tiene valores propios reales, del mismo signo, pero además iguales.
  • Si $\lambda_{1} = \lambda_{2} < 0$, entonces las trayectorias tienden hacia el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un atractor y es asintóticamente estable.
Atractor.
  • Si $\lambda_{1} = \lambda_{2} > 0$, entonces las trayectorias se alejan el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un repulsor y es inestable.
Repulsor.
  1. Los puntos críticos son una recta.

    En este caso particular hay infinitos puntos de equilibrio, todos sobre una recta y ocurre cuando uno o ambos valores propios son cero.
Líneas de puntos fijos inestables.
Líneas de puntos fijos estables.

Como podemos ver, las características de las trayectorias y de los puntos de equilibrio en el plano fase quedan determinadas por los valores propios de la matriz de coeficientes $\mathbf{A}$. Sin embargo, estas características también se pueden describir en términos de la traza $T$ y del determinante $D$ de la matriz de coeficientes $A$, veamos como es esto.

La traza y el determinante de la matriz de coeficientes

Consideremos la matriz de coeficientes

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{4} \tag{4}$$

Sabemos que la traza de una matriz se define como la suma de los elementos de la diagonal principal de dicha matriz. En nuestro caso, la traza de $\mathbf{A}$ es

$$T = Tr(\mathbf{A}) = a + d \label{5} \tag{5}$$

Por otro lado, el determinante de la matriz $\mathbf{A}$ es

$$D = |\mathbf{A}| = ad -bc \label{6} \tag{6}$$

Consideremos la ecuación característica de $\mathbf{A}$.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
a -\lambda & b \\ c & d -\lambda
\end{vmatrix} = 0 \label{7} \tag{7}$$

El polinomio característico es

$$P(\lambda) = (a -\lambda)(d -\lambda) -bc = \lambda^{2} -(a + d) \lambda + (ad -bc) \label{8} \tag{8}$$

Si sustituimos las ecuaciones (\ref{5}) y (\ref{6}) en la ecuación característica se tiene

$$\lambda^{2} -T \lambda + D = 0 \label{9} \tag{9}$$

Las raíces de esta ecuación cuadrática son

$$\lambda_{1} = \dfrac{T + \sqrt{T^{2} -4D}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{T -\sqrt{T^{2} -4D}}{2} \label{10} \tag{10}$$

Hemos logrado escribir a los valores propios de $\mathbf{A}$ en términos de la traza y del determinante de la misma matriz $\mathbf{A}$.

De tarea moral, usando (\ref{10}) calcula explícitamente las operaciones $(\lambda_{1} + \lambda_{2})$ y $(\lambda_{1} \cdot \lambda_{2})$ y verifica que se satisfacen las siguientes relaciones importantes.

$$T = \lambda_{1} + \lambda_{2} \label{11} \tag{11}$$

y

$$D = \lambda_{1} \lambda_{2} \label{12} \tag{12}$$

Es decir, la traza y el determinante de $\mathbf{A}$ también se pueden escribir en términos de los valores propios de $\mathbf{A}$.

El análisis cualitativo que hemos hecho a lo largo de las últimas entradas ha sido en función de los valores propios, recordemos que las posibilidades son

Valores propios reales y distintos:

  • $\lambda_{1} < \lambda_{2} < 0$.
  • $\lambda_{1} > \lambda_{2} > 0$.
  • $\lambda_{1} < 0$ y $\lambda_{2} > 0$.

Valores propios complejos:

  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha = 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$.

Valores propios repetidos:

  • $\lambda_{1} = \lambda_{2} < 0$.
  • $\lambda_{1} = \lambda_{2} > 0$.

Valores propios nulos

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

Sin embargo, ahora podemos analizar cada caso pero en función de los valores de la traza $T$ y el determinante $D$ de $\mathbf{A}$, ya que inmediatamente podemos notar de (\ref{10}) que los valores propios de $\mathbf{A}$ son complejos si $T^{2} -4D < 0$, son repetidos si $T^{2} -4D = 0$, y son reales y distintos si $T^{2} -4D > 0$.

El plano Traza – Determinante

Comenzaremos a hacer un nuevo bosquejo para los sistemas lineales examinando el conocido plano traza – determinante. El eje $T$ corresponderá a la línea horizontal y representa a la traza, mientras que el eje $D$ corresponderá a la vertical y representa al determinante. En este plano la curva

$$T^{2} -4D = 0$$

o su equivalente,

$$D(T) = \dfrac{T^{2}}{4} \label{13} \tag{13}$$

es una parábola con concavidad hacia arriba. Arriba de ésta encontramos $T^{2} -4D < 0$, y abajo de ella $T^{2} -4D > 0$, tal como se muestra en la siguiente figura.

Plano traza – determinante.

Para usar este plano, calculamos primero $T$ y $D$ para una matriz $\mathbf{A}$ dada y luego localizamos el punto $(T, D)$ en el plano. De forma inmediata podremos visualizar si los valores propios son reales, repetidos o complejos, dependiendo de la posición de $(T, D)$ respecto a la parábola.

Ejemplo: Determinar el tipo de valores propios que tiene el siguiente sistema lineal.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & 5 \\ -2 & 6
\end{pmatrix} \mathbf{Y}$$

Solución: La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
4 & 5 \\ -2 & 6
\end{pmatrix}$$

Vemos que

$$T = 4 + 6 = 10$$

y

$$D = 4(6) -5(-2) = 24 + 10 = 34$$

Ahora bien

$$T^{2} -4D = (10)^{2} -4(34) = 100 -136 = -36$$

Como $T^{2} -4D < 0$, entonces inmediatamente concluimos que los valores propios son complejos conjugados. Ahora bien, aún no sabemos si se trata de un centro o algún tipo de espiral, pero por el momento no nos preocupemos por ello.

Sólo con el fin de conocer el tipo de soluciones que tiene el sistema, su plano fase es el siguiente.

Plano fase del sistema.

Las trayectorias del sistema corresponden a espirales y el punto de equilibrio es un foco inestable. Observa que la figura ya nos da los valores de la traza, el determinante y el discriminante, aunque con una notación distinta.

Ahora puedes regresar a visualizar los planos fase de todos los ejemplos que hicimos en las 4 entradas anteriores y poner más atención en los valores de la traza y el determinante.

$\square$

Por su puesto que podemos hacer mucho más en el plano traza – determinante. Por ejemplo, desearíamos no sólo saber si los valores propios de $\mathbf{A}$ son complejos, repetidos o reales, sino que también conocer si tienen parte real nula o distinta de cero o si son reales positivos, negativos o de distinto signo, etcétera.

A continuación haremos un análisis más detallado sobre las raíces (\ref{10}) y veremos que tipo de información nos proporciona sobre los sistemas lineales.

Recordemos que los valores propios de $\mathbf{A}$, en términos de la traza y el determinante de $\mathbf{A}$ son

$$\lambda_{1} = \dfrac{T + \sqrt{T^{2} -4D}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{T -\sqrt{T^{2} -4D}}{2}$$

Atendiendo a los diferentes valores de $T$ y $D$, se tiene:

  1. Si $T^{2} -4D < 0$, entonces los valores propios $\lambda_{1}$ y $\lambda_{2}$ son complejos conjugados con parte real igual a $T /2$. Se tienen los siguientes casos:
  • Los valores propios son imaginarios puros si $T = 0$ (centro y estabilidad).
  • Los valores propios tienen parte real negativa cuando $T < 0$ (foco y estabilidad asintótica).
  • Los valores propios tienen parte real positiva cuando $T > 0$ (foco e inestabilidad).

    Si consideramos el plano traza – determinante y denotamos por $O$ al origen podremos asegurar que por encima de la parábola $T^{2} -4D = 0$ se tiene:
  • En el eje $OD$ se presentan los centros y hay estabilidad.
  • A la izquierda del eje $OD$ se presentan los focos y hay estabilidad asintótica.
  • A la derecha del eje $OD$ también se presentan focos, pero hay inestabilidad.
  1. Si $D < 0$, entonces se tiene $T^{2} -4D > T^{2}$. En este caso los valores propios son reales y de distinto signo, lo que significa que se presentarán puntos silla e inestabilidad. En el plano traza – determinante los encontraremos por debajo del eje $T$.
  1. Si $D > 0$ y $T^{2} -4D \geq 0$, entonces los valores propios son reales y tienen el mismo signo que $T$. Los casos posibles son:
  • Si $T < 0$, se tiene:
    • Cuando $T^{2} -4D = 0$, los valores propios son iguales y negativos (atractor y estabilidad asintótica).
    • Cuando $T^{2} -4D > 0$, los valores propios son reales, distintos y negativos (nodo atractor y estabilidad asintótica).
  • Si $T > 0$, se tiene:
    • Cuando $T^{2} -4D = 0$, los valores propios son iguales y positivos (repulsor e inestabilidad).
    • Cuando $T^{2} -4D > 0$, los valores propios son reales, distintos y positivos (nodo repulsor e inestabilidad).
  1. Si $D = 0$, entonces uno o ambos valores propios son cero. Los siguientes casos se obtienen directamente de (\ref{11}) y (\ref{12}).
  • Si $T = 0$ (origen), entonces ambos valores propios son cero (recta de puntos de equilibrio y trayectorias paralelas a dicha recta).
  • Si $T > 0$, entonces un valor propio es cero y el otro es positivo (recta de puntos de equilibrio inestables y trayectorias rectas que se alejan de la recta de puntos de equilibrio).
  • Si $T < 0$, entonces un valor propio es cero y el otro es negativo (recta de puntos de equilibrio asintóticamente estables y trayectorias rectas que tienden a la recta de puntos de equilibrio).

¡Todo lo que hemos aprendido sobre sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales de primer orden con coeficientes constantes, incluyendo todas las características anteriores, se resume en el siguiente diagrama!.

Plano traza – determinante con todas las posibilidades de planos fase.

Veamos un ejemplo.

Ejemplo: Caracterizar el siguiente sistema lineal.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
3 & -4 \\ 1 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
3 & -4 \\ 1 & -1
\end{pmatrix}$$

Vemos que

$$T = 3 + (-1) = 2$$

y

$$D = 3(-1) -(-4)(1) = -3 + 4 = 1$$

tenemos, entonces

$$T^{2} -4D = (2)^{2} -4(1) = 4 -4 = 0$$

Como $T > 0$, $D > 0$ y $T^{2} -4D = 0$, vamos al punto 3 y deducimos que el sistema lineal tiene valores propios iguales y positivos. De acuerdo a las ecuaciones (\ref{11}) y (\ref{12}) se tiene el siguiente sistema.

\begin{align*}
T &= 2 = \lambda_{1} + \lambda_{2} \\
D &= 1 = \lambda_{1}\lambda_{2}
\end{align*}

De la primer ecuación obtenemos $\lambda_{1} = 2 -\lambda_{2}$, sustituyendo en la segunda ecuación se tiene

$$1 = (2 -\lambda_{2}) \lambda_{2}$$

de aquí obtenemos la ecuación cuadrática

$$\lambda_{2}^{2} -2 \lambda_{2} + 1 = 0$$

Las raíces son

$$\lambda_{2} = \dfrac{2 \pm \sqrt{4 -4}}{2} = 1$$

La única raíz es $\lambda_{2} = 1$, sustituyendo en cualquier ecuación del sistema obtenemos que $\lambda_{1} = 1$. Por lo tanto, el único valor propio de la matriz $\mathbf{A}$ es $\lambda = 1$ (iguales y positivos, tal como lo habíamos deducido).

Si vamos al plano traza – determinante, como $T > 0$ y $D > 0$, entonces estamos en el primer cuadrante, pero además $T^{2} -4D = 0$, así que estamos situados sobre la parábola del primer cuadrante, exactamente en el punto $(T, D) = (2, 1)$, esto nos permite concluir que el plano fase del sistema corresponde a repulsor.

El plano fase del sistema es el siguiente.

Plano fase del sistema.

Efectivamente se trata de un repulsor.

$\square$

Debido a que cada punto del plano traza – determinante representa un plano fase distinto, el plano traza – determinante es un ejemplo de lo que se conoce como plano paramétrico.

El plano paramétrico

El plano traza – determinante es un ejemplo de un plano paramétrico. Los elementos de la matriz $\mathbf{A}$ son parámetros que se pueden ajustar, cuando esos elementos cambian, la traza y el determinante de la matriz también se modifican y el punto $(T, D)$ se mueve en el plano paramétrico. Cuando este punto entra en las diversas regiones del plano traza – determinante, debemos imaginar que los retratos fase asociados también experimentan transformaciones.

El plano traza – determinante es un esquema de clasificación del comportamiento de todas las posibles soluciones de sistemas lineales.

En este enlace se tiene acceso a una herramienta visual del plano paramétrico. En él se puede mover el punto $(T, D)$ a lo largo de las diferentes regiones del plano traza – determinante a la vez que visualizamos el tipo de planos fase que se generan. ¡Pruébalo y diviértete!

Con esto concluimos el estudio de los sistemas lineales. Cabe mencionar que el plano traza – determinante no da una información completa sobre el sistema lineal tratado.

Por ejemplo, a lo largo de la parábola $T^{2} -4D = 0$ tenemos valores propios repetidos, pero no podemos determinar si tenemos uno o varios vectores propios linealmente independientes. para saberlo es preciso calcularlos.

De modo similar, no podemos determinar la dirección en que las soluciones se mueven alrededor del origen si $T^{2}-4D < 0$. Por ejemplo, las dos matrices

$$\mathbf{A} = \begin{pmatrix}
0 & 1 \\ -1 & 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{B} = \begin{pmatrix}
0 & -1 \\ 1 & 0
\end{pmatrix}$$

tienen traza $T = 0$ y determinante $D = 1$, pero las soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ se mueven alrededor del origen en el sentido de las manecillas del reloj, mientras que las soluciones de $\mathbf{Y}^{\prime} = \mathbf{BY}$ viajan en el sentido opuesto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Hacer un análisis cualitativo de los siguientes sistemas lineales apoyándose de la traza y el determinante de la matriz de coeficientes $\mathbf{A}$, así como del plano traza – determinante. Es decir, de acuerdo al valor de la traza $T$, el determinante $D$ y el discriminante $T^{2} -4D$, determinar que tipo de valores propios tiene el sistema, así como el tipo de plano fase y estabilidad del punto de equilibrio.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    5 & 4 \\ -2 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -1 \\ -2 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 \\ 4 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & 3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -5 \\ 2 & 2
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Estamos cerca de concluir el curso. En las próximas entradas estudiaremos de manera cualitativa a los sistemas no lineales compuestos por dos ecuaciones diferenciales de primer orden.

En particular, en la siguiente entrada veremos que alrededor de un punto de equilibrio de un sistema no lineal las trayectorias son muy parecidas a las de un sistema lineal lo que nos permitirá observar el comportamiento que tienen las soluciones del sistema no lineal, al menos cerca de un punto de equilibrio.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Introducción a la teoría cualitativa de las ecuaciones diferenciales

Por Omar González Franco

No hay rama de la matemática, por lo abstracta que sea, que no
pueda aplicarse algún día a los fenómenos del mundo real.
– Lobachevski

Introducción

¡Bienvenidos a la cuarta y última unidad del curso de Ecuaciones Diferenciales I!.

En esta unidad estudiaremos a las ecuaciones diferenciales ordinarias desde una perspectiva cualitativa y geométrica. En particular, estudiaremos las propiedades cualitativas de los sistemas de ecuaciones diferenciales de primer orden que vimos en la unidad anterior y, como sabemos, las ecuaciones de orden superior se pueden reducir a sistemas de ecuaciones de primer orden, lo que significa que en nuestro estudio también estaremos revisando las propiedades cualitativas de algunas de las ecuaciones vistas en la unidad 2.

La teoría cualitativa ya no es nueva para nosotros, pues en la primera unidad estudiamos desde esta perspectiva a las ecuaciones de primer orden. Recordemos que una ecuación diferencial de primer orden se puede ver, en su forma normal, como

$$\dfrac{dy}{dx} = f(x, y(x)) = f(x, y) \label{1} \tag{1}$$

Y una ecuación diferencial autónoma como

$$\dfrac{dy}{dx} = f(y(x)) = f(y) \label{2} \tag{2}$$

En esta última ecuación la variable independiente no aparece explícitamente.

Sobre la ecuación (\ref{1}) definimos los conceptos de elementos lineales, campo de pendientes, curvas integrales e isóclinas y sobre la ecuación (\ref{2}) definimos conceptos como puntos de equilibrio o puntos críticos, esquema de fases, líneas de fase, así como atractores, repulsores y nodos. Muchos de estos conceptos los generalizaremos a los sistemas lineales, además de algunos otros conceptos nuevos que definiremos.

En esta entrada daremos una introducción intuitiva al análisis cualitativo y geométrico de los sistemas lineales y a partir de la siguiente entrada comenzaremos a formalizar la teoría.

Sistemas lineales

Recordemos que un sistema de ecuaciones diferenciales de primer orden es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{3} \tag{3}
\end{align*}

En forma vectorial se puede escribir como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)) \label{4} \tag{4}$$

Si el sistema es lineal, entonces se puede escribir, en su forma normal, como

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} + g_{1}(t) \\ y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} + g_{2}(t) \\ &\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} + g_{n}(t) \label{5} \tag{5}
\end{align*}

En esta unidad estudiaremos a detalle la propiedades cualitativas de los sistemas lineales compuestos por dos ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes por muchas razones, las cuales comentaremos al final de la entrada. Dicho sistema lo podemos escribir de la siguiente forma.

\begin{align*}
x^{\prime}(t) &= ax(t) + by(t) \\
y^{\prime}(t) &= cx(t) + dy(t) \label{6} \tag{6}
\end{align*}

En donde $a, b, c$ y $d$ son constantes. Si definimos

$$\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(t) = \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

entonces el sistema (\ref{6}) se puede escribir como

$${\mathbf{Y}}'(t) = \mathbf{AY}(t) \label{7} \tag{7}$$

Esta es la forma común con la que estuvimos trabajando en la unidad anterior. Si ahora definimos las funciones

$$F_{1}(t, x, y) = ax(t) + by(t) \hspace{1cm} y \hspace{1cm} F_{2}(t, x, y) = cx(t) + dy(t) \label{8} \tag{8}$$

y definimos el vector compuesto por estas funciones

$$\mathbf{F}(t, x, y) = \begin{pmatrix}
F_{1}(t, x, y) \\ F_{2}(t, x, y)
\end{pmatrix} \label{9} \tag{9}$$

entonces podemos escribir al sistema (\ref{6}) como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, x, y) \label{10} \tag{10}$$

De (\ref{7}) y (\ref{10}), se obtiene que

$$\mathbf{F}(t, x, y) = \mathbf{AY}(t) \label{11} \tag{11}$$

Esta es una nueva forma de ver un sistema lineal, sin embargo nuestro interés está en hacer un análisis cualitativo y geométrico, así que es conveniente ver a la ecuación (\ref{11}) como una función de varias variables definida en un dominio $U$.

Observemos que el sistema lineal (\ref{6}) no depende explícitamente de la variable $t$, por lo que podemos escribir

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{12} \tag{12}
\end{align*}

Y ahora podemos escribir

$$F_{1}(x, y) = ax + by \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = cx + dy \label{13} \tag{13}$$

Es claro que $F_{1}: \mathbb{R}^{2} \rightarrow \mathbb{R}$ y $F_{2}: \mathbb{R}^{2} \rightarrow \mathbb{R}$, es decir las funciones $F_{1}$ y $F_{2}$ son funciones de dos variables cuyo dominio está formado por puntos con $2$ coordenadas y la función asocia a cada punto un número real determinado. La gráfica de estas funciones está en $\mathbb{R}^{3}$. Ahora bien, se puede definir la función

$$F(x, y) = (F_{1}(x, y), F_{2}(x, y)) = (ax + by, cx + dy) \label{14} \tag{14}$$

En este caso $F: \mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$, así que ya no podemos visualizar su gráfica, sin embargo existe una técnica en la que en un mismo plano a cada elemento $(x, y) \in \mathbb{R}^{2}$ lo dibujamos como un punto y a $F(x, y)$ como un vector colocado sobre ese punto $(x, y)$. Por ejemplo, la función

$$F(x, y) = (x, y)$$

se puede visualizar como

Bosquejo de la función $F(x, y) = (x, y)$.

Este tipo de bosquejos es lo que conocemos como campos vectoriales.

Finalmente consideremos las soluciones del sistema lineal (\ref{12}). En este caso lo que obtendremos al resolver el sistema serán dos funciones $x(t)$ y $y(t)$ definidas como $x: \mathbb{R} \rightarrow \mathbb{R}$ y $y: \mathbb{R} \rightarrow \mathbb{R}$. Lo que deseamos es graficar de alguna manera estas dos funciones en el mismo plano en el que se bosqueja el campo vectorial $F(x, y)$, para hacerlo definimos la función

$$f(t) = (x(t), y(t)) \label{15} \tag{15}$$

Vemos que $f: \mathbb{R}^{2} \rightarrow \mathbb{R}$, es decir, dado un valor para $t$ las soluciones $x(t)$ y $y(t)$ toman un valor particular que sirven como entrada de la función $f$ y ésta devuelve un sólo valor.

Para tener una visualización de $f$ consideremos como ejemplo la función

$$f(t) = (t, t^{2})$$

con $t \in [-2, 2]$, es decir,

$$x(t) = t \hspace{1cm} y \hspace{1cm} y(t) = t^{2}$$

Consideremos algunos valores particulares

  • $t = -2 \hspace{0.7cm} \rightarrow \hspace{1cm} f(-2) = (-2, 4)$.
  • $t = 2 \hspace{1cm} \rightarrow \hspace{1cm} f(2) = (2, 4)$.
  • $t = -1 \hspace{0.7cm} \rightarrow \hspace{1cm} f(-1) = (-1, 1)$.
  • $t = 1 \hspace{1cm} \rightarrow \hspace{1cm} f(1) = (1, 1)$.

Para visualizar estos datos lo que vamos a hacer es dibujar vectores que parten del origen hacía las coordenadas $(x(t), y(t))$ obtenidas, tal como se muestra en la siguiente figura.

Vectores correspondientes a $f(t)$ para $t = -2, -1, 1, 2$.

$f(t)$ será la curva que trazará la punta del vector a medida que $t$ tiene distintos valores. Siguiendo con el mismo ejemplo $f(t) = (t, t^{2})$ para $t \in [-2, 2]$, la curva que traza $f$ se ve de la siguiente forma.

Curva de la función $f(t) = (t, t^{2})$ para $t \in [-2, 2]$.

Observemos que $f(t) = (t, t^{2})$ no es más que la parametrización de la parábola $y(x) = x^{2}$ en el intervalo $[-2, 2]$. Es por ello que diremos que $f(t)$ es una función paramétrica.

Recordemos que un sistema de ecuaciones paramétricas permite representar una curva o superficie en el plano o en el espacio mediante una variable $t$ llamada parámetro que recorre un intervalo de números reales, considerando cada coordenada de un punto como una función dependiente del parámetro.

Concluiremos esta entrada con un ejemplo para visualizar cómo es que esta nueva forma de ver el problema de resolver un sistema lineal nos ayudará a obtener información cualitativa del mismo.

Análisis cualitativo y geométrico

Ejemplo: Hacer un análisis cualitativo y geométrico del siguiente sistema lineal homogéneo.

\begin{align*}
x^{\prime} &= 2x + 3y \\
y^{\prime} &= 2x + y \label{16} \tag{16}
\end{align*}

Solución: Primero resolvamos el sistema de forma tradicional, es decir, analíticamente.

La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
2 & 3 \\ 2 & 1
\end{pmatrix} \label{17} \tag{17}$$

Los valores propios se obtienen de resolver la siguiente ecuación característica.

$$|\mathbf{A} -\lambda \mathbf{I})| = \begin{vmatrix}
2 -\lambda & 3 \\ 2 & 1-\lambda
\end{vmatrix} = \lambda^{2} -3 \lambda -4 = (\lambda + 1)(\lambda -4) = 0$$

Resolviendo se obtiene que los valores propios son

$$\lambda_{1} = -1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 4$$

Determinemos los vectores propios.

Para $\lambda_{1} = -1$, debemos resolver

$$(\mathbf{A} + \mathbf{I}) \mathbf{K} = \mathbf{0}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
3k_{1} + 3k_{2} &= 0 \\
2k_{1} + 2k_{2} &= 0
\end{align*}

De donde $k_{1} = -k_{2}$. Si elegimos $k_{2} = 1$, se obtiene $k_{1} = -1$ y entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

Para $\lambda_{2} = 4$, debemos resolver

$$(\mathbf{A} -4\mathbf{I}) \mathbf{K} = \mathbf{0}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2k_{1} + 3k_{2} &= 0 \\
2k_{1} -3k_{2} &= 0
\end{align*}

Se ve que $k_{1} = \dfrac{3}{2}k_{2}$, así si $k_{2} = 2$, entonces $k_{1} = 3$ y por tanto el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}$$

Las soluciones linealmente independientes son

$$\mathbf{\mathbf{Y}}_{1}(t) = \begin{pmatrix}
-1 \\ 1
\end{pmatrix} e^{ -t} \hspace{1cm} y \hspace{1cm}
\mathbf{\mathbf{Y}}_{2}(t) = \begin{pmatrix}
3 \\ 2
\end{pmatrix}e^{4t} \label{18} \tag{18}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{\mathbf{Y}}(t) = c_{1} \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{ -t} + c_{2} \begin{pmatrix}
3 \\ 2
\end{pmatrix} e^{4t} \label{19} \tag{19}$$

Si dejamos de usar la notación matricial podemos escribir a las soluciones como

$$x(t) = c_{1} e^{-t} + 3c_{2} e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = -c_{1}e^{-t} + 2c_{2} e^{4t} \label{20} \tag{20}$$

Hasta aquí es hasta donde hemos llegado con lo visto en la unidad anterior, ahora veamos el comportamiento de estas soluciones geométricamente.

Obtuvimos dos funciones, cada una de ellas depende de la variable $t$ de forma que la primer función la podemos graficar en el plano $XT$, mientras que la segunda en el plano $YT$.

La gráfica de $x(t)$ para $c_{1} = c_{2} = 1$ se ve de la siguiente forma.

Función $ x(t) = e^{-t} + 3 e^{4t}$ en el plano $XT$.

Por otro lado, la gráfica de $y(t)$ para $c_{1} = c_{2} = 1$ se ve de la siguiente forma.

Función $y(t) = -e^{-t} + 2e^{4t}$ en el plano $YT$.

De acuerdo a (\ref{15}), la función paramétrica es

$$f(t) = (c_{1}e^{-t} + 3c_{2}e^{4t}, -c_{1}e^{-t} + 2c_{2}e^{4t}) \label{21} \tag{21}$$

Para el caso particular en el que $c_{1} = c_{2} = 1$ la función paramétrica es

$$f(t) = (e^{-t} + 3e^{4t}, -e^{-t} + 2 e^{4t}) \label{22} \tag{22}$$

Grafiquemos en el plano $XY$ la trayectoria de esta función.

Trayectoria en el plano $XY$ o plano fase.

Como ejemplo, si $t = 0$, entonces $x(0) = 4$ y $y(0) = 1$, tal coordenada $(4, 1)$ corresponde al punto mostrado en el plano $XY$, así la trayectoria se forma por el conjunto de puntos $(x(t), y(t))$ correspondientes a cada valor $t \in \mathbb{R}$.

Las tres gráficas anteriores corresponden a la solución particular en la que $c_{1} = c_{2} = 1$, así cada solución particular producirá tres curvas distintas en tres planos distintos.

Nos centraremos especialmente en el plano $XY$ o también llamado plano fase. Cada una de las curvas que se pueden formar en el plano fase correspondientes a valores específicos de $c_{1}$ y $c_{2}$ se llama trayectoria.

En el siguiente plano fase se muestra un conjunto de trayectorias definidas por (\ref{21}) para distintos valores de $c_{1}$ y $c_{2}$.

Distintas trayectorias en el plano fase.

Al conjunto de trayectorias representativas en el plano fase se llama diagrama fase.

Consideremos las soluciones independientes (\ref{18}).

$$\mathbf{\mathbf{Y}}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix} e^{ -t} \hspace{1cm} y \hspace{1cm}
\mathbf{\mathbf{Y}}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}e^{4t}$$

Y notemos lo siguiente.

De $\mathbf{Y}_{2}$ se obtienen las funciones

$$x(t) = 3e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = 2e^{4t} \label{23} \tag{23}$$

De manera que la función $y(t)$ se puede escribir en términos de $x$ como

$$y(x) = \dfrac{2}{3}x$$

con $x > 0$ y cuya gráfica en el plano $XY$ corresponde a una recta en el primer cuadrante con pendiente $\dfrac{2}{3}$.

Gráfica de $y(x) = \dfrac{2}{3}x$ para $x > 0$.

De forma similar, si consideramos la solución $-\mathbf{Y}_{1}$ se obtienen las funciones

$$x(t) = e^{-t} \hspace{1cm} y \hspace{1cm} y(t) = -e^{t} \label{24} \tag{24}$$

De forma que $y$ en términos de $x$ se ve como

$$y(x) = -x$$

Para $x < 0$ en el plano $XY$ tendremos una recta en el segundo cuadrante con pendiente $-1$.

Gráfica de $y(x) = -x$ para $x < 0$.

Consideremos ahora la solución $-\mathbf{Y}_{2}$ cuyas funciones son

$$x(t) = -3e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = -2e^{4t} \label{25} \tag{25}$$

En este caso,

$$y(x) = \dfrac{2}{3}x$$

con $x < 0$, la gráfica corresponde a una recta de pendiente $ \dfrac{2}{3}$ en el tercer cuadrante.

Gráfica de $y(x) = \dfrac{2}{3}x$ para $x < 0$.

Y finalmente de $\mathbf{Y}_{1}$ se obtienen las funciones

$$x(t) = -e^{-t} \hspace{1cm} y \hspace{1cm} y(t) = e^{-t} \label{26} \tag{26}$$

tal que,

$$y(x) = -x$$

con $x > 0$ y cuya gráfica es una recta de pendiente $-1$ en el cuarto cuadrante.

Gráfica de $y(x) = -x$ para $x > 0$.

Lo interesante es que cada vector propio se puede visualizar como un vector bidimensional que se encuentra a lo largo de una de estas semirrectas.

Por ejemplo el vector propio

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

corresponde al siguiente vector en el plano $XY$.

Vector propio $K_{1}$ en el plano $XY$.

Mientras que el vector propio

$$\mathbf{K}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}$$

corresponde al vector

Vector propio $K_{2}$ en el plano $XY$.

A continuación se muestran las cuatro semirrectas anteriores y los vectores propios unitarios

$$\hat{\mathbf{K}}_{1} = \dfrac{\mathbf{K}_{1}}{\left\| \mathbf{K}_{1} \right\|} \hspace{1cm} y \hspace{1cm} \hat{\mathbf{K}}_{2} = \dfrac{\mathbf{K}_{2}}{\left\| \mathbf{K}_{2} \right\|}$$

sobre el mismo plano fase de antes.

Plano fase ilustrando los vectores propios.

El vector propio $\hat{\mathbf{K}}_{2}$ se encuentra junto con $y = \dfrac{2}{3}x$ en el primer cuadrante y $\hat{\mathbf{K}}_{1}$ se encuentra junto con $y =-x$ en el segundo cuadrante.

Notamos que en el plano fase las trayectorias tienen flechas que indican dirección. Para saber la dirección de las trayectorias nos apoyaremos en el campo vectorial asociado.

Definamos las funciones $F_{1}$ y $F_{2}$ de acuerdo a (\ref{13}).

$$F_{1}(x, y) = 2x + 3y, \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = 2x + y \label{27} \tag{27}$$

Entonces la función $F(x, y)$ correspondiente es

$$F(x, y) = (2x + 3y, 2x + y) \label{28} \tag{28}$$

El campo vectorial será descrito por esta función. Como vimos al inicio de la entrada, para cada punto $(x, y)$ del plano fase anclaremos un vector cuya punta termina en la coordenada dada por la suma vectorial $(x, y) + F(x, y)$. Por ejemplo si $x = 0$ y $y = 1$, entonces nos situaremos en la coordenada $(0, 1)$ del plano fase, evaluando en la función $F(x, y)$ se obtiene el punto $F(0, 1) = (3, 1)$, entonces la punta del vector que parte de $(0, 1)$ terminará en la coordenada $(0, 1) + (3, 1) = (3, 2)$.

Como ejemplo dibujemos los vectores correspondientes a las siguientes evaluaciones.

$$F(0, 1) = (3, 1), \hspace{1cm} F(0, -2) = (-6, -2), \hspace{1cm} F(-3, 0) = (-6, -6)$$

$$F(0, 3) = (9, 3), \hspace{1cm} F(2, -2) = (-2, 2), \hspace{1cm} F(3, -1) = (3, 5)$$

Bosquejo de vectores dados por $F(x, y)$.

Como se puede notar, si dibujáramos todos los vectores para cada punto $(x, y)$ tendríamos un desastre de vectores, todos de distintos tamaños atravesándose entre sí y no habría forma de observar el patrón que esconde el campo vectorial. Para solucionar este problema existe la convención de escalar todos los vectores a un mismo tamaño, por su puesto esto ya no representa correctamente al campo vectorial, pero sí que es de mucha ayuda visualmente y se convierte en sólo una representación del campo vectorial.

En nuestro ejemplo la función

$$F(x, y) = (2x + 3y, 2x + y)$$

se representa por el siguiente campo vectorial.

Representación del campo vectorial generado por $F(x, y) = (2x + 3y, 2x + y)$.

Cómo $F(x, y) = (x^{\prime}, y^{\prime})$, entonces los vectores del campo vectorial deben ser tangentes a las trayectorias formadas por la función paramétrica $f(t) = (x(t), y(t))$. Concluimos entonces que las soluciones del sistema lineal serán trayectorias cuyos vectores del campo vectorial son tangentes a dichas trayectorias.

Campo vectorial y algunas trayectorias del sistema lineal.

Una característica observable del campo vectorial es que los vectores tienden a alejarse del origen, veremos más adelante que el origen no sólo es una solución constante $x = 0$, $y = 0$ (solución trivial) de todo sistema lineal homogéneo de $2$ ecuaciones lineales, sino que también es un punto importante en el estudio cualitativo de dichos sistemas.

Si pensamos en términos físicos, las puntas de flecha de cada trayectoria en el tiempo $t$ se mueven conforme aumenta el tiempo. Si imaginamos que el tiempo va de $-\infty$ a $\infty$, entonces examinando la solución

$$x(t) = c_{1}e^{ -t} + 3c_{2}e^{4t}, \hspace{1cm} y(t) = -c_{1}e^{ -t} + 2c_{2}e^{4t}, \hspace{1cm} c_{1} \neq 0, \hspace{0.4cm} c_{2} \neq 0$$

muestra que una trayectoria o partícula en movimiento comienza asintótica a una de las semirrectas definidas por $\mathbf{Y}_{1}$ o $ -\mathbf{Y}_{1}$ (ya que $e^{4t}$ es despreciable para $t \rightarrow -\infty$) y termina asintótica a una de las semirrectas definidas por $\mathbf{Y}_{2}$ o $ -\mathbf{Y}_{2}$ (ya que $e^{-t}$ es despreciable para $t \rightarrow \infty$).

El plano fase obtenido representa un diagrama de fase que es característico de todos los sistemas lineales homogéneos de $2 \times 2$ con valores propios reales de signos opuestos.

$\square$

Hemos concluido con el ejemplo. Lo que nos muestra este ejemplo es que es posible hacer un desarrollo geométrico sobre un sistema lineal, sin embargo esto sólo es posible si es un sistema con dos ecuaciones, ya que si aumenta el número de ecuaciones también aumentará el número de dimensiones y ya no seremos capaz de obtener gráficas. Es posible extender el plano fase a tres dimensiones (espacio fase para un sistema lineal con $3$ ecuaciones), pero nos limitaremos sólo a los sistemas de $2$ ecuaciones para hacer más sencilla la tarea. También es importante mencionar que podremos hacer este análisis siempre y cuando los coeficientes sean constantes y las ecuaciones no dependan explícitamente de la variable independiente $t$.

Con este método geométrico será posible estudiar el comportamiento de las soluciones sin la necesidad de resolver el sistema, incluso con este método podremos estudiar sistemas no lineales para los cuales aún no conocemos algún método para resolverlos.

Finalmente veremos que las propiedades del plano fase quedarán determinadas por los valores propios del sistema, de manera que en las siguientes entradas haremos un análisis para cada una de las posibilidades que existen, tales posibilidades son:

Valores propios reales y distintos:

  • $\lambda_{1} < \lambda_{2} < 0$.
  • $\lambda_{1} > \lambda_{2} > 0$.
  • $\lambda_{1} < 0$ y $\lambda_{2} > 0$ (como en nuestro ejemplo).

Valores propios complejos:

  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha = 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$.

Valores propios repetidos:

  • $\lambda_{1} = \lambda_{2} < 0$.
  • $\lambda_{1} = \lambda_{2} > 0$.

Valores propios nulos:

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

En las próximas entradas estudiaremos a detalle cada uno de estos casos.

En este enlace se tiene acceso a una excelente herramienta para visualizar el plano fase de sistemas lineales de dos ecuaciones homogéneas con coeficientes constantes y en este enlace se puede visualizar el campo vectorial asociado, además de algunas trayectorias del sistema dando clic sobre el campo vectorial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. En la unidad anterior resolviste de tarea moral los siguientes sistemas lineales. En este caso realiza un desarrollo geométrico como lo hicimos en esta entrada e intenta describir el comportamiento de las soluciones en el plano fase. Dibuja a mano algunos vectores del campo vectorial y algunas trayectorias sobre el mismo plano fase, posteriormente verifica tu resultado visualizando el espacio fase y el campo vectorial usando los enlaces proporcionados anteriormente.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$

    ¿Qué características distintas identificas entre los planos fase de cada uno de los sistemas anteriores?.

Más adelante…

Esta entrada nos ha servido de introducción al estudio geométrico y cualitativo de los sistemas lineales. En la siguiente entrada formalizaremos lo que vimos en esta entrada para posteriormente hacer un análisis más detallado sobre los distintos tipos de sistemas tanto lineales como no lineales que se puedan presentar.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: El plano traza – determinante

Por Eduardo Vera Rosales

Introducción

Antes de finalizar con el estudio cualitativo a sistemas de ecuaciones de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$, vamos a clasificar la estabilidad del punto de equilibrio, y por tanto el plano fase, en un diagrama que resume toda la información que estudiamos en las últimas entradas. Este diagrama es llamado plano traza – determinante. En esta entrada veremos cómo interpretar dicho diagrama.

Vimos que el plano fase y la estabilidad de los puntos de equilibrio depende de la forma de los valores propios asociados. Es fácil observar que los valores propios del sistema son las soluciones a la ecuación $$\det{(\textbf{A}-\lambda\textbf{Id})}=\lambda^{2}-(a+d)\lambda+(ad-bc)=0.$$ Notemos que podemos reescribir la ecuación anterior en términos de dos propiedades de la matriz asociada $\textbf{A}$: su traza y su determinante. En efecto, resulta que $$ \lambda^{2}-(a+d)\lambda+(ad-bc)=\lambda^{2}-\lambda\mathrm{tr}{A}+\det{A}.$$ Entonces los valores propios están dados por la fórmula $$\lambda=\frac{\mathrm{tr}{A}\pm\sqrt{\mathrm{tr}{A}^{2}-4\det{A}}}{2}$$ Así, el plano fase y la estabilidad de los puntos de equilibrio dependerán de la traza y el determinante de la matriz asociada. Analizaremos la forma de los valores propios según la última fórmula.

La información obtenida se podrá resumir en el plano traza – determinante, que puedes observar en la siguiente imagen (tomada del siguiente sitio) que nos indica la forma del plano fase, según los valores de la traza y el determinante.

Plano traza determinante
Plano traza – determinante. Imagen tomada de https://es.m.wikipedia.org/wiki/Archivo:Stability_Diagram.png

El plano traza – determinante

Clasificamos la naturaleza del plano fase y la estabilidad de los puntos de equilibrio del sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ según la traza y el determinante de la matriz asociada. Englobamos toda la información obtenida en el plano traza – determinante.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Muestra que los valores propios del sistema $\lambda_{1}, \lambda_{2}$ satisfacen las identidades $$\lambda_{1}+\lambda_{2}=\mathrm{tr}{A}$$ $$\lambda_{1}\lambda_{2}=\det{A}.$$ Recuerda considerar los casos cuando los valores propios son distintos o iguales.

Clasifica el plano fase y puntos de equilibrio de los siguientes sistemas de ecuaciones, calculando únicamente la traza y el determinante de la matriz asociada:

  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 15 & -1 \\ -60 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} \pi & 0 \\ e & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+2 \\ a-2 & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Determina la forma del plano fase y la estabilidad del punto de equilibrio según la traza y el determinante de la matriz asociada, y el valor $a$.
  • Para el ejercicio anterior, identifica la región del plano traza – determinante donde los planos fase tienen comportamientos similares.
  • Realiza el mismo análisis de los dos ejercicios anteriores para el sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+b \\ a-b & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$ para cualquier valor de $a$ y $b$.

Más adelante

Con todo el conocimiento adquirido acerca de sistemas de ecuaciones lineales, es momento de estudiar, al menos de manera cualitativa, sistemas de ecuaciones no lineales. En la próxima entrada daremos una breve introducción a tales sistemas.

Además, veremos que es posible linealizar este tipo de sistemas para obtener un sistema de ecuaciones lineales equivalente que nos brinde la información cualitativa de las soluciones al sistema no lineal. Así, podremos dibujar el plano fase de un sistema no lineal, sin conocer explícitamente las soluciones a dicho sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con cero como valor propio

Por Eduardo Vera Rosales

Introducción

Vamos a finalizar esta serie de entradas referentes al plano fase de sistemas de dos ecuaciones lineales homogéneas con coeficientes constantes de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ estudiando el caso cuando el sistema tiene al menos un cero como valor propio.

En las entradas anteriores revisamos los casos cuando los valores propios son reales distintos y no nulos, son complejos o se repiten, por lo que el caso que revisaremos en esta entrada es el último por estudiar. En todos los casos anteriores el punto de equilibrio es único y se encuentra en el punto $(0,0)$ del plano fase. Sin embargo, cuando el cero es un valor propio de la matriz asociada al sistema resultará que no habrá un único punto equilibrio, sino que tendremos una infinidad de dichos puntos. Es por eso que dejamos este caso al final.

Veremos cómo se distribuyen los puntos de equilibrio en el plano fase. Finalmente las curvas solución serán muy fáciles de dibujar según el análisis que realizaremos de la solución general al sistema, que será de la forma $$\textbf{X}(t)=c_{1}\begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}+c_{2}e^{\lambda_{2} t}\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}$$ donde $(u_{1},u_{2})$ es un vector propio asociado al valor propio $\lambda_{1}=0$ y $(v_{1},v_{2})$ es un vector propio asociado al valor propio $\lambda_{2} \neq 0$ (si $\lambda_{2}=0$ la solución general se simplifica aún más y es igualmente sencillo hacer el análisis del plano fase).

Dicho lo anterior, vamos a comenzar.

Plano fase para sistemas con cero como valor propio

En el primer video analizamos el plano fase para un sistema de ecuaciones de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando este tiene a cero como un valor propio asociado.

En el segundo video dibujamos el plano fase de algunos sistemas en particular que tienen al menos un valor propio igual a cero.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Encuentra todas las matrices de tamaño $2 \times 2$ diagonalizables cuyo único valor propio es cero.
  • Encuentra todos los sistemas de ecuaciones lineales homogéneos con coeficientes constantes cuyo campo vectorial se ve de la siguiente manera:
Campo vectorial 1 cero valor propio
Campo vectorial. Elaboración propia.
  • En el segundo video dibujamos los planos fase de los siguientes sistemas $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$ $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 2 \\ 0 & 0 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ ¿Qué puedes decir acerca de los puntos de equilibrio en cada caso? ¿Son estables, asintóticamente estables, inestables, o ninguno de los tres?
  • Encuentra la solución general del siguiente sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 2 \\ 0 & 5 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Resuelve el siguiente sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 5 & 0 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general y dibuja el plano fase del siguiente sistema: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 4 & 6 \\ -2 & -3 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$

Más adelante

Hemos terminado de estudiar el plano fase para sistemas de dos ecuaciones lineales homogéneas con coeficientes constantes. Determinamos el comportamiento de las soluciones en el plano y la estabilidad de los puntos de equilibrio en función de los valores propios del sistema.

Estamos a punto de comenzar a estudiar sistemas no lineales, al menos de manera cualitativa (ya que estos sistemas no los sabemos resolver analíticamente). Pero antes vamos a hacer un resumen de todo el análisis realizado recientemente en un dibujo que clasifica las formas del plano fase según dos características de la matriz asociada al sistema: la traza (que es la suma de los elementos en la diagonal) y su determinante.

¡Hasta la próxima!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»