Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Por Omar González Franco

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Simediana

Por Rubén Alexander Ocampo Arellano

Introducción

La simediana es un tipo especial de ceviana relacionada con la mediana de un triángulo, veremos algunas caracterizaciones y propiedades.

Simediana, primera caracterización

Definición 1. Una simediana de un triángulo es la reflexión de una mediana respecto de la bisectriz interna que pasa por el mismo vértice. Un triángulo tiene tres simedianas.

Notación. Denotaremos a la intersección de una simediana con el lado opuesto como $S$.

Teorema 1. Una ceviana de un triángulo divide internamente al lado opuesto en la razón de los cuadrados de los lados adyacentes si y solo si es simediana.

Demostración. Sean $AA’$ la mediana y $AS$ la simediana en un triángulo $\triangle ABC$.

Sea $H$ el pie de la altura por $A$, calculamos las áreas de los triángulos $\triangle BAS$, $\triangle BAA’$, $\triangle SAC$ y $\triangle A’AC$.

Figura 1

$\begin{equation} (\triangle BAS) = \dfrac{BS \times AH}{2} = \dfrac{BA \times AS \sin \angle BAS}{2}, \end{equation}$
$\begin{equation} (\triangle BAA’) = \dfrac{BA’ \times AH}{2} = \dfrac{BA \times AA’ \sin \angle BAA’}{2}, \end{equation}$
$ \begin{equation} (\triangle SAC) = \dfrac{SC \times AH}{2} = \dfrac{SA \times AC \sin \angle SAC}{2}, \end{equation}$
$\begin{equation} (\triangle A’AC) = \dfrac{A’C \times AH}{2} = \dfrac{AA’ \times AC \sin \angle A’AC}{2}. \end{equation}$

Sea $L$ la intersección de la bisectriz de $A$ con $BC$, entonces
$\begin{equation} \angle BAS = \angle BAL – \angle SAL = \angle LAC – \angle LAA’ = \angle A’AC, \end{equation}$
$\angle BAA’ = \angle BAL + \angle LAA’ = \angle LAC + \angle SAL = \angle SAC.$

Haciendo el cociente de $(1)$ con $(4)$ y de $(2)$ con $(3)$ obtenemos
$\dfrac{BS}{A’C} = \dfrac{BA \times AS}{AA’ \times AC}$,
$\dfrac{BA’}{SC} = \dfrac{BA \times AA’}{SA \times AC}$.

Multiplicando estas dos ecuaciones obtenemos el resultado esperado
$\dfrac{BS}{SC} = \dfrac{BA^2}{AC^2}$.

El reciproco también es cierto, pues el punto $S$ que divide a $BC$ en la razón $\dfrac{BA^2}{AC^2}$, es único.

$\blacksquare$

Exsimediana

Definición 2. Las tangentes al circuncírculo de un triángulo por sus vértices se conocen como simedianas externas o exsimedianas.

Corolario. La simediana y la exsimediana que pasan por el mismo vértice de un triángulo son conjugadas armónicas respecto de los lados del triángulo que forman dicho vértice.

Demostración. En la entrada teorema de Menelao mostramos que la exsimediana de un triángulo divide externamente al lado opuesto en la razón de los cuadrados de los lados que pasan por el mismo vértice.

El resultado se sigue del hecho de que el conjugado armónico es único y el teorema 1.

$\blacksquare$

Teorema 2. Una simediana y las exsimedianas que pasan por vértices distintos son concurrentes, al punto de concurrencia se le conoce como punto exsimediano.

Demostración. En $\triangle ABC$, $AP$ y $CP$ son tangentes al circuncírculo $\Gamma$ de $\triangle ABC$ en $A$ y en $C$ respectivamente y se cortan en $P$ (figura 2).

Figura 2

Sea $D = BP \cap \Gamma$, $D \neq B$, por la proposición 5 de la entrada anterior, $\square ABCD$ es un cuadrilátero armónico.

Entonces, por el teorema 2 de la entrada anterior, el Haz $B(BCDA)$ es armónico, es decir, la tangente a $\Gamma$ en $B$, y $BD$ son conjugadas armónicas respecto de $BA$ y $BC$.

Como el conjugado armónico es único, $BP$ es simediana de $\triangle ABC$, por el corolario anterior.

$\blacksquare$

Antiparalelas (1)

Teorema 3. La $B$-simediana de un triángulo $\triangle ABC$ es el lugar geométrico de los puntos que bisecan a las antiparalelas de $AC$ respecto a $AB$ y $BC$.

Demostración. Sean $D \in AB$ y $E \in BC$ tales que $AC$ y $DE$ son antiparalelas respecto a $AB$ y $BC$, entonces $\square ADEC$ es cíclico.

Figura 3

Por lo tanto, $\angle ACE$ y $\angle EDA$ son suplementarios, en consecuencia, $\angle ACB = \angle ACE = \angle BDE$.

Sea $TB$ tangente al circuncírculo de $\triangle ABC$ en $B$, entonces $\angle ABT = \angle ACB$ pues abarcan el mismo arco, por lo tanto, la $B$-exsimediana y $DE$ son paralelas.

Sea $BS$ una ceviana de $\triangle ABC$, entonces por la proposición 2 de la entrada anterior $BS$ biseca a $DE$ si y solo si el haz $B(TCSA)$ es armónico.

En consecuencia, como el conjugado armónico de $BT$ respecto de $BC$ y $BA$ es la $B$-simediana, $BS$ biseca a $DE$ si y solo si $BS$ es simediana de $\triangle ABC$.

$\blacksquare$

Antiparalelas (2)

Proposición. 1 Si dos antiparalelas a dos de los lados de un triángulo tienen la misma longitud, entonces estas se intersecan en la simediana relativa al tercer lado, el reciproco también es cierto.

Demostración. Sean $\triangle ABC$, $E$, $G \in BC$, $F \in AB$ y $H \in CA$, tales que $EF$, $AC$ son antiparalelas respecto a $AB$ y $BC$; $AB$, $GH$ son antiparalelas respecto a $BC$ y $CA$, y $EF = GH$.

Figura 4

Como $\square AFEC$ y $\square ABGH$ son cíclicos, entonces, $\angle FEB = \angle BAC = \angle CGH$, por lo tanto $PG = PE$.

Sea $P = EF \cap GH$, dado que $FE = GH$ entonces $FP = HP$.

Si $S = AP \cap BC$, considera $I \in AB$, $J \in CA$, tales que $IS \parallel FE$ y $JS \parallel GH$, entonces $\triangle ASI \sim \triangle APF$ y $\triangle ASJ \sim \triangle APH$.

Por lo tanto, $\dfrac{SI}{PF} = \dfrac{AS}{AP} = \dfrac{SJ}{PH}$, como $PF = PH$ entonces $SI = SJ$.

Por otro lado $\triangle SBI \sim \triangle ABC \sim \triangle SJC$, esto es
$\dfrac{SB}{SI} = \dfrac{AB}{AC}$ y $\dfrac{SJ}{SC} = \dfrac{AB}{AC}$.

Como resultado de multiplicar estas dos ecuaciones obtenemos
$\dfrac{BS}{SC} = \dfrac{AB^2}{AC^2}$.

Por el teorema 1, esto implica que $AS$ es la $A$-simediana de $\triangle ABC$.

Notemos que el reciproco también es cierto, esto es, si dos antiparalelas a dos de los lados de un triángulo se intersecan en la simediana relativa al tercer lado, entonces estas tienen la misma longitud.

Esto lo podemos ver tomando la prueba anterior en sentido contrario.

$\blacksquare$

Otra caracterización importante

Teorema 4. Una simediana es el lugar geométrico de los puntos (dentro de los ángulos internos del triángulo o sus ángulos opuestos por el vértice) tales que la razón de sus distancias a los lados adyacentes a la simediana, es igual a la razón entre esos lados.

Demostración. Sean $\triangle ABC$, $A’$ el punto medio de $BC$ y $P \in AA’$, considera las proyecciones $P_c$, $P_b$ de $P$ en $AB$ y $AC$ respectivamente y $A’_c$, $A’_b$, las correspondientes de $A’$.

Figura 5

Como $\triangle APP_c \sim \triangle AA’A’_c$ y $\triangle APP_b \sim \triangle AA’A’_b$ entonces
$\dfrac{PP_c}{A’A’_c} = \dfrac{AP}{AA’} = \dfrac{PP_b}{A’A’_b}$.

Tomando en cuenta que los triángulos $\triangle ABA’$ y $\triangle AA’C$ tienen la misma altura desde $A$, tenemos lo siguiente:
$\dfrac{AC}{AB} = \dfrac{PP_c}{PP_b} = \dfrac{A’A’_c}{A’A’_b}$
$\Leftrightarrow AC \times A’A’_b = AB \times A’A’_c$
$\Leftrightarrow (\triangle AA’C) = (\triangle AA’B)$
$ \Leftrightarrow A’C = BA’$.

Por lo tanto, la mediana de un triángulo es el lugar geométrico de los puntos tales que la razón de sus distancias a los lados adyacentes a la mediana es el inverso de la razón entre dichos lados.

Denotamos la distancia de un punto $P$ a una recta $l$ como $d(P, l)$.

Para $P \in AA’$ considera $P’ \in AS$ su reflexión respecto de la bisectriz de $\angle BAC$, entonces

$\dfrac{d(P’, AB)}{d(P’, AC)} = \dfrac{d(P, AC)}{d(P’, AB)} = \dfrac{AB}{AC}$.

$\blacksquare$

Proposición 2. La recta que une las proyecciones de un punto en la simediana (mediana) de un triángulo, sobre los lados adyacentes, es perpendicular a la mediana (simediana) que pasa por el mismo vértice.

Demostración. En un triángulo $\triangle ABC$ sean $AA’$ la mediana y $AS$ la simediana, considera $P \in AS$ y $D$, $E$, las proyecciones de $P$ en $CA$ y $AB$ respectivamente.

Figura 6

Como $\angle PEA + \angle ADP = \pi$ entonces $\square AEPD$ es cíclico, así que $\angle EAP = \angle EDP$, por la ecuación $(5)$, $\angle EAP = \angle A’AD$.

Sean $F = PD \cap AA’$ y $G = DE \cap AA’$, en los triángulos $\triangle ADF$ y $\triangle DGF$, $\angle FAD = \angle GDF$ y $\angle DFG$ es un ángulo común, por lo tanto son semejantes.

Como $PD \perp AC$ entonces $DE \perp AA’$.

El caso para la mediana es análogo.

$\blacksquare$

Más adelante…

Así como las medianas de un triángulo son concurrentes, las simedianas también son concurrentes, pero dicho punto tiene propiedades importantes por si mismo, y de eso hablaremos en la próxima entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que las segundas intersecciones de una mediana y su correspondiente simediana con el circuncírculo del triángulo, determinan una recta paralela al lado del triángulo relativo a la mediana considerada.
  2.  Sea $\triangle ABC$ un triángulo acutángulo, $D$ y $A’$ las proyecciones de $A$ y $O$, el circuncírculo de $\triangle ABC$, en $BC$ respectivamente, sean $E = BO \cap AD$, $F = CO \cap AD$ y considera $P$ el segundo punto en común entre los circuncírculos de $\triangle ABE$ y $\triangle AFC$, demuestra que $AP$ es la $A$-simediana de $\triangle ABC$.
  3. Sea $P$ un punto dentro de un triángulo isósceles $\triangle ABC$ con $AB = AC$, tal que $\angle PBC = \angle ACP$, si $A’$ es el punto medio de $BC$, muestra que $\angle BPA’$ y $\angle CPA$ son suplementarios.
  4. Sean $\triangle ABC$, $D \in AB$ y $E \in CA$ tal que $DE \parallel BC$, considera $P = BE \cap CD$, los circuncírculos de $\triangle BDP$ y $\triangle CEP$ se intersecan en $P$ y $Q$, muestra que $\angle BAQ = \angle PAC$.
  5. La $A$-simediana $AS$ y la $A$-meidnana $AA’$ de un triángulo $\triangle ABC$ intersecan otra vez a su circuncírculo en $S’$ y $L$ respectivamente, prueba que la rectas de Simson de $S’$ y $L$ son perpendiculares a $AA’$ y a $AS$ respectivamente.
  6. Muestra que las exsimedianas de un triángulo tienen la misma propiedad que se señala en el teorema 4 respecto a las simedianas, pero esta vez para los puntos dentro de los ángulos externos del triángulo.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 247-252.
  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 86-92.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 129-145.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 66-70.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios complejos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos a estudiar el plano fase para sistemas de dos ecuaciones homogéneas con coeficientes constantes de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ En particular, revisamos el caso cuando los valores propios del sistema son reales distintos y no son cero. Vimos que el comportamiento de las curvas y la estabilidad del punto de equilibrio dependen del signo de los valores propios. Así, cuando los signos difieren tenemos un punto silla (inestable), cuando los dos valores propios son negativos tenemos un atractor (punto de equilibrio asintóticamente estable) y finalmente, cuando ambos valores propios son positivos el punto de equilibrio es un repulsor (inestable).

Es turno ahora de analizar el plano fase para sistemas cuyos valores propios son complejos. Sabemos que si $\lambda_{1}=\alpha + \beta i$ es un valor propio del sistema, entonces su conjugado $\lambda_{2}=\alpha – \beta i$ también es un valor propio. Además la solución general a dichos sistemas tiene la forma $$\textbf{X}(t)=c_{1}e^{\alpha t}\left(\cos{\beta t}\begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}-\sin{\beta t}\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)+c_{2}e^{\alpha t}\left(\sin{\beta t} \begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}+\cos{\beta t} \begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)$$ donde los vectores $(u_{1},u_{2})$ y $(v_{1},v_{2})$ son vectores tales que $$\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$$ es un vector propio para $\lambda_{1}$.

Estudiaremos las soluciones cuando $t \rightarrow \infty$. La forma del plano fase va a depender de la parte real $\alpha$ de los valores propios (nota que los dos valores propios tienen la misma parte real), por lo que distinguiremos tres casos, según $\alpha$ sea positivo, negativo o cero. Finalmente clasificaremos a los puntos de equilibrio según su estabilidad.

Plano fase para sistemas con valores propios complejos

En el primer video estudiamos de manera general el plano fase para sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuyos valores propios son complejos. Analizamos tres casos: cuando la parte real de los valores propios es positiva, negativa o cero.

En el segundo video resolvemos y dibujamos el plano fase para distintos sistemas con valores propios complejos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Prueba que la función $$\textbf{X}(t)=\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ es periódica, con período $\frac{2\pi}{\beta}$, donde $c_{1},c_{2},u_{1},u_{2},v_{1},v_{2}$ son valores constantes.
  • De acuerdo al ejercicio anterior, concluye que si un sistema homogéneo con coeficientes constantes tiene un valor propio complejo $\lambda_{1}=\beta i$ con vector propio asociado $\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$, entonces las curvas en el plano fase son cerradas.
  • Considera ahora la función $$\textbf{X}(t)=e^{\alpha t}\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ con $\alpha \neq 0$. Prueba que los puntos en el plano que son imagen de valores periódicos bajo la función del primer ejercicio se quedan contenidos en una recta. Concluye el comportamiento espiral de las soluciones a sistemas de ecuaciones con valores complejos cuya parte real es distinta de cero.
  • Prueba que el punto de equilibrio del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & b \\ -b & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ es un centro.
  • Resuelve y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ -2 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -1 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -5 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$

(Recuerda que puedes apoyarte del campo vectorial asociado para dibujar el plano fase).

Más adelante

Seguimos avanzando en el estudio del plano fase para sistemas homogéneos con coeficientes constantes. Ya sabemos la forma de las soluciones para sistemas cuyos valores propios son reales distintos y no nulos, o complejos. En la próxima entrada continuaremos revisando el plano fase, pero ahora para sistemas que tienen valores propios repetidos.

¡Hasta la próxima!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Haz armónico

Por Rubén Alexander Ocampo Arellano

Introducción

Esta es una continuación de la entrada anterior donde vimos algunas propiedades de hileras armónicas de puntos, esta vez nos enfocaremos en propiedades de un haz armónico de rectas, que nos permitirán definir al cuadrilátero armónico.

Haz de rectas

Definición 1. Si cuatro rectas $PA$, $PC$, $PB$, $PD$ concurren en $P$, decimos que forman un haz de rectas y que $P$ es el vértice del haz, denotamos al haz como $P(ACBD)$.

Teorema. 1 Sea $P(ACBD)$ un haz de rectas donde $A$, $C$, $B$, $D$, son colineales, considera $A’$, $B’$, $C’$, $D’$, las intersecciones de cualquier otra transversal al haz, entonces $(A, B; C, D) = (A’, B’; C’, D’)$. 

Demostración. Aplicamos la ley de los senos a $\triangle PAC$, $\triangle PCB$, $\triangle PBD$ y $\triangle PAD$.

Figura 1

$\dfrac{AC}{\sin \angle APC} =\dfrac{PC}{\sin \angle CAP}$,

$\dfrac{CB}{\sin \angle CPB} =\dfrac{PC}{\sin \angle PBC}$,

$\dfrac{DB}{\sin \angle BPD} =\dfrac{PD}{\sin \angle DBP}$,

$\dfrac{AD}{\sin \angle APD} =\dfrac{PD}{\sin \angle DAP}$.

De lo anterior calculamos,
$(A, B; C, D) = \dfrac{AC}{CB} \dfrac{DB}{AD}$

$=\dfrac{\dfrac{\sin \angle APC}{\sin \angle CAP} \dfrac{\sin \angle BPD}{\sin \angle DBP}}{\dfrac{\sin \angle CPB}{\sin \angle PBC} \dfrac{\sin \angle APD}{\sin \angle DAP}}$
$\begin{equation} = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}. \end{equation}$

La última igualdad se debe a que $\angle CAP = \angle DAP$ y $\sin \angle PBC = \sin \angle DBP$, por ser $\angle PBC$ y $\angle DBP$ suplementarios.

Si hacemos el mismo procedimiento, esta vez con los puntos $A’$, $C’$, $B’$, $D’$, obtendremos el mismo resultado ya que $\angle APC = \angle A’PC’$, $\angle CPB = \angle C’PB’$, $\angle BPD = \angle B’PD’$ y $\angle APD = \angle A’PD’$.

Por lo tanto $(A, B; C, D) = (A’, B’; C’, D’)$. 

$\blacksquare$

Definición 2. Dado un haz de rectas $P(ACBD)$, si $A$, $C$, $B$ y $D$ son colineales, definimos la razón cruzada $P(A, B; C, D)$ del haz como la razón cruzada $(A, B; C, D)$, de la hilera de puntos $ACBD$.

Equivalentemente, por la ecuación $(1)$, podemos definir, $P(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$.

Si $P(A, B; C, D) = – 1$, decimos que el haz es armónico y que $PA$, $PB$ son rectas conjugadas armónicas respecto de $PC$ y $PD$ o que $PC$, $PD$ son conjugadas armónicas respecto de $PA$ y $PD$.

Ejemplo

Proposición 1. Las rectas que unen los excentros de un triángulo con los puntos medios de los lados del triángulo relativos a esos excentros son concurrentes.

Demostración. Sean $I_a$, $I_b$, $I_C$, los excentros de un triángulo $\triangle ABC$, $A’$, $B’$, $C’$ los puntos medio de $BC$, $CA$ y $AB$ respectivamente, consideremos $X = I_aA’ \cap I_bI_c$, $Y = I_bB’ \cap I_aI_c$, $Z = I_cC’ \cap I_aI_b$; $D = I_aA \cap BC$, $E = I_bB \cap CA$, $F = I_cC \cap AB$.

Figura 2

Consideremos los haces $I_a(CDA’B)$, $I_b(AB’EC)$, $I_c(BC’FA)$, por el teorema 1, tenemos lo siguiente:
$(A’, D; B, C) = (X, A; I_c, I_b)$,
$(B’, E; A, C) = (Y, B; I_c, I_a)$,
$(C’, F; B, A) = (Z, C; I_a, I_b)$.

Esto es,
$\begin{equation} \dfrac{A’B}{BD} \dfrac{CD}{A’C} = \dfrac{XI_c}{I_cA} \dfrac{I_bA}{XI_b}, \end{equation}$
$\begin{equation} \dfrac{B’A}{AE} \dfrac{CE}{B’C} = \dfrac{YI_c}{I_cB} \dfrac{I_aB}{YI_a}, \end{equation}$
$ \begin{equation} \dfrac{C’B}{BF} \dfrac{AF}{C’A} = \dfrac{ZI_a}{I_aC} \dfrac{I_bC}{ZI_b}. \end{equation}$

Como $AD$, $BE$, $CF$; $I_aA$, $I_bB$, $I_cC$, concurren en el incentro $I$ de $\triangle ABC$, aplicando el teorema de Ceva a los triángulos $\triangle ABC$ y $\triangle I_aI_bI_c$ tenemos:

$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} = 1$,
$\dfrac{I_aC}{CI_b} \dfrac{I_bA}{AI_c} \dfrac{I_cB}{BI_a} = 1$.

Recordemos que $A’$, $B’$, $C’$ son los puntos medios de $BC$, $CA$ y $AB$, empleando segmentos dirigidos y tomando en cuenta lo anterior, si hacemos el producto del inverso de $(2)$ con $(3)$ y $(4)$, obtenemos:

$\dfrac{I_aZ}{ZI_b} \dfrac{I_cX}{XI_b} \dfrac{I_cY}{YI_a} = 1$.

Por el teorema de Ceva, $I_aX = I_aA’$, $I_bY = I_bB’$, $I_cZ = I_cC’$, son concurrentes.

$\blacksquare$

Haz armónico

Proposición 2. Una recta, paralela a alguna de las rectas de un haz, es dividida en dos segmentos iguales por las otras tres rectas del haz si y solo si el haz es armónico.

Demostración. Sean $P(ACBD)$ un haz de rectas con $A$, $C$, $B$, $D$, colineales en ese orden, $l$ paralela a $PA$, $C’ = l \cap PC$, $B’ = l \cap PB$, $D’ = l \cap PD$.

Figura 3

Aplicamos la ley de los senos a $\triangle C’PB’$ y $\triangle B’PD’$

$\dfrac{C’B’}{\sin \angle C’PB’} =\dfrac{PB’}{\sin \angle B’C’P}$,
$\dfrac{D’B’}{\sin \angle B’PD’} =\dfrac{PB’}{\sin \angle PD’B’}$.

Por lo tanto,
$\dfrac{D’B’}{C’B’} = \dfrac{\sin \angle B’C’P}{\sin \angle C’PB’} \dfrac{\sin \angle B’PD’}{\sin \angle PD’B’}$.

Por la ecuación $(1)$
$(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$.

Como $PA \parallel C’B’D’$, entonces $\angle APC = \angle B’C’P$ y $\angle APD$, $\angle PD’B’$ son suplementarios, además $\angle CPB = \angle C’PB’$ y $\angle BPD = \angle B’PD’$.

Por lo tanto $(A, B; C, D) = \dfrac{D’B’}{C’B’}$.

Como resultado, $(A, B; C, D) = -1 \Leftrightarrow |D’B’| = |C’B’|$.

$\blacksquare$

Proposición 3. Si dos rectas conjugadas de un haz armónico son perpendiculares entonces son las bisectrices del ángulo formado por las otras dos rectas del haz.

Demostración. Sea $P(ACBD)$ un haz armónico, supongamos que $PA \perp PB$ (figura 3), sean $l$ una recta paralela a $PA$ y $C’$, $B’$, $D’$, las intersecciones de $l$ con $PC$, $PB$, $PD$ respectivamente.

Por la proposición anterior $C’B’ = B’D’$, como $PA \perp PB$ entonces $PB \perp C’D’$.

Por lo tanto, $\triangle PC’D’$ es isósceles y así, $PA$ y $PB$ son las bisectrices externa e interna de $\angle C’PD’$.

$\blacksquare$

Proposición 4. Si tenemos dos hileras armónicas $ACBD$ y $A’C’B’D’$ tales que $AA’$, $BB’$, $CC’$ concurren en un punto $P$ entonces $DD’$ también pasa por $P$.

Demostración. Sea $X = PD \cap A’C’B’D’$, por el teorema 1, $X$ es el conjugado armónico de $C’$ respecto de $A’B’$, por lo tanto $X = D’$.

$\blacksquare$

Cuadrilátero armónico

Teorema 2. Sean $\square ACBD$ un cuadrilátero cíclico, en ese orden cíclico, y $P$ un punto en su circuncírculo, entonces la razón cruzada del haz $P(ACBD)$ no depende de la posición de $P$.

Demostración. Sea $R$ el circunradio de $\square ABCD$, aplicamos la ley extendida de los senos a $\triangle APC$, $\triangle CPB$, $\triangle BPD$ y $\triangle APD$.

Figura 4

$\dfrac{AC}{\sin \angle APC} = \dfrac{CB}{\sin \angle CPB} = \dfrac{DB}{\sin \angle BPD}$
$= \dfrac{AD}{\sin \angle APD} = \dfrac{1}{2R}$.

Por lo tanto,
$P(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$
$= \dfrac{AC}{CB} \dfrac{DB}{AD}$.

$\blacksquare$

Definición 3. Definimos la razón cruzada de cuatro puntos cíclicos $A$, $B$, $C$, $D$, como $(A, B; C, D) = P(A, B; C, D)$, para cualquier punto $P$ en la misma circunferencia.

De manera equivalente, por el teorema 2, podemos definir $(A, B; C, D) = \dfrac{AC}{CB} \div \dfrac{AD}{DB}$, la cual tomamos como positiva si $AB$ y $CD$ no se intersecan dentro de la circunferencia y como negativa en caso contrario.

Si $(A, B; C, D) = – 1$, decimos que $\square ACBD$ es un cuadrilátero armónico.

Construcción del conjugado armónico en una circunferencia.

Proposición 5. Sean $\Gamma$ el circuncírculo de un triángulo $\triangle ABC$, $P$ la intersección de las tangentes a $\Gamma$ por $A$ y $C$, $D = PB \cap \Gamma$, $D \neq B$, entonces $\square ABCD$ es un cuadrilátero armónico.

Demostración. Como $\angle DBA = \angle DAP$ y $\angle CBD = \angle PCD$, por criterio de semejanza AA, $\triangle PBA \sim \triangle PAD$ y $\triangle PBC \sim \triangle PCD$, recordemos que las tangentes $PA$ y $PC$ son iguales.

Figura 5

Por lo tanto,
$\dfrac{BA}{AD} = \dfrac{PB}{PA} = \dfrac{PB}{PC} = \dfrac{BC}{CD}$
$\Rightarrow \dfrac{AB}{BC} = \dfrac{AD}{DC}$.

De acuerdo a la definición 3, $\square ABCD$ es un cuadrilátero armónico.

Proposición 6. Sea $\square ABCD$ un cuadrilátero armónico, entonces $BD$ y las tangentes a $\Gamma$ el circuncírculo de $\square ABCD$, en $A$ y $C$ son concurrentes.

Sean $l_1$ tangente a $\Gamma$ en $A$, $P = l \cap BD$ y $E = AC \cap BD$, por el teorema 2, el haz $A(ABCD)$ es armónico, donde $AA = l_1$, por el teorema 1, $(P, E; D, B) = – 1$.

Análogamente, sea $l_2$ la tangente a $\Gamma$ en $C$ y $Q = l_2 \cap BD$ entonces el haz $C(CBAD)$ es armónico, por lo tanto $(Q, E; D, B) = – 1$.

Por lo tanto, $P = Q$.

$\blacksquare$

Ejemplo

Proposición 7. Sea $\Gamma$ el incírculo de un triángulo $\triangle ABC$, $X$, el punto de contacto de $\Gamma$ con $BC$, $D$ el pie de la altura por $A$ y $M$ el punto medio de $AD$, $N = XM \cap \Gamma$, $N \neq X$ entonces $XN$ es la bisectriz de $\angle BNC$.

Demostración. Sea $L$ el punto al infinito de la recta $AD$, entonces, $M$ y $L$ son conjugados armónicos respecto de $A$ y $D$.

Figura 6

Sea $X’$ el punto diametralmente opuesto a $X$, como $XX’ \parallel AD$, entonces $XX’ \cap AD = L$.

Por el teorema 1, el haz $X(DMAX’)$ es armónico, sea $U = XA \cap \Gamma$, $U \neq X$, entonces $\square XNUX’$ es un cuadrilátero armónico.

Sean $Y$, $Z$ los puntos de tangencia de $\Gamma$ con $CA$ y $AB$ respectivamente, por la proposición 5, $\square XYUZ$ es armónico.

Sea $P = ZY \cap BC$, como $BC$ es tangente a $\Gamma$ en $X$ entonces por la proposición 6, $PU$ es tangente a $\Gamma$.

Como $\square XNUX’$ es armónico, por la proposición 6, $PX$, $PU$, $X’N$ son concurrentes, es decir $X’$, $N$ y $P$ son colineales.

Ya que $XX’$ es diámetro de $\Gamma$, entonces $\angle X’NX = \dfrac{\pi}{2}$, es decir, $NX \perp NP$.

Sabemos que $AX$, $BY$, $CZ$ concurren en el punto de Gergonne $G_e$, entonces por el teorema 2 de la entrada anterior, $P = ZY \cap BC$ es el conjugado armónico de $X$ respecto de $BC$.

Ya que $NX \perp NP$, por el teorema 3 de la entrada anterior, $NX$ es la bisectriz interna de $\angle BNC$.

$\blacksquare$

Más adelante…

En la siguiente entrada hablaremos sobre las simedianas, estas son las reflexiones de la medianas de un triángulo respecto de las bisectrices que pasan por el mismo vértice, con la ayuda de haces armónicos estableceremos algunas propiedades de estas rectas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. En un triángulo $\triangle ABC$, $D$, $E$, $F$, los pies de las alturas por $A$, $B$, $C$, respectivamente, $I_a$, $I_b$, $I_c$ los excentros opuestos a $A$, $B$, $C$ respectivamente, demuestra que $I_aD$, $I_bE$, $I_cF$ son concurrentes.
  2. $i)$ Dadas tres rectas concurrentes $OA$, $OC$, $OB$, construye el conjugado armónico de $OC$ respecto de $OA$ y $OB$,
    $ii)$ Si $(A, B; C, D) = – 1$, $(A, B’; C’, D’) = – 1$, y $AB \neq AB’$, muestra que $BB’$, $CC’$, $DD’$ son concurrentes.
  3. Sea $\square ABCD$ un cuadrilátero convexo, $E = AD \cap BC$, $F = AB \cap CD$, $G = AC \cap BD$, sea $O$ la proyección de $G$ en $FE$, muestra que $\angle AOB = \angle COD$.
  4. Muestra que las rectas que unen un punto en una circunferencia con los extremos de un cuerda, dividen armónicamente al diámetro perpendicular a dicha cuerda.
  5. En un triángulo $\triangle ABC$, $A’$ es el punto medio de $BC$, sea $\Gamma$ la circunferencia con diámetro $AA’$, considera $D = \Gamma \cap AB$, $E = \Gamma \cap CA$, $D \neq A \neq E$, y $P$ la intersección de las tangentes a $\Gamma$ en $D$ y $E$, muestra que $PB = PC$.

Entradas relacionadas

Fuentes

  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 159-166.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 149-161.
  • Aref, M. y Wernick, W., Problems and Solutions in Euclidean Geometry. New York: Dover, 2010, pp 178-186.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios reales distintos no nulos

Por Eduardo Vera Rosales

Introducción

En las dos entradas anteriores revisamos los conceptos esenciales para poder estudiar el plano fase del sistema de ecuaciones de primer orden homogéneas con coeficientes constantes $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Revisamos el campo vectorial asociado al sistema, que para los sistemas que estamos considerando se reduce al campo $\textbf{F}(x,y)=(ax+by, cx+dy)$. A cada $(x,y)$, el campo asocia un vector anclado en dicho punto, que además será tangente a las curvas solución. Si observamos el campo vectorial en el plano, entonces podemos darnos una idea aproximada de cómo se verían las curvas solución, y por tanto, el plano fase completo. Por otra parte estudiamos la estabilidad de los puntos de equilibrio, que son aquellos donde el campo vectorial se anula, es decir, cuando $\textbf{F}(x,y)=(0,0)$. De ellos depende el comportamiento del resto de las soluciones en el plano fase.

Con estos ingredientes, estamos listos para poder dibujar los planos fase de casi cualquier sistema de dos ecuaciones con coeficientes constantes. Como sabemos, la solución general a estos sistemas depende de los valores propios de la matriz asociada. Analizaremos el comportamiento de dichas soluciones, comenzando en esta entrada con el caso cuando los valores propios del sistema son reales distintos y no nulos. Después de cada análisis podremos hacer un dibujo esquemático de cómo se ven las soluciones en el plano fase.

¡Vamos a comenzar!

Plano fase para sistemas con valores propios reales distintos no nulos

En el primer video analizamos de manera general el comportamiento de las soluciones a sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando estos tienen valores propios reales distintos y no nulos. Dependiendo del signo de los valores propios será la forma del plano fase.

En el segundo video resolvemos un ejemplo por cada caso analizado en el video anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Prueba que si el determinante de la matriz asociada es cero, entonces el sistema tiene al menos un valor propio $\lambda=0$.
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general al sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 5 & -1 \\ 3 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Posteriormente grafica la curva correspondiente a la condición inicial $$\textbf{X}(0)=\begin{pmatrix} 2 \\ 1 \end{pmatrix}.$$
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 2 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Relaciona cada sistema de ecuaciones con la imagen correspondiente a su plano fase:
  1. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 3 & -2 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  2. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  3. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -1 & 1 \\ 0 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Campo vectorial valores propios reales uno
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales dos
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales tres
Campo vectorial. Elaboración propia

Más adelante

En esta entrada logramos dibujar el plano fase para sistemas cuyos valores propios son reales distintos y no nulos. El siguiente paso será considerar aquellos sistemas que tienen valores propios complejos. Nuevamente dividiremos el análisis en tres casos, dependiendo del signo de la parte real de los valores propios. Eso lo haremos en la siguiente entrada.

¡No te la pierdas!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»