Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Geometría Moderna I: Circunferencias de Lemoine

Por Rubén Alexander Ocampo Arellano

Introducción

En esta entrada veremos un conjunto de circunferencias que surgen de una construcción particular a partir del punto simediano o punto de Lemoine, las circunferencias de Lemoine, y su generalización, las circunferencias de Tucker.

Primera circunferencia de Lemoine

Teorema 1. Si por el punto simediano de un triángulo dado trazamos paralelas a los lados del triángulo, entonces estas tres paralelas intersecan a los lados del triángulo en seis puntos cíclicos, a dicha circunferencia se le conoce como primera circunferencia de Lemoine.

Demostración. En $\triangle ABC$, sean $K$ el punto de Lemoine, $Z’KY \parallel BC$, $X’KZ \parallel CA$, $Y’KX \parallel AB$, $X$, $X’ \in BC$, $Y$, $Y’ \in CA$, $Z$, $Z’ \in AB$.

Dado que $KY’ \parallel AZ$ y $KZ \parallel AY’$, $\square AZKY’$ es paralelogramo, por lo tanto, $AK$ biseca a $ZY’$, de esto se sigue que $ZY’$ es antiparalela a $BC$ respecto a $AB$ y $CA$.

Figura 1

Como $Z’Y \parallel BC$, entonces $Z’Y$ y $ZY’$ son antiparalelas respecto a $AB$ y $CA$, es decir, $\square ZZ’YY’$ es cíclico.

Igualmente podemos ver qué $XZ’$, $CA$ son antiparalelas respecto a $AB$, $BC$ y que $\square Z’XX’Z’$ es cíclico.

Como $Z’Y \parallel BC$ y $\square ZZ’YY’$ es cíclico entonces $\angle Z’ZY’ = \angle A + \angle B$.

Como $XZ’$ y $CA$ son antiparalelas entonces $\angle Z’XB = \angle A$, ya que $AB \parallel XY’$ tenemos que $\angle CXY’ = \angle B$, por lo anterior tenemos que $\angle Y’XZ’ = \angle C$.

Entonces, como los ángulos $\angle Y’XZ’$, $\angle Z’ZY’$ son suplementarios, $\square Z’XY’Z$ es cíclico, por lo tanto, $X$, $Y$, $Y’$, $Z$, $Z’$, están en la misma circunferencia.

Finalmente, como $X’$ esta en el circuncírculo de $\triangle XZZ’$ entonces el hexágono $XY’ZX’YZ’$ es cíclico.

$\blacksquare$

Proposición 1. El centro de la primera circunferencia de Lemoine es el punto medio entre el circuncentro y el punto de Lemoine.

Demostración. En la figura 1, del teorema anterior, sean $O$ el circuncentro de $\triangle ABC$ y $M= AK \cap ZY’$, considera $L$ el punto medio de $KO$, con $K$ el punto de Lemoine.

Como $\square AZKY’$ es paralelogramo, entonces $M$ es punto medio de $AK$ y $ZY’$.

En $\triangle AOK$, $LM$ es un segmento medio, por lo tanto, $ML \parallel AO$.

Ya que $ZY’$, $BC$ son antiparalelas respecto a $AB$, $CA$, entonces $ZY’$ es paralela a la tangente al circuncírculo de $\triangle ABC$ por $A$, por lo tanto, $AO \perp ZY’$.

En consecuencia, $ML \perp ZY’$, como $M$ es el punto medio de $ZY’$ entonces $L$ esta en la mediatriz de $ZY’$.

Igualmente vemos que $L$ esta en la mediatriz de $XZ’$, $YX’$, por lo tanto, $L$ es el centro de la primera circunferencia de Lemoine.

$\blacksquare$

Proposición 2. Las cuerdas de la primera circunferencia de Lemoine, contenidas en los lados del triángulo, son proporcionales a los cubos de dichos lados.

Demostración. Sean $D$ y $H_a$ las proyecciones de $K$ y $A$ en $BC$ respectivamente (figura 1), como $Y’X \parallel AB$ y $X’Z \parallel CA$ entonces $\triangle ABC$ y $\triangle KXX’$ son semejantes.

Por lo tanto,
$\dfrac{XX’}{BC} = \dfrac{KD}{AH_a} $
$= \dfrac{BC \times 2(\triangle ABC)}{AB^2 + BC^2 + CA^2} \times \dfrac{BC}{2(\triangle ABC)}$.

Donde la segunda igualdad se sigue del corolario 2 de la entrada anterior y de considerar el área de $\triangle ABC$.

$\Rightarrow XX’ = \dfrac{BC^3}{AB^ + BC^2 + CA^2}$.

De manera similar se ve que
$YY’ = \dfrac{CA^3}{AB^ + BC^2 + CA^2}$,
$ZZ’ = \dfrac{AB^3}{AB^ + BC^2 + CA^2}$.

$\blacksquare$

Segunda circunferencia de Lemoine

Teorema 2. Si por el punto simediano $K$ de un triángulo trazamos antiparalelas a los lados del triángulo, entonces estas tres antiparalelas intersecan a los lados del triángulo en seis puntos cíclicos con centro en $K$, a dicha circunferencia se le conoce como segunda circunferencia de Lemoine.

Demostración. En $\triangle ABC$ sean $K$ el punto de Lemoine, $Z’KY$ antiparalela a $BC$ respecto a $AB$ y $CA$, $X’KZ$ antiparalela a $CA$ respecto a $AB$ y $BC$, $Y’KX$ antiparalela a $AB$ respecto a $BC$ y $CA$, $X$, $X’ \in BC$, $Y$, $Y’ \in CA$, $Z$, $Z’ \in AB$.

Como $X’Z$ y $CA$ son antiparalelas, entonces $BK$ biseca a $X’Z$, de manera análoga vemos que $CK$ biseca a $Y’X$.

Figura 2

Dado que las antiparalelas $X’Z$ e $Y’X$ se intersecan en la $A$-simediana, entonces son iguales en magnitud.

Como resultado, concluimos que $\square XX’Y’Z$ es un rectángulo, por lo tanto, $X$, $X’$, $Y’$, $Z$, están en una circunferencia con centro en $K$.

Igualmente podemos ver que $AK$ biseca a $YZ’$ y que $XY’ = YZ’ = ZX’$.

Por lo tanto, el hexágono $XY’ZX’YZ’$ es cíclico.

Proposición 4. Las cuerdas de la segunda circunferencia de Lemoine, contenidas en los lados del triángulo son proporcionales a los cosenos de los ángulos opuestos a dichos lados, razón por la cual también es conocida como circunferencia de los cosenos.

Demostración. Dado que $Y’X$ y $AB$ son antiparalelas respecto a $BC$ y $CA$ (figura 2), entonces $\angle X’XY’ = \angle A$.

Como $\triangle Y’X’X$ es un triangulo rectángulo, entonces $\cos \angle A = \cos \angle X’XY’ = \dfrac{XX’}{Y’X}$.

Como $Y’X = X’Z = Z’Y = q$, entonces $XX’ = q \cos \angle A$.

Igualmente podemos ver que $YY’ = q \cos \angle B$ y $ZZ’ = q \cos \angle C$.

$\blacksquare$

Circunferencia de Tucker

Teorema 3. Si aplicamos una homotecia a un triángulo con centro en su punto de Lemoine entonces los lados del triángulo imagen cortaran a los lados del triángulo original en seis puntos cíclicos, a esta circunferencia se le conoce como circunferencia de Tucker.

Demostración. Sea $K$ el punto de Lemoine de $\triangle ABC$ y $\triangle A’B’C’$ su imagen bajo una homotecia con centro en $K$, entonces los lados correspondientes son paralelos.

Sean $X$, $X’$ las intersecciones de $A’B’$ y $C’A’$ con $BC$, $Y$, $Y’$ las intersecciones de $B’C’$ y $A’B’$ con $CA$, $Z$, $Z’$ las intersecciones de $C’A’$ y $B’C’$ con $AB$.

Figura 3

Como $AZA’Y’$ es un paralelogramo entonces $AK$ biseca $Y’Z$, por lo tanto $Y’Z$ es antiparalela a $BC$ respecto a $AB$, $CA$.

De manera análoga, los pares de rectas $XZ’$, $CA$; $YX’$, $AB$ son antiparalelas.

A partir de aquí la demostración es igual a la del teorema 1.

$\blacksquare$

Proposición 5. El centro de la circunferencia de Tucker se encuentra en la recta que une al punto de Lemoine con el circuncentro del triángulo.

Demostración. Sean $O$ el circuncentro de $\triangle ABC$ y $M$ el punto medio de $Y’Z$ (figura 3), como $\triangle ABC$ y $\triangle A’B’C’$ son homotéticos la paralela por $A’$ a $AO$ interseca a $KO$ en $O’$ el circuncentro de $\triangle A’B’C’$.

Por $M$ trazamos una paralela a $AO$ que interseca a $KO$ en $T$.

Como $A’O’ \parallel MT$ entonces $\dfrac{KA’}{A’M} =\dfrac{KO’}{O’T}$.

Como $AO \parallel MT$ entonces $\dfrac{KM}{MA} =\dfrac{KT}{TO}$.

Pero
$\dfrac{KM}{KT} = \dfrac{KA’ + A’M}{KO’ + O’T}$
$= (\dfrac{A’M \times KO’}{O’T} + A’M)(\dfrac{1}{ KO’ + O’T}) $
$= A’M(\dfrac{KO’ + O’T}{O’T})(\dfrac{1}{ KO’ + O’T}) = \dfrac{A’M}{O’T}$.

Por lo tanto, como $M$ también es el punto medio de $AA’$ por ser $\square AZA’Y’$ paralelogramo, tenemos
$1 = \dfrac{A’M}{MA} = \dfrac{O’T}{TO}$.

Es decir, $T$ es el punto medio de $OO’$.

Por otra parte $AO \perp Y’Z$, pues $Y’Z$ es paralela a la tangente al circuncírculo de $\triangle ABC$ en $A$, entonces $TM \perp Y’Z$.

Por lo tanto, $T$ esta en la mediatriz de $Y’Z$.

Igualmente vemos que $T$ esta en la mediatriz de $Z’X$, $X’Y$, en consecuencia, $T$ es el centro de la circunferencia de Tucker y está en la recta $KO$.

$\blacksquare$

Circunferencia de Taylor

Teorema 4. Dado un triángulo, las proyecciones de los vértices de su triángulo órtico en los lados del triángulo original están en una circunferencia de Tucker, a esta circunferencia se le conoce como circunferencia de Taylor.

Demostración. Sea $\triangle ABC$ y $\triangle H_aH_bH_c$ su triangulo órtico, sean $X$, $X’$ las proyecciones de $H_c$ y $H_b$ en $BC$, $Y$, $Y’$ las proyecciones de $H_a$ y $H_c$ en $CA$, $Z$, $Z’$ las proyecciones de $H_b$ y $H_a$ en $AB$.

Figura 4

$\square H_cBCH_b$ es cíclico pues $\angle BH_cC = \angle BH_bC = \dfrac{\pi}{2}$, así que $\angle H_bH_cZ = \angle C$.

$\angle ZH_cH_bY’$ también es cíclico pues $\angle H_cZH_b = \angle H_cY’H_b = \dfrac{\pi}{2}$, así que $\angle AY’Z = \angle H_bH_cZ = \angle C$.

Por lo tanto, $ZY’ \parallel BC$.

Igualmente vemos que $XZ’ \parallel CA$ y $YX’ \parallel AB$.

En consecuencia, el triángulo $\triangle A’B’C’$ que se forma al extender $ZY’$, $XZ’$, $YX’$, es inversamente homotético con $\triangle ABC$.

Sea $H$ el ortocentro de $\triangle ABC$, como $HH_c \parallel H_aZ’$ y $HH_b \parallel H_aY$, entonces
$\dfrac{HH_c}{H_aZ’} = \dfrac{AH}{AH_A} = \dfrac{HH_b}{H_aY}$.

Por criterio de semejanza LAL, $\triangle HH_cH_b \sim \triangle H_aZ’Y$, por lo tanto, $Z’Y \parallel H_cH_b$.

De esto último y tomando en cuenta que $\square H_cBCH_b$ es cíclico, se sigue que $\square Z’BCY$ es cíclico, es decir $Z’Y$ y $BC$ son antiparalelas respecto de $AB$, $CA$.

Por otra parte, $\square AZ’A’Y$ es paralelogramo, así que $AA’$ biseca a $Z’Y$.

Esto implica que $AA’$ es la $A$-simediana de $\triangle ABC$.

De manera análoga vemos que $BB’$ y $CC’$ son simedianas, por lo tanto, $AA’$, $BB’$, $CC’$ concurren en el punto simediano $K$ de $\triangle ABC$.

Por el teorema anterior, se sigue que $X$, $X’$, $Y$, $Y’$, $Z$, $Z’$, están en una circunferencia de Tucker.

$\blacksquare$

Más adelante…

En la siguiente entrada estudiaremos propiedades mas generales de rectas que como la mediana y la simediana, son reflexión respecto de la bisectriz de un ángulo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. En la figura 1, muestra que:
    $i)$ $X’Y = Y’Z = Z’X$,
    $ii)$ el incírculo del triángulo que se forma al extender $X’Y$, $Y’Z$ y $Z’X$, es concéntrico con la primer circunferencia de Lemoine de $\triangle ABC$.
  2. Muestra que si tres diámetros de una circunferencia tienen sus extremos en los lados de un triángulo, entonces dicha circunferencia es la segunda circunferencia de Lemoine del triángulo y su centro es el punto de Lemoine.
  3. Muestra que el circuncírculo de un triángulo, la primera y la segunda circunferencias de Lemoine, son circunferencias de Tucker y encuentra la razón de homotecia con centro en el punto de Lemoine, que da origen a cada una.
  4. Demuestra que el centro de la circunferencia de Taylor de un triángulo es el punto de Spieker de su triángulo órtico. En la figura 4, el incentro del triángulo medial de $\triangle H_aH_bH_c$.
  5. En la figura 4 demuestra que:
    $i)$ el punto de Lemoine de $\triangle ABC$ coincide con el punto de Gergonne del triángulo medial de su triángulo órtico, $\triangle H_aH_bH_c$,
    $ii)$ el punto de Nagel del triángulo órtico $\triangle H_aH_bH_c$ es colineal con el ortocentro y el circuncentro de $\triangle A’B’C’$,
    $iii)$ las bisectrices internas del triángulo medial de $\triangle H_aH_bH_c$, son perpendiculares a los lados de $\triangle ABC$.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 257-260, 284-287.
  • Honsberger, R., Episodes in Nineteenth and Twentieth Century Euclidean Geometry. Washington: The Mathematical Association of America, 1995, pp 87-98.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 271-277.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 76-79.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Teorema de existencia y unicidad para sistemas lineales

Por Omar González Franco

El estudio profundo de la naturaleza es la fuente
más fértil de descubrimientos matemáticos.
– Fourier

Introducción

Nos estamos acercando al final de la unidad 3 del curso.

En esta unidad estudiamos los sistemas lineales de primer orden con coeficientes constantes tanto homogéneos como no homogéneos, es por ello que en esta entrada demostraremos los teoremas de existencia y unicidad para estos sistemas lineales en particular.

Es interesante la enorme utilidad que tiene definir la exponencial de una matriz, este concepto nos ha permitido desarrollar distintos métodos de resolución y no solo ello, ahora nos permitirá demostrar estos teoremas de existencia y unicidad.

Comencemos con el caso homogéneo.

Teorema de existencia y unicidad para sistemas lineales homogéneos

Recordemos que estamos estudiando sistemas lineales homogéneo con coeficientes constantes, es decir, la matriz $\mathbf{A}$ es de la forma

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{1} \tag{1}$$

con $a_{ij}$, $i, j \in \{ 1, 2, 3, \cdots, n \}$ constantes.

Demostración: Recordemos que ya demostramos que la función (\ref{3}) es solución del sistema homogéneo para el caso $t_{0} = 0$, lo mismo podemos hacer para cualquier $t_{0}$, con ello estaremos mostrando la existencia. Consideremos la función (\ref{3}).

$$\mathbf{Y}(t) = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0}$$

Con $t_{0} \in \mathbb{R}$. La derivada de esta función vectorial es

$$\mathbf{Y}^{\prime} = \mathbf{A} e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = \mathbf{A} \left( e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} \right) = \mathbf{AY}$$

Esto muestra que es solución del sistema, veamos que efectivamente satisface los valores iniciales evaluando en $t_{0}$.

$$\mathbf{Y}(t_{0}) = e^{(t_{0} -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = e^{\mathbf{0}} \mathbf{Y}_{0} = \mathbf{I} \cdot \mathbf{Y}_{0} = \mathbf{Y}_{0}$$

Con esto queda demostrado que la función $\mathbf{Y}(t) = e^{(t -t_{0})\mathbf{A}} \mathbf{Y}_{0}$ es solución del problema con valores iniciales, es decir, existe.

Para demostrar la unicidad supongamos que $\mathbf{X}(t)$ es otra solución del problema de valores iniciales. Consideremos una función derivable dada de la siguiente forma.

$$\mathbf{Z}(t) = e^{-(t -t_{0}) \mathbf{A}} \mathbf{X}(t) \label{4} \tag{4}$$

Si derivamos esta función obtenemos lo siguiente.

$$\mathbf{Z}^{\prime} = -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + e^{-(t -t_{0}) \mathbf{A}} \mathbf{X}^{\prime} \label{5} \tag{5}$$

Como $\mathbf{X}$ es solución del sistema, entonces se satisface que $\mathbf{X}^{\prime} = \mathbf{AX}$. Sustituimos en la ecuación anterior.

\begin{align*}
\mathbf{Z}^{\prime} &= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + e^{-(t -t_{0}) \mathbf{A}} \left( \mathbf{AX} \right) \\
&= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + \left( e^{-(t -t_{0}) \mathbf{A}} \mathbf{A} \right) \mathbf{X} \\
&= -\mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} + \mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} \\
&= \mathbf{0}
\end{align*}

En donde hemos hecho uso de la propiedad

$$e^{-(t -t_{0}) \mathbf{A}} \mathbf{A} = \mathbf{A} e^{-(t -t_{0}) \mathbf{A}} \label{6} \tag{6}$$

Justifica este hecho.

El calculo anterior muestra que $\mathbf{Z}^{\prime}(t) = \mathbf{0}$, esto implica que $\mathbf{Z}(t)$ es una matriz constante. Evaluemos $t_{0}$ en (\ref{4}).

$$\mathbf{Z}(t_{0}) = e^{-(t_{0} -t_{0}) \mathbf{A}} \mathbf{X}(t_{0})$$

Como $\mathbf{X}$ satisface el problema de valores iniciales, entonces $\mathbf{X}(t_{0}) = \mathbf{Y}_{0}$. Sustituimos en el resultado anterior.

$$\mathbf{Z}(t_{0}) = e^{\mathbf{0}} \mathbf{Y}_{0} = \mathbf{I} \cdot \mathbf{Y}_{0} = \mathbf{Y}_{0} \label{7} \tag{7}$$

Hemos probado que $\mathbf{Z}$ es una matriz constante y que $\mathbf{Z}(t_{0}) = \mathbf{Y}_{0}$, entonces

$$\mathbf{Z}(t) = \mathbf{Y}_{0} \label{8} \tag{8}$$

para todo $t \in \mathbb{R}$. Sustituyendo (\ref{4}) en (\ref{8}), se tiene

$$e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = \mathbf{Y}_{0} \label{9} \tag{9}$$

Multipliquemos $e^{(t -t_{0}) \mathbf{A}}$ en ambos lados de esta ecuación por el lado izquierdo.

$$e^{(t -t_{0}) \mathbf{A}} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} \label{10} \tag{10}$$

Por un lado,

$$e^{(t -t_{0}) \mathbf{A}} e^{-(t -t_{0}) \mathbf{A}} \mathbf{X} = \mathbf{I} \cdot \mathbf{X} = \mathbf{X}(t) \label{11} \tag{11}$$

Por otro lado, de (\ref{3}) se tiene que

$$e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} = \mathbf{Y}(t) \label{12} \tag{12}$$

Entonces (\ref{10}) queda como

$$\mathbf{X}(t) = \mathbf{Y}(t) \label{13} \tag{13}$$

Es decir, la solución es única.

$\square$

Con este teorema queda justificado el método de valores y vectores propios que presentamos en esta unidad para resolver sistemas lineales homogéneos con coeficientes constantes.

Ahora demostremos el teorema de existencia y unicidad para el caso no homogéneo.

Teorema de existencia y unicidad para sistemas lineales no homogéneos

Demostración: Sea $\mathbf{Y}(t)$ una función arbitraría definida en un intervalo común $\delta$ que es solución del problema de valores iniciales (\ref{14}), entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

y

$$\mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación (\ref{16}) por $e^{-t \mathbf{A}}$ por el lado izquierdo.

\begin{align*}
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} &= e^{-t \mathbf{A}} \mathbf{AY} + e^{-t \mathbf{A}} \mathbf{G} \\
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -e^{-t \mathbf{A}} \mathbf{AY} &= e^{-t \mathbf{A}} \mathbf{G} \\
e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -\mathbf{A} e^{-t \mathbf{A}} \mathbf{Y} &= e^{-t \mathbf{A}} \mathbf{G} \label{18} \tag{18}
\end{align*}

Notemos que

$$\left( e^{-t \mathbf{A}} \mathbf{Y} \right)^{\prime} = e^{-t \mathbf{A}} \mathbf{Y}^{\prime} -\mathbf{A} e^{-t \mathbf{A}} \mathbf{Y} \label{19} \tag{19}$$

Entonces el resultado (\ref{18}) se puede escribir como

$$\left( e^{-t \mathbf{A}} \mathbf{Y} \right)^{\prime} = e^{-t \mathbf{A}} \mathbf{G} \label{20} \tag{20}$$

Integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$e^{-t \mathbf{A}} \mathbf{Y}(t) -e^{-t_{0} \mathbf{A}} \mathbf{Y}(t_{0}) = \int_{t_{0}}^{t}e^{-s \mathbf{A}} \mathbf{G}(s) ds \label{21} \tag{21}$$

Multipliquemos ambos lados de esta ecuación por $e^{t \mathbf{A}}$ por el lado izquierdo y sustituyamos los valores iniciales (\ref{17}).

\begin{align*}
e^{t \mathbf{A}} e^{-t \mathbf{A}} \mathbf{Y}(t) -e^{t \mathbf{A}} e^{-t_{0} \mathbf{A}} \mathbf{Y}_{0} &= e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds \\
\mathbf{Y}(t) -e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} &= e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds
\end{align*}

Si despejamos a la función $\mathbf{Y}(t)$ obtenemos finalmente que

$$\mathbf{Y}(t) = e^{(t -t_{0}) \mathbf{A}} \mathbf{Y}_{0} + e^{t \mathbf{A}} \int_{t_{0}}^{t} e^{-s \mathbf{A}} \mathbf{G}(s) ds \label{22} \tag{22}$$

Como la función $\mathbf{Y}(t)$ fue arbitraría, con el proceso realizado estamos mostrando tanto la existencia como la unicidad de esta solución.

$\square$

Con este teorema queda justificado el método de variación de parámetros visto en la entada anterior.

Hemos concluido con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & 10 \\ 6 & -3
    \end{pmatrix} \mathbf{Y}(t), \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 0
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & 1 & 1 \\ 1 & 1 & 1 \\ -2 & -2 & -2
    \end{pmatrix} \mathbf{Y}(t), \hspace{1cm} \mathbf{Y}(0) =\begin{pmatrix}
    1 \\ -4 \\ 6
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    3 & -1 \\ -1 & 3
    \end{pmatrix} \mathbf{Y}(t) + \begin{pmatrix}
    4 e^{2t} \\ 4 e^{4t}
    \end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
    1 & -1 \\ 1 & -1
    \end{pmatrix} \mathbf{Y}(t) + \begin{pmatrix}
    1/t \\ 1/t
    \end{pmatrix}, \hspace{1cm} \mathbf{Y}(1) = \begin{pmatrix}
    2 \\ -1
    \end{pmatrix}$

Más adelante…

En la siguiente y última entrada de esta unidad justificaremos el teorema de existencia y unicidad de los sistemas de ecuaciones diferenciales de primer orden lineales y no lineales. Es decir, el resultado general de los sistemas de ecuaciones diferenciales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Punto simediano

Por Rubén Alexander Ocampo Arellano

Introducción

El punto simediano es el punto en el que concurren las simedianas de un triángulo, es otro punto notable del triángulo, en esta entrada veremos algunas de sus propiedades.

Punto simediano

Teorema 1. Las tres simedianas de un triángulo son concurrentes, al punto de concurrencia se le conoce como punto simediano o punto de Lemoine a menudo denotado con la letra $K$.

Demostración. En la entrada teorema de Menelao mostramos que un triángulo $\triangle ABC$ y su triangulo tangencial $\triangle K_aK_bK_c$, están en perspectiva desde una recta, conocida como eje de Lemoine.

Por el teorema de Desargues, $\triangle ABC$ y $\triangle K_aK_bK_c$ están en perspectiva desde un punto, es decir, $AK_a$, $BK_b$ y $CK_c$ concurren en un punto $K$.

Figura 1

Por el teorema 2 de la entrada anterior, dos exsimedianas (los lados del triángulo tangencial $\triangle K_aK_bK_c$) y una simediana, que pasan por vértices distintos de $\triangle ABC$ concurren en un punto exsimediano, es decir, $AK_a$, $BK_b$, $CK_c$ son las simedianas de $\triangle ABC$.

$\blacksquare$

Observación. Como el eje de Lemoine de $\triangle ABC$ es el eje de Gergonne de $\triangle K_aK_bK_c$, entonces el punto de Lemoine de $\triangle ABC$ es el punto de Gergonne de $\triangle K_aK_bK_c$, su triángulo tangencial.

Corolario 1. Sea $S = AK \cap BC$ entonces $AKSK_a$ es una hilera armónica de puntos.

Demostración. Por el corolario de la entrada anterior $B(AK_bCK_a)$ es un haz armónico de rectas y como $AD$ es transversal entonces sus intersecciones con el haz forman una hilera armónica.

$\blacksquare$

Triángulo pedal del punto simediano

Definición. Dados un triángulo $\triangle ABC$ y un punto $P$, el triángulo pedal de $P$ respecto de $\triangle ABC$, es aquel cuyos vértices son las proyecciones de $P$ en los lados de $\triangle ABC$. Por ejemplo, el triángulo órtico es el triángulo pedal del ortocentro.

Teorema 2, de Lemoine. El punto simediano es el único punto del plano que es el centroide de su propio triángulo pedal.

Demostración. Sean $\triangle ABC$ y $K$ su punto simediano, considera $X$, $Y$ y $Z$ las proyecciones de $K$ en $BC$, $CA$ y $AB$ respectivamente, sea $X’ \in KX$ tal que $YX’ \parallel KZ$.

Figura 2

Entonces $\triangle ABC \sim \triangle YX’K$, pues sus respectivos lados son perpendiculares, esto es
$\dfrac{AB}{AC} = \dfrac{YX’}{YK}$.

Pero $\dfrac{AB}{AC} = \dfrac{KZ}{KY}$ pues $K$ esta en la $A$-simediana, por lo tanto $KZ = YX’$.

En consecuencia, $\square X’ZKY$ es un paralelogramo y por lo tanto $KX’$ biseca a $YZ$.

Como resultado tenemos que $XK$ es mediana de $\triangle XYZ$.

De manera análoga vemos que $YK$, $ZK$ son medianas de $\triangle XYZ$, por lo tanto, $K$ es el centroide de su triangulo pedal.

$\blacksquare$

Recíprocamente, supongamos que $K$ es el centroide de su triángulo pedal $\triangle XYZ$ respecto a $\triangle ABC$, con $X \in BC$, $Y \in CA$, $Z \in AB$, sea $M$ el punto medio de $YZ$, extendemos $KM$ hasta un punto $X’$ tal que $KM = MX’$.

Como $YZ$ y $KX’$ se bisecan entonces $\square X’ZKY$ es un paralelogramo, entonces $YX’ = KZ$ y $YX’ \parallel KZ$.

Ya que los lados de $\triangle YX’K$ son perpendiculares a los lados de $\triangle ABC$, entonces son semejantes, esto es
$\dfrac{AB}{AC} = \dfrac{YX’}{YK} = \dfrac{KZ}{KY}$.

Por lo tanto, $K$ está en la $A$-simediana, igualmente vemos que $K$ pertenece a las $B$ y $C$-simedianas.

En consecuencia, $K$ es el punto simediano de $\triangle ABC$.

$\blacksquare$

Conjugado isotómico del punto simediano

Teorema 3. Las rectas que unen el punto medio del lado de un triángulo con el punto medio de la altura perpendicular a ese lado concurren en el punto simediano del triángulo.

Demostración. Sean $\triangle ABC$, $K$ el punto simediano, $K_b$ el punto exsimediano opuesto al vértice $B$, $S = BK_b  \cap CA$.

Figura 3

Por el corolario 1, $BKSK_b$ es una hilera armónica, por lo tanto, $B’(BKSK_b)$ es un haz armónico, donde $B’$ es el punto medio de $CA$.

Considera $O$ el circuncentro de $\triangle ABC$ y $H_b$ el pie de la altura por $B$, notemos que $O$, $B’$ y $K_b$ son colineales, por lo tanto, $B’K_b$ es perpendicular a $CA$ y así $BH_b \parallel B’K_b$.

Como $BH_b$ es paralela a una de las rectas del haz armónico, entonces las otras tres rectas del haz dividen a $BH_b$ en dos segmentos iguales, es decir $B’K$ biseca a $BH_b$.

Igualmente vemos que $A’K$ y $C’K$ bisecan a $AH_a$ y $CH_c$ respectivamente, y de esto concluimos la concurrencia de las rectas mencionadas.

$\blacksquare$

Proposición 1. El ortocentro de un triángulo y el punto simediano de su triángulo anticomplementario son conjugados isotómicos respecto del triángulo original.

Demostración. Sean $\triangle ABC$ y $\triangle A’B’C’$ su triángulo anticomplementario.

Como $AB$ y $AC$ son segmentos medios de $\triangle A’B’C’$, entonces $\square ABA’C$ es un paralelogramo, por lo tanto, $\triangle ABC$ y $\triangle A’CB$ son congruentes, además $AA’$ y $BC$ se intersecan en su punto medio $N$.

Figura 4

Sean $H_a$, $M_a$ los pies de las alturas desde $A$ y $A’$ respectivamente en $BC$, como $\triangle ABC \cong \triangle A’CB$, entonces $AH_a = M_aA’$.

Por criterio de congruencia ALA, $\triangle AH_aN \cong \triangle A’M_aN$, por lo que $H_aN = NM_a$, es decir, el punto medio de $H_a$ y $M_a$ coincide con el punto medio de $BC$,

Por lo tanto, $H_a$ y $M_a$ son puntos isotómicos respecto de $\triangle ABC$.

Sea $F$ el pie de la altura por $A’$ en $\triangle A’B’C’$, como $\square AH_aM_aF$ es un rectángulo entonces $M_aA’ = AH_a = FM_a$, y así $M_a$ es el punto medio de la altura $A’F$.

Por lo tanto, el segmento $AM_a$ une los puntos medios de un lado y una altura de $\triangle A’B’C’$.

De manera análoga vemos que los pies de las alturas en $\triangle ABC$, $H_b$, $H_c$ son isotómicos a los puntos medios de las alturas en $\triangle A’B’C’$, $M_b$, $M_c$, respectivamente.

Como las alturas de $\triangle ABC$ concurren en el ortocentro $H$ y, por el teorema 3, los segmentos $AM_a$, $BM_b$, $CM_c$ concurren en el punto simediano $S’$ de $\triangle A’B’C’$, entonces estos puntos son conjugados isotómicos respecto de $\triangle ABC$.

$\blacksquare$

Construcción de un triángulo dado su punto simediano

Problema. Construye un triángulo dados dos vértices $B$, $C$, y su punto simediano $K$.

Solución. Supongamos que $\triangle ABC$ es el triángulo requerido y consideremos $G$ y $A’$ el centroide y el punto medio de $BC$ respectivamente.

Sean $B’$, $C’ \in BC$, tales que $B’A \parallel BG$ y $AC’ \parallel GC$.

Figura 5

Por el teorema de Tales tenemos
$\dfrac{1}{2} = \dfrac{A’G}{GA} = \dfrac{A’B}{BB’} = \dfrac{A’C}{CC’}$.

Por lo tanto, $BB’ = CC’ = 2A’B = BC$, así que $B’$ y $C’$ pueden ser construidos teniendo $B$ y $C$.

Por otro lado, como $B’A \parallel BG$ y $AC’ \parallel GC$ y tomando en cuenta que $K$ esta en las reflexiones de $BG$ y $CG$ respecto de las bisectrices de $\angle B$ y $\angle C$ respectivamente, tenemos lo siguiente:

$\angle B’AB = \angle GBA = \angle KBC$ y $\angle CAC’ = \angle ACG = \angle KCB$.

Y estos ángulos son conocidos.

Entonces $B’B$ y $CC’$ subtienden ángulos conocidos en $A$, por lo que podemos trazar los arcos de circunferencia que son el lugar geométrico de los puntos que subtienden estos ángulos.

Así que de la intersección de estos dos arcos resultara en el vértice faltante.

Notemos que los arcos pueden tener dos intersecciones, ser tangentes o no intersecarse, por lo tanto, existen dos, una o cero soluciones.

$\blacksquare$

Distancia del punto simediano a los lados del triángulo

Proposición 2. El punto simediano de un triángulo es el único punto dentro del triángulo cuyas distancias a los lados del triángulo son proporcionales a los respectivos lados.

Demostración. Sean $\triangle ABC$ y $K$ su punto simediano, considera $X$, $Y$ y $Z$ las proyecciones de $K$ en $BC$, $CA$ y $AB$ respectivamente, denotemos $BC = a$, $CA = b$, $AB = c$.

Figura 6

Dado que $K$ está en las tres simedianas del triángulo, por el teorema 4 de la entrada anterior, las razones de sus distancias a los lados del triángulo son proporcionales a estos:

$\begin{equation} \dfrac{KZ}{KY} = \dfrac{c}{b}, \end{equation}$
$\begin{equation} \dfrac{KY}{KX} = \dfrac{b}{a}, \end{equation}$
$ \begin{equation} \dfrac{KX}{KZ} = \dfrac{a}{c}. \end{equation}$

Por $(1)$, $(2)$ y $(3)$
$\dfrac{KX}{a} = \dfrac{KY}{b} = \dfrac{KZ}{c} = q$.

Por lo tanto,
$KZ = \dfrac{cKY}{b} = cq$,
$KY = \dfrac{b KX}{a} = bq$,
$KX = \dfrac{a KZ}{c} = aq$.

La unicidad se da por que solo los puntos en las simedianas cumplen esa propiedad y solo $K$ se encuentra en las tres simedianas.

$\blacksquare$

Corolario. 2 $KX = a \dfrac{2(ABC)}{a^2 + b^2 + c^2}$.

Demostración. Calculamos el área de $\triangle ABC$ en función de áreas menores (figura 6).

$(\triangle ABC) = (\triangle KBC) + (\triangle KCA) + (\triangle KAB) $
$= \dfrac{1}{2}(aKX + bKY + cKZ)$
$= \dfrac{q}{2}(a^2 + b^2 + c^2)$.

Por lo tanto, $KX = aq = a \dfrac{2(ABC)}{a^2 + b^2 + c^2}$.

$\blacksquare$

Teorema 4. La suma de los cuadrados de las distancias de un punto a los lados de un triángulo dado, es mínima si el punto es el punto simediano del triángulo.

Demostración. Sean $a$, $b$, $c$, $x$, $y$, $z$ seis números reales entonces la siguiente igualdad es cierta:

 $(a^2 + b^2 + c^2)(x^2 + y^2 + z^2) = (ax + by + cz)^2 + (ay – bx)^2 + (az – cx)^2 + (bz – cy)^2$.

Para comprobarlo solo hace falta realizar los productos.

Podemos pensar estas cantidades como los lados de un triángulo $\triangle ABC$, $BC = a$, $CA = b$, $AB = c$, y $x$, $y$, $z$, las distancias de un punto $K$, a los lados de $\triangle ABC$.

Notemos $ax + by + cz$ representa al menos dos veces el área del triángulo $\triangle ABC$, $2(\triangle ABC)$, que junto con $(a^2 + b^2 + c^2)$ son constantes.

Como las cantidades $(ay – bx)^2$, $(az – cx)^2$, $(bz – cy)^2$ son mayores o iguales a cero, entonces el mínimo se alcanza si se satisfacen las siguientes igualdades:
$\begin{equation} (ay – bx)^2 = (az – cx)^2 = (bz – cy)^2 = 0, \end{equation}$
$\begin{equation} ax + by + cz = 2(\triangle ABC). \end{equation}$

Por otra parte, por las ecuaciones $(1)$, $(2)$ y $(3)$ sabemos que el punto simediano cumple $(4)$ y por el corolario 2 cumple $(5)$, también podemos calcular directamente,

$KX^2 + KY^2 + KZ^2 = \dfrac{(2(\triangle ABC))^2}{a^2 + b^2 + c^2}$.

Por lo tanto, si $K$ es el punto simediano de $\triangle ABC$, se alcanza el mínimo.

$\blacksquare$

Más adelante…

En la próxima entrada veremos otra propiedad del punto simediano, o punto de Lemoine, que amerita su propia entrada, se trata de un conjunto de circunferencias asociadas a este punto.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Si $K$ es el punto simediano de $\triangle ABC$, sea $X$ la proyección de $K$ en $BC$, muestra que la reflexión de $X$ respecto de $K$ esta en la mediana que pasa por $A$.
  2.  Encuentra el punto simediano de un triángulo rectángulo.
  3. Sobre los lados de un triángulo $\triangle ABC$ construye cuadrados externamente, muestra que los lados (de los cuadrados) opuestos a los lados de $\triangle ABC$ se intersecan formando un triángulo homotético a $\triangle ABC$, con centro de homotecia el punto simediano de $\triangle ABC$.
  4. Si las simedianas de $\triangle ABC$ intersecan a su circuncírculo en $D$, $E$ y $F$ muestra que $\triangle ABC$ y $\triangle DEF$ tienen el mismo punto simediano.
  5. $i)$ Muestra que las distancias a los lados de un triángulo desde sus puntos exsimedianos son proporcionales a las longitudes de los lados del triángulo,
    $ii)$ calcula dichas distancias.
  6. Prueba que de entre todos los triángulos inscritos en un triángulo dado, el triángulo pedal del punto simediano, es el que tiene la propiedad de que la suma de los cuadrados de sus lados es mínima.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 252-257.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 129-145.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 215-218.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios repetidos

Por Eduardo Vera Rosales

Introducción

En las dos entradas anteriores estudiamos el plano fase para un sistema de dos ecuaciones homogéneas con coeficientes constantes de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuyos valores propios son reales distintos no nulos o complejos. Analizamos el comportamiento de las soluciones en el plano fase y también la estabilidad del punto de equilibrio. Clasificamos los puntos de equilibrio en repulsores, atractores, puntos silla, centros, repulsores espirales y atractores espirales, según sea el caso.

Continuamos en esta entrada revisando el plano fase para sistemas de ecuaciones del mismo tipo, pero ahora consideraremos el caso cuando dicho sistema tiene valores propios repetidos. Sabemos que existen dos casos: cuando la matriz asociada al sistema es diagonalizable y cuando no lo es.

Si la matriz asociada es diagonalizable veremos que el plano fase tiene una forma muy sencilla. En efecto, como la solución general es de la forma $$\textbf{X}(t)=c_{1}e^{\lambda_{1} t} \begin{pmatrix} 1 \\ 0 \end{pmatrix}+c_{2}e^{\lambda_{2} t} \begin{pmatrix} 0 \\ 1 \end{pmatrix}.$$ Veremos que todo vector en $\mathbb{R}^{2}$ es un vector propio del sistema, y por tanto las soluciones (no triviales) en el plano fase son rayos que salen del origen.

Si la matriz asociada al sistema no es diagonalizable entonces la solución general tiene la forma $$\textbf{X}(t)=c_{1}e^{\lambda t}\begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}+c_{2}e^{\lambda t}\left(\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}+t\left(\textbf{A}-\lambda\textbf{Id}\right)\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)$$ donde $\lambda$ es el único valor propio del sistema, $(u_{1},u_{2})$ su único vector propio y $(v_{1},v_{2})$ es un vector propio generalizado. En este caso, solo tenemos una solución de línea recta en el plano fase, así que veremos cuál es el comportamiento de las demás soluciones.

Por supuesto, veremos algunos ejemplos para terminar de entender las ideas presentadas.

Plano fase para sistemas con valores propios repetidos

En el primer video estudiamos el plano fase de manera general para sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando este tiene un único valor propio. Consideramos los casos cuando la matriz asociada al sistema es diagonalizable y cuando no lo es.

En el segundo video dibujamos el plano fase de algunos sistemas de ecuaciones con un único valor propio.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Sea $\textbf{A}$ una matriz de tamaño $2\times 2$ con entradas reales. Muestra que $\textbf{A}$ es diagonalizable y con único valor propio si y sólo si $\textbf{A}=\begin{pmatrix} \lambda & 0 \\ 0 & \lambda \end{pmatrix}$.
  • Encuentra la solución general y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 4 & -4 \\0 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Resuelve y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 3 & -4 \\1 & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Resuelve y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -6 & -5 \\5 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$

Más adelante

Estamos a punto de finalizar el estudio del plano fase para sistemas de dos ecuaciones con coeficientes constantes. Sin embargo, aún nos falta un caso, que es cuando el sistema tiene un valor propio igual a cero. El plano fase para este tipo de sistemas es peculiar ya que el sistema tiene infinitos puntos de equilibrio. En la siguiente entrada estudiaremos este caso particular.

¡No te lo pierdas!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Sistemas lineales no homogéneos – Método de variación de parámetros

Por Omar González Franco

Las ciencias matemáticas exhiben particularmente orden, simetría
y límites; y esas son las más grandes formas de belleza.
– Aristóteles

Introducción

Ya sabemos resolver sistemas lineales homogéneos con coeficientes constantes, en esta entrada estudiaremos el caso no homogéneo.

Como hemos visto en las dos unidades anteriores, el método de variación de parámetros ha sido fundamental para resolver ecuaciones diferenciales en el caso no homogéneo. Éste mismo método es el que desarrollaremos en esta entrada para resolver sistemas lineales no homogéneos con coeficientes constantes.

Cabe mencionar que en esta entrada utilizaremos bastante el concepto de exponencial de una matriz y el de matriz fundamental de soluciones.

Sistemas lineales homogéneos

El sistema lineal que hemos estudiado es

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} \label{1} \tag{1}$$

Donde $\mathbf{A}$ es una matriz con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Ahora sabemos que la solución general del sistema lineal homogéneo (\ref{1}) es de la forma

$$\mathbf{Y}_{c}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) \label{3} \tag{3}$$

En donde las funciones $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$ son soluciones linealmente independientes del mismo sistema. Usamos el subíndice $c$ debido a que, como antes, al resolver el caso no homogéneo será necesario resolver primero el sistema homogéneo asociado y la solución general de dicho sistema será la solución complementaria del sistema no homogéneo.

Recordemos que la matriz que tiene por columnas a las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ de (\ref{3}) corresponde a la matriz fundamental de soluciones.

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix} \mathbf{Y}_{1}(t) & \mathbf{Y}_{2}(t) & \cdots & \mathbf{Y}_{n}(t) \end{pmatrix} = \begin{pmatrix} y_{11}(t) & y_{12}(t) & \cdots & y_{1n}(t) \\
y_{21}(t) & y_{22}(t) & \cdots & y_{2n}(t) \\
\vdots & & & \vdots \\
y_{n1}(t) & y_{n2}(t) & \cdots & y_{nn}(t)
\end{pmatrix} \label{4} \tag{4}$$

Si definimos el vector de constantes

$$\mathbf{C} = \begin{pmatrix}
c_{1} \\ c_{2} \\ \vdots \\ c_{n}
\end{pmatrix} \label{5} \tag{5}$$

podemos escribir la solución (\ref{3}) como

$$\mathbf{Y}_{c}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} \label{6} \tag{6}$$

Recordemos este resultado para más adelante.

Sistemas lineales no homogéneos

El sistema lineal no homogéneo que intentaremos resolver es de la forma

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G} \label{7} \tag{7}$$

Donde $\mathbf{G} = \mathbf{G}(t)$ es una matriz de $n \times 1$ con componentes dependientes de $t$.

$$\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

Dada la forma de la solución general de un sistema lineal homogéneo (\ref{3}), parecería natural pensar que el sistema lineal no homogéneo tiene por solución una función de la forma

$$\mathbf{Y}_{p}(t) = u_{1}(t) \mathbf{Y}_{1}(t) + u_{2}(t) \mathbf{Y}_{2}(t) + \cdots + u_{n}(t) \mathbf{Y}_{n}(t) \label{9} \tag{9}$$

En donde $u_{i}(t)$, $i = 1, 2, \cdots, n$ son funciones escalares de $t$ derivables y las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ forman una matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$. Si definimos el vector

$$\mathbf{U}(t) = \begin{pmatrix}
u_{1}(t) \\ u_{2}(t) \\ \vdots \\ u_{n}(t)
\end{pmatrix} \label{10} \tag{10}$$

Entonces la solución propuesta (\ref{9}) adquiere la forma

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \mathbf{U}(t) \label{11} \tag{11}$$

El método de variación de parámetros nos permitirá obtener la forma del vector $\mathbf{U}(t)$, una vez obtenida podremos formar la solución general del sistema lineal no homogéneo (\ref{7}) que, como siempre, será la superposición de la solución complementaria del sistema lineal homogéneo asociado $\mathbf{Y}_{c}(t)$ más la solución particular del sistema lineal no homogéneo $\mathbf{Y}_{p}(t)$, esto es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t) \label{12} \tag{12}$$

Variación de parámetros

Comencemos a desarrollar el método de variación de parámetros, como mencionamos antes, el objetivo es encontrar la forma explícita del vector (\ref{10}) para formar la solución particular del sistema lineal no homogéneo.

Consideremos la función propuesta (\ref{11}) y derivémosla.

$$\mathbf{Y}_{p}^{\prime}(t) = \hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) \label{13} \tag{13}$$

Si sustituimos (\ref{11}) y (\ref{13}) en el sistema lineal no homogéneo (\ref{7}), se tiene

$$\hat{\mathbf{Y}}^{\prime}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} [\hat{\mathbf{Y}}(t) \mathbf{U}(t)] + \mathbf{G}(t) \label{14} \tag{14}$$

Como $\hat{\mathbf{Y}}(t)$ es una matriz fundamental de soluciones sabemos que satisface el sistema homogéneo, es decir,

$$\hat{\mathbf{Y}}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \label{15} \tag{15}$$

Si sustituimos en (\ref{14}) la ecuación queda como

$$\mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{A} \hat{\mathbf{Y}}(t) \mathbf{U}(t) + \mathbf{G}(t)$$

O bien,

$$\hat{\mathbf{Y}}(t) \mathbf{U}^{\prime}(t) = \mathbf{G}(t) \label{16} \tag{16}$$

La matriz fundamental es no singular, de manera que siempre existe su inversa, esto nos permite establecer que

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) \label{17} \tag{17}$$

Esta ecuación es matricial y sabemos que es posible integrar sobre matrices, así que integremos la ecuación anterior con el objetivo de hallar la forma de $\mathbf{U}$.

$$\mathbf{U}(t) = \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{18} \tag{18}$$

Ahora que conocemos la forma de $\mathbf{U}(t)$, sustituimos en la solución propuesta (\ref{11}), de forma que una solución particular del sistema lineal no homogéneo es

$$\mathbf{Y}_{p}(t) = \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{19} \tag{19}$$

Por lo tanto, de (\ref{6}) y el resultado (\ref{19}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t) dt \label{20} \tag{20}$$

Si $\hat{\mathbf{Y}}(t)$ es la matriz fundamental de soluciones $e^{\mathbf{A} t}$ y considerando que $\hat{\mathbf{Y}}^{-1}(t) = e^{-\mathbf{A} t}$, el resultado anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{C} + e^{\mathbf{A}t} \int e^{-\mathbf{A} t} \mathbf{G}(t) dt \label{21} \tag{21}$$

Problema con valores iniciales

Consideremos el problema con valores iniciales

$$\mathbf{Y}^{\prime} = \mathbf{A} \mathbf{Y} + \mathbf{G}; \hspace{1cm} \mathbf{Y}(t_{0}) = \mathbf{Y}_{0} \label{22} \tag{22}$$

De nuestro desarrollo anterior consideremos la relación (\ref{17}).

$$\mathbf{U}^{\prime}(t) = \hat{\mathbf{Y}}^{ -1}(t) \mathbf{G}(t)$$

En esta ocasión integremos de $t_{0}$ a $t$ y usemos el teorema fundamental del cálculo.

$$\mathbf{U}(t) = \mathbf{U}(t_{0}) + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{23} \tag{23}$$

Notemos que si aplicamos la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ sobre la función (\ref{11}), se obtiene

$$\mathbf{Y}_{p}(t_{0}) = \hat{\mathbf{Y}}(t_{0}) \mathbf{U}(t_{0}) = \mathbf{Y}_{0} \label{24} \tag{24}$$

De donde,

$$\mathbf{U}(t_{0}) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} \label{25} \tag{25}$$

Sustituimos este resultado en la ecuación (\ref{23}).

$$\mathbf{U}(t) = \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{26} \tag{26}$$

Aquí debemos tener cuidado, si sustituimos la función (\ref{26}) en (\ref{11}), se obtiene

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{27} \tag{27}$$

Pero $\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0}$ es una matriz de constantes, digamos

$$\hat{\mathbf{Y}}^{ -1}(t_{0}) \mathbf{Y}_{0} = \mathbf{C}$$

Entonces el resultado (\ref{27}) queda como

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \mathbf{C} + \hat{\mathbf{Y}}(t) \int_{t_{0}}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{28} \tag{28}$$

Este resultado se parece a la ecuación (\ref{20}), es decir, a pesar de que sustituimos (\ref{26}) en (\ref{11}) esperando obtener la solución particular $\mathbf{Y}_{p}(t)$, en realidad estamos obteniendo la solución general, la solución general del problema de valores iniciales.

Si consideramos nuevamente que $\hat{\mathbf{Y}}(t) = e^{\mathbf{A} t}$, el resultado (\ref{27}) se reduce significativamente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} e^{-\mathbf{A} t_{0}} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{t_{0}}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{29} \tag{29}$$

O bien,

$$\mathbf{Y}(t) = e^{\mathbf{A}(t -t_{0})} \mathbf{Y}_{0} + \int_{t_{0}}^{t}e^{\mathbf{A} (t -s)} \mathbf{G}(s) ds \label{30} \tag{30}$$

Por otro lado, si $t_{0} = 0$, de (\ref{27}) se obtiene que

$$\mathbf{Y}(t) = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{ -1}(0) \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds$$

Pero recordemos que

$$e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0) \label{31} \tag{31}$$

Entonces la solución anterior queda como

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + \hat{\mathbf{Y}}(t) \int_{0}^{t} \hat{\mathbf{Y}}^{ -1}(s) \mathbf{G}(s) ds \label{32} \tag{32}$$

Si nuestro propósito es determinar la solución general de un sistema lineal no homogéneo (\ref{7}), primero resolvemos el sistema lineal homogéneo asociado para obtener la solución complementaria en la forma (\ref{3}). Con las funciones $\mathbf{Y}_{i}(t)$, $i = 1, 2, \cdots, n$ obtenidas formamos una matriz fundamental $\hat{\mathbf{Y}}(t)$, se calcula su inversa y se sustituyen las matrices correspondientes en la solución particular (\ref{19}). Una vez obtenidas ambas soluciones, la solución general del sistema lineal no homogéneo será

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

Sin embargo, si lo que tenemos es un problema de valores iniciales, debemos nuevamente obtener la solución del sistema lineal homogéneo asociado ya que eso es lo que nos permite formar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$, una vez obtenida esta función calculamos su inversa y se sustituyen las matrices correspondientes en la ecuación (\ref{27}), esto nos dará la solución completa del problema de valores iniciales, es decir, no es necesario aplicar las condiciones iniciales en la solución complementaria para obtener los valores de las constantes $c_{1}, c_{2}, \cdots, c_{n}$.

Para concluir con esta entrada realicemos dos ejemplos, en el primero de ellos obtendremos la solución general de un sistema lineal no homogéneo y en el segundo ejemplo resolveremos un problema con valores iniciales. Con estos ejemplos se espera que el método quede claro.

Ejemplo: Obtener la solución general del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{t}$$

Solución: Resolvamos primero el sistema homogéneo asociado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix} \mathbf{Y}$$

En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
0 & 2 \\ -1 & 3
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
-\lambda & 2 \\ -1 & 3 -\lambda
\end{vmatrix} = 0$$

La ecuación característica es

$$\lambda^{2} -3 \lambda + 2 = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios son

$$\lambda_{1} = 1\hspace{1cm} y \hspace{1cm} \lambda_{2} = 2$$

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \begin{pmatrix}
-1 & 2 \\ -1 & 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + 2 k_{2} = 0$$

Es decir, $2 k_{2} = k_{1}$. Elegimos $k_{2} = 1$, entonces $k_{1} = 2$. Por lo tanto el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 2$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
-2 & 2 \\ -1 & 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

$$-k_{1} + k_{2} = 0$$

Es decir, $k_{1} = k_{2}$. Elegimos $k_{1} = k_{2} = 1$. Por lo tanto, el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Con estos resultados concluimos que la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

Para determinar la solución particular $\mathbf{Y}_{p}(t)$, formemos, con el resultado anterior, la matriz fundamental de soluciones (\ref{4}).

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix}$$

Como también requerimos de la matriz inversa, verifica que

$$\hat{\mathbf{Y}}^{-1}(t) = \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix}$$

La matriz $\mathbf{G}$ en este caso es

$$ \mathbf{G}(t) = \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix}$$

Sustituyamos estas matrices en la solución particular (\ref{19}).

\begin{align*}
\mathbf{Y}_{p}(t) &= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
e^{-t} & -e^{-t} \\ -e^{-2t} & 2e^{-2t}
\end{pmatrix} \begin{pmatrix}
e^{t} \\ -e^{t}
\end{pmatrix} dt \\
&= \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt
\end{align*}

Resolviendo la integral (sin considerar constantes de integración), se obtiene

$$\int \begin{pmatrix}
2 \\ -3e^{-t}
\end{pmatrix} dt = \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
2e^{t} & e^{2t} \\ e^{t} & e^{2t}
\end{pmatrix} \begin{pmatrix}
2t \\ 3e^{-t}
\end{pmatrix} = \begin{pmatrix}
4t e^{t} + 3e^{t} \\ 2te^{t} + 3e^{t}
\end{pmatrix}$$

Esto es,

$$\mathbf{Y}_{p}(t) =\begin{pmatrix}
4 \\ 2
\end{pmatrix} te^{t} + \begin{pmatrix}
3 \\ 3
\end{pmatrix} e^{t}$$

Por lo tanto, la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ 1
\end{pmatrix} + c_{2} e^{2t} \begin{pmatrix}
1 \\ 1
\end{pmatrix} + \begin{pmatrix}
3 \\ 3
\end{pmatrix}e^{t} + \begin{pmatrix}
4 \\ 2
\end{pmatrix} t e^{t}$$

$\square$

Realicemos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix}$$

Solución: Primero debemos obtener la solución del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} \mathbf{Y}$$

Ello nos permitirá obtener la matriz fundamental de soluciones. En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix}$$

Determinemos los valores y vectores propios de esta matriz. La ecuación característica se obtendrá de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
1-\lambda & 0 & 0 \\ 2 & 1 -\lambda & -2 \\ 3 & 2 & 1 -\lambda
\end{vmatrix} = 0$$

Desarrollando el determinante obtendremos que

$$(1 -\lambda )(\lambda ^{2} -2 \lambda + 5) = 0$$

Resolviendo para $\lambda$ se obtiene que los valores propios de $\mathbf{A}$ son

$$\lambda_{1} = 1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 1 + 2i, \hspace{1cm} \lambda_{3} = 1 -2i$$

De acuerdo a los valores propios obtenidos, la manera de resolver el sistema homogéneo será aplicando la teoría vista en la entrada sobre valores propios complejos.

Determinemos los vectores propios correspondientes a cada valor propio.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -\mathbf{I}) \mathbf{K} = \left[ \begin{pmatrix}
1 & 0 & 0 \\ 2 & 1 & -2 \\ 3 & 2 & 1
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \right] \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 2 & 0 & -2 \\ 3 & 2 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema que se obtiene es

\begin{align*}
2 k_{1} -2 k_{3} &= 0 \\
3 k_{1} + 2 k_{2} &= 0
\end{align*}

De este sistema se observa que

\begin{align*}
k_{1} &= k_{3} \\
k_{2} &= -\dfrac{3k_{1}}{2}
\end{align*}

Elegimos $k_{1} = 2 = k_{3}$, de tal manera que $k_{2} = -3$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + 2i$.

Buscamos un vector $\mathbf{K}$, diferente de cero, tal que

$$[\mathbf{A} -(1 + 2i) \mathbf{I}] \mathbf{K} = \begin{pmatrix}
-2i & 0 & 0 \\ 2 & -2i & -2 \\ 3 & 2 & -2i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2i k_{1} &= 0 \\
2k_{1} -2i k_{2} -2k_{3} &= 0 \\
3k_{1} + 2k_{2} -2i k_{3} &= 0
\end{align*}

De este sistema se observa que $k_{1} = 0$ y $k_{3} = -ik_{2}$. Elegimos $k_{2} = 1$, de manera que el segundo vector propio sea

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Caso 3: $\lambda_{2} = 1 -2i$.

Sabemos que este caso es el conjugado del caso anterior, por lo que directamente establecemos que el tercer vector propio es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

La solución general del sistema lineal homogéneo asociado, en su forma compleja, es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} + c_{3} e^{(1 -2i) t} \begin{pmatrix}
0 \\ 1 \\ i
\end{pmatrix}$$

Sin embargo esta solución no nos sirve de mucho, pues desearíamos construir la matriz fundamental de soluciones con valores reales. Recordando lo visto en la entrada sobre valores propios complejos, podemos encontrar dos funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$, tal que la solución general sea de la forma

$$\mathbf{Y}_{c}(t) = c_{1} e^{\lambda_{1} t} + c_{2} \mathbf{W}_{1}(t) + c_{3} \mathbf{W}_{2}(t) \label{33} \tag{33}$$

Recordemos que las funciones $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ están dadas por

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] \label{34} \tag{34}$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{35} \tag{35}$$

Consideremos el caso 2 en el que $\lambda_{2} = 1 + 2i$ y

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} $$

De estos resultados obtenemos que $\alpha = 1$, $\beta = 2$ y

$$\mathbf{U} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix}$$

Sustituyamos en la funciones (\ref{34}) y (\ref{35}). Por un lado,

\begin{align*}
\mathbf{W}_{1}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \cos(2t) -\begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \sin(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} -\begin{pmatrix}
0 \\ 0 \\ -\sin(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix}$$

Por otro lado,

\begin{align*}
\mathbf{W}_{2}(t) &= e^{t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \sin(2t) + \begin{pmatrix}
0 \\ 0 \\ -1
\end{pmatrix} \cos(2t) \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

Recordemos que estas funciones también se pueden obtener considerando la identidad de Euler. Del caso 2 la solución que se obtiene es

$$\mathbf{Y}_{2c}(t) = e^{(1 + 2i) t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix}$$

Así,

$$\mathbf{W}_{1}(t) = Re \{ \mathbf{Y}_{2c}(t) \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = Im \{ \mathbf{Y}_{2c}(t) \}$$

Usando la identidad de Euler sobre esta solución obtenemos lo siguiente.

\begin{align*}
e^{(1 + 2i)t} \begin{pmatrix}
0 \\ 1 \\ -i
\end{pmatrix} &= e^{t}[\cos(2t) + i \sin(2t)] \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -i \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + \sin(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] + i e^{t} \left[ \sin(2t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} -\cos(2t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{t} \left[ \begin{pmatrix}
0 \\ \cos(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \sin(2t)
\end{pmatrix} \right] + ie^{t} \left[ \begin{pmatrix}
0 \\ \sin(2t) \\ 0
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ -\cos(2t)
\end{pmatrix} \right]
\end{align*}

De donde,

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix}$$

De esta forma, la solución general del sistema lineal homogéneo asociado es

$$\mathbf{Y}_{c}(t) = c_{1} e^{t} \begin{pmatrix}
2 \\ -3 \\ 2
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ \cos(2t) \\ \sin(2t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \sin(2t) \\ -\cos(2t)
\end{pmatrix} \label{36} \tag{36}$$

Esta solución es de la forma (\ref{3}) por lo que la matriz fundamental de soluciones, formada por estos vectores linealmente independientes, es

$$\hat{\mathbf{Y}}(t) = \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t} & e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix}$$

Para obtener la solución del problema con valores iniciales usaremos el resultado (\ref{29}) para $t_{0} = 0$.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{Y}_{0} + e^{\mathbf{A}t} \int_{0}^{t} e^{-\mathbf{A} s} \mathbf{G}(s) ds \label{37} \tag{37}$$

Es decir, consideraremos a la matriz $e^{\mathbf{A} t}$ como la matriz fundamental de soluciones. También es posible usar la relación (\ref{32}) usando la matriz $\hat{\mathbf{Y}}(t)$ antes establecida. ¿Por qué son equivalentes ambas formas?.

Determinemos la matriz $e^{\mathbf{A} t}$ usando la relación (\ref{31}). Si evaluamos $t = 0$ en la matriz $\hat{\mathbf{Y}}(t)$ se obtiene la matriz

$$\hat{\mathbf{Y}}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}$$

Comprueba que la matriz inversa es

$$\hat{\mathbf{Y}}^{ -1}(0) = \begin{pmatrix}
2 & 0 & 0 \\ -3 & 1 & 0 \\ 2 & 0 & -1
\end{pmatrix}^{ -1} = \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix}$$

Sustituyamos en (\ref{31}).

\begin{align*}
e^{\mathbf{A}t} &= \begin{pmatrix}
2e^{t} & 0 & 0 \\ -3e^{t} & e^{t} \cos(2t) & e^{t} \sin(2t) \\ 2e^{t}& e^{t} \sin(2t) & -e^{t} \cos(2t)
\end{pmatrix} \begin{pmatrix}
\dfrac{1}{2} & 0 & 0 \\ \dfrac{3}{2} & 1 & 0 \\ 1 & 0 & -1
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}
\end{align*}

Por lo tanto, la matriz que consideraremos como matriz fundamental de soluciones es

$$e^{\mathbf{A}t} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix}$$

Como también requerimos de la inversa de esta matriz, verifica que

$$e^{-\mathbf{A}t} = e^{-t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) -\sin(2t) & \cos(2t) & \sin(2t) \\ 1 -\dfrac{3}{2} \sin(2t) -\cos(2t) & -\sin(2t) & \cos(2t)
\end{pmatrix}$$

En este caso la matriz $\mathbf{G}(t)$ es

$$\mathbf{G}(t) = \begin{pmatrix}
0 \\ 0 \\ e^{t} \cos(2t)
\end{pmatrix}$$

Sustituyamos todos estos resultados en la solución (\ref{37}).

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{s} \cos(2s)
\end{pmatrix}ds$$

Por un lado,

$$e^{\mathbf{A} t} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 1
\end{pmatrix} = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix}$$

De tarea moral, determina las constantes $c_{1}$, $c_{2}$ y $c_{3}$ aplicando los valores iniciales sobre la solución complementaria (\ref{36}). ¿Qué relación tiene tu resultado con la operación anterior?.

Por otro lado,

$$e^{-s} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2s) -\sin(2s)
& \cos(2s) & \sin(2s) \\ 1 -\dfrac{3}{2} \sin(2s) -\cos(2s) & -\sin(2s) & \cos(2s)
\end{pmatrix} e^{s} \begin{pmatrix}
0 \\ 0 \\ \cos(2s)
\end{pmatrix} = \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix}$$

Sustituimos estas matrices en $\mathbf{Y}(t)$.

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A} t} \int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds$$

Resolvamos la integral.

\begin{align*}
\int_{0}^{t} \begin{pmatrix}
0 \\ \sin(2s) \cos(2s) \\ \cos^{2}(2s)
\end{pmatrix} ds &= \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{t} – \left. \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4s) \\ \dfrac{s}{2} + \dfrac{\sin(4s)}{8}
\end{pmatrix} \right|_{0} \\
&= \begin{pmatrix}
0 \\ -\dfrac{1}{8} \cos(4t) \\ \dfrac{t}{2} + \dfrac{\sin(4t)}{8}
\end{pmatrix} -\begin{pmatrix}
0 \\ -\dfrac{1}{8} \\ 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}
\end{align*}

Entonces,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix}$$

Ahora realicemos el producto del segundo sumando.

\begin{align*}
e^{\mathbf{A}t} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} &= e^{t} \begin{pmatrix}
1 & 0 & 0 \\ -\dfrac{3}{2} + \dfrac{3}{2} \cos(2t) + \sin(2t) & \cos(2t) & -\sin(2t) \\ 1 + \dfrac{3}{2} \sin(2t) -\cos(2t) & \sin(2t) & \cos(2t)
\end{pmatrix} \begin{pmatrix}
0 \\ \dfrac{1 -\cos(4t)}{8} \\ \dfrac{4t + \sin(4t)}{8}
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ \cos(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) -\sin(2t) \left( \dfrac{4t + \sin(4t)}{8} \right) \\ \sin(2t) \left( \dfrac{1 -\cos(4t)}{8} \right) + \cos(2t) \left( \dfrac{4t + \sin(4t)}{8} \right)
\end{pmatrix} \\
&= e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}
\end{align*}

Así,

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\sin(2t) \\ \cos(2t) + \sin(2t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\dfrac{t \sin(2t)}{2} + \dfrac{\cos(2t) -\cos(4t) \cos(2t) -\sin(4t) \sin(2t)}{8}
\\ \dfrac{t \cos(2t)}{2} + \dfrac{\sin(2t) + \sin(4t) \cos(2t) -\cos(4t) \sin(2t)}{8}
\end{pmatrix}$$

Haciendo las operaciones correspondientes se obtiene finalmente que la solución al problema con valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(2t) -\left( 1+ \dfrac{1}{2}t \right) \sin(2t) \\ \left( 1 + \dfrac{1}{2}t \right) \cos(2t) + \dfrac{5}{4} \sin(2t)
\end{pmatrix}$$

$\square$

Vemos que este método puede ser bastante largo y complicado, de hecho se puede volver una tarea imposible de hacer a mano si se tienen sistemas con matriz $\mathbf{A}$ de $3 \times 3$ o más. Se recomienda, en la medida de lo posible, usar algún programa computacional para llevar a cabo algunas de las operaciones, lo importante es entender como llevar a cabo el método.

Con esto concluimos lo que corresponde al estudio de los distintos métodos para resolver sistemas lineales. Prácticamente hemos concluido con la unidad 3 del curso.

En las siguientes dos entradas de esta unidad trataremos de justificar los teoremas de existencia y unicidad en el caso de los sistemas lineales, esto con el propósito de justificar toda la teoría desarrollada a lo largo de la unidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener la solución general de los siguientes sistemas lineales no homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \cos(t) \\ \sin(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 \\ -\dfrac{1}{2} & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    \csc(t) \\ \sec(t)
    \end{pmatrix} e^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    e^{t} \\ e^{2t} \\ te^{3t}
    \end{pmatrix}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix} e^{2t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 & -2 \\ 1 & 1 & 1 \\ 2 & 1 & 3
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 0 \\ 0
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 0 \\ 0
    \end{pmatrix}$

Más adelante…

En la siguiente entrada demostraremos los teoremas de existencia y unicidad para el caso de los sistemas lineales de primer orden con coeficientes constantes homogéneos y no homogéneos y posteriormente, en la última entrada de esta unidad, justificaremos el teorema de existencia y unicidad en el caso general, es decir, para sistemas lineales y no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»