En la entrada anterior comenzamos a estudiar el plano fase para sistemas de dos ecuaciones homogéneas con coeficientes constantes de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ En particular, revisamos el caso cuando los valores propios del sistema son reales distintos y no son cero. Vimos que el comportamiento de las curvas y la estabilidad del punto de equilibrio dependen del signo de los valores propios. Así, cuando los signos difieren tenemos un punto silla (inestable), cuando los dos valores propios son negativos tenemos un atractor (punto de equilibrio asintóticamente estable) y finalmente, cuando ambos valores propios son positivos el punto de equilibrio es un repulsor (inestable).
Es turno ahora de analizar el plano fase para sistemas cuyos valores propios son complejos. Sabemos que si $\lambda_{1}=\alpha + \beta i$ es un valor propio del sistema, entonces su conjugado $\lambda_{2}=\alpha – \beta i$ también es un valor propio. Además la solución general a dichos sistemas tiene la forma $$\textbf{X}(t)=c_{1}e^{\alpha t}\left(\cos{\beta t}\begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}-\sin{\beta t}\begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)+c_{2}e^{\alpha t}\left(\sin{\beta t} \begin{pmatrix} u_{1} \\ u_{2} \end{pmatrix}+\cos{\beta t} \begin{pmatrix} v_{1} \\ v_{2} \end{pmatrix}\right)$$ donde los vectores $(u_{1},u_{2})$ y $(v_{1},v_{2})$ son vectores tales que $$\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$$ es un vector propio para $\lambda_{1}$.
Estudiaremos las soluciones cuando $t \rightarrow \infty$. La forma del plano fase va a depender de la parte real $\alpha$ de los valores propios (nota que los dos valores propios tienen la misma parte real), por lo que distinguiremos tres casos, según $\alpha$ sea positivo, negativo o cero. Finalmente clasificaremos a los puntos de equilibrio según su estabilidad.
Plano fase para sistemas con valores propios complejos
En el primer video estudiamos de manera general el plano fase para sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuyos valores propios son complejos. Analizamos tres casos: cuando la parte real de los valores propios es positiva, negativa o cero.
En el segundo video resolvemos y dibujamos el plano fase para distintos sistemas con valores propios complejos.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.
Prueba que la función $$\textbf{X}(t)=\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ es periódica, con período $\frac{2\pi}{\beta}$, donde $c_{1},c_{2},u_{1},u_{2},v_{1},v_{2}$ son valores constantes.
De acuerdo al ejercicio anterior, concluye que si un sistema homogéneo con coeficientes constantes tiene un valor propio complejo $\lambda_{1}=\beta i$ con vector propio asociado $\textbf{w}=(u_{1},u_{2})+i(v_{1},v_{2})$, entonces las curvas en el plano fase son cerradas.
Considera ahora la función $$\textbf{X}(t)=e^{\alpha t}\begin{pmatrix} (c_{1}u_{1}+c_{2}v_{1})\cos{\beta t}+(c_{2}u_{1}-c_{1}v_{1})\sin{\beta t} \\ (c_{1}u_{2}+c_{2}v_{2})\cos{\beta t}+(c_{2}u_{2}-c_{1}v_{2})\sin{\beta t} \end{pmatrix}$$ con $\alpha \neq 0$. Prueba que los puntos en el plano que son imagen de valores periódicos bajo la función del primer ejercicio se quedan contenidos en una recta. Concluye el comportamiento espiral de las soluciones a sistemas de ecuaciones con valores complejos cuya parte real es distinta de cero.
Prueba que el punto de equilibrio del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & b \\ -b & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ es un centro.
Resuelve y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ -2 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Encuentra la solución general y dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -1 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 0 & 1 \\ -5 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
(Recuerda que puedes apoyarte del campo vectorial asociado para dibujar el plano fase).
Más adelante
Seguimos avanzando en el estudio del plano fase para sistemas homogéneos con coeficientes constantes. Ya sabemos la forma de las soluciones para sistemas cuyos valores propios son reales distintos y no nulos, o complejos. En la próxima entrada continuaremos revisando el plano fase, pero ahora para sistemas que tienen valores propios repetidos.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»
Esta es una continuación de la entrada anterior donde vimos algunas propiedades de hileras armónicas de puntos, esta vez nos enfocaremos en propiedades de un haz armónico de rectas, que nos permitirán definir al cuadrilátero armónico.
Haz de rectas
Definición 1. Si cuatro rectas $PA$, $PC$, $PB$, $PD$ concurren en $P$, decimos que forman un haz de rectas y que $P$ es el vértice del haz, denotamos al haz como $P(ACBD)$.
Teorema. 1 Sea $P(ACBD)$ un haz de rectas donde $A$, $C$, $B$, $D$, son colineales, considera $A’$, $B’$, $C’$, $D’$, las intersecciones de cualquier otra transversal al haz, entonces $(A, B; C, D) = (A’, B’; C’, D’)$.
Demostración. Aplicamos la ley de los senos a $\triangle PAC$, $\triangle PCB$, $\triangle PBD$ y $\triangle PAD$.
La última igualdad se debe a que $\angle CAP = \angle DAP$ y $\sin \angle PBC = \sin \angle DBP$, por ser $\angle PBC$ y $\angle DBP$ suplementarios.
Si hacemos el mismo procedimiento, esta vez con los puntos $A’$, $C’$, $B’$, $D’$, obtendremos el mismo resultado ya que $\angle APC = \angle A’PC’$, $\angle CPB = \angle C’PB’$, $\angle BPD = \angle B’PD’$ y $\angle APD = \angle A’PD’$.
Por lo tanto $(A, B; C, D) = (A’, B’; C’, D’)$.
$\blacksquare$
Definición 2. Dado un haz de rectas $P(ACBD)$, si $A$, $C$, $B$ y $D$ son colineales, definimos la razón cruzada $P(A, B; C, D)$ del haz como la razón cruzada $(A, B; C, D)$, de la hilera de puntos $ACBD$.
Si $P(A, B; C, D) = – 1$, decimos que el haz es armónico y que $PA$, $PB$ son rectasconjugadas armónicas respecto de $PC$ y $PD$ o que $PC$, $PD$ son conjugadas armónicas respecto de $PA$ y $PD$.
Ejemplo
Proposición 1. Las rectas que unen los excentros de un triángulo con los puntos medios de los lados del triángulo relativos a esos excentros son concurrentes.
Demostración. Sean $I_a$, $I_b$, $I_C$, los excentros de un triángulo $\triangle ABC$, $A’$, $B’$, $C’$ los puntos medio de $BC$, $CA$ y $AB$ respectivamente, consideremos $X = I_aA’ \cap I_bI_c$, $Y = I_bB’ \cap I_aI_c$, $Z = I_cC’ \cap I_aI_b$; $D = I_aA \cap BC$, $E = I_bB \cap CA$, $F = I_cC \cap AB$.
Figura 2
Consideremos los haces $I_a(CDA’B)$, $I_b(AB’EC)$, $I_c(BC’FA)$, por el teorema 1, tenemos lo siguiente: $(A’, D; B, C) = (X, A; I_c, I_b)$, $(B’, E; A, C) = (Y, B; I_c, I_a)$, $(C’, F; B, A) = (Z, C; I_a, I_b)$.
Como $AD$, $BE$, $CF$; $I_aA$, $I_bB$, $I_cC$, concurren en el incentro $I$ de $\triangle ABC$, aplicando el teorema de Ceva a los triángulos $\triangle ABC$ y $\triangle I_aI_bI_c$ tenemos:
Recordemos que $A’$, $B’$, $C’$ son los puntos medios de $BC$, $CA$ y $AB$, empleando segmentos dirigidos y tomando en cuenta lo anterior, si hacemos el producto del inverso de $(2)$ con $(3)$ y $(4)$, obtenemos:
Por el teorema de Ceva, $I_aX = I_aA’$, $I_bY = I_bB’$, $I_cZ = I_cC’$, son concurrentes.
$\blacksquare$
Haz armónico
Proposición 2. Una recta, paralela a alguna de las rectas de un haz, es dividida en dos segmentos iguales por las otras tres rectas del haz si y solo si el haz es armónico.
Demostración. Sean $P(ACBD)$ un haz de rectas con $A$, $C$, $B$, $D$, colineales en ese orden, $l$ paralela a $PA$, $C’ = l \cap PC$, $B’ = l \cap PB$, $D’ = l \cap PD$.
Figura 3
Aplicamos la ley de los senos a $\triangle C’PB’$ y $\triangle B’PD’$
Por lo tanto, $\dfrac{D’B’}{C’B’} = \dfrac{\sin \angle B’C’P}{\sin \angle C’PB’} \dfrac{\sin \angle B’PD’}{\sin \angle PD’B’}$.
Por la ecuación $(1)$ $(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$.
Como $PA \parallel C’B’D’$, entonces $\angle APC = \angle B’C’P$ y $\angle APD$, $\angle PD’B’$ son suplementarios, además $\angle CPB = \angle C’PB’$ y $\angle BPD = \angle B’PD’$.
Proposición 3. Si dos rectas conjugadas de un haz armónico son perpendiculares entonces son las bisectrices del ángulo formado por las otras dos rectas del haz.
Demostración. Sea $P(ACBD)$ un haz armónico, supongamos que $PA \perp PB$ (figura 3), sean $l$ una recta paralela a $PA$ y $C’$, $B’$, $D’$, las intersecciones de $l$ con $PC$, $PB$, $PD$ respectivamente.
Por la proposición anterior $C’B’ = B’D’$, como $PA \perp PB$ entonces $PB \perp C’D’$.
Por lo tanto, $\triangle PC’D’$ es isósceles y así, $PA$ y $PB$ son las bisectrices externa e interna de $\angle C’PD’$.
$\blacksquare$
Proposición 4. Si tenemos dos hileras armónicas $ACBD$ y $A’C’B’D’$ tales que $AA’$, $BB’$, $CC’$ concurren en un punto $P$ entonces $DD’$ también pasa por $P$.
Demostración. Sea $X = PD \cap A’C’B’D’$, por el teorema 1, $X$ es el conjugado armónico de $C’$ respecto de $A’B’$, por lo tanto $X = D’$.
$\blacksquare$
Cuadrilátero armónico
Teorema 2. Sean $\square ACBD$ un cuadrilátero cíclico, en ese orden cíclico, y $P$ un punto en su circuncírculo, entonces la razón cruzada del haz $P(ACBD)$ no depende de la posición de $P$.
Demostración. Sea $R$ el circunradio de $\square ABCD$, aplicamos la ley extendida de los senos a $\triangle APC$, $\triangle CPB$, $\triangle BPD$ y $\triangle APD$.
Definición 3. Definimos la razón cruzada de cuatro puntos cíclicos $A$, $B$, $C$, $D$, como $(A, B; C, D) = P(A, B; C, D)$, para cualquier punto $P$ en la misma circunferencia.
De manera equivalente, por el teorema 2, podemos definir $(A, B; C, D) = \dfrac{AC}{CB} \div \dfrac{AD}{DB}$, la cual tomamos como positiva si $AB$ y $CD$ no se intersecan dentro de la circunferencia y como negativa en caso contrario.
Si $(A, B; C, D) = – 1$, decimos que $\square ACBD$ es un cuadrilátero armónico.
Construcción del conjugado armónico en una circunferencia.
Proposición 5. Sean $\Gamma$ el circuncírculo de un triángulo $\triangle ABC$, $P$ la intersección de las tangentes a $\Gamma$ por $A$ y $C$, $D = PB \cap \Gamma$, $D \neq B$, entonces $\square ABCD$ es un cuadrilátero armónico.
Demostración.Como $\angle DBA = \angle DAP$ y $\angle CBD = \angle PCD$, por criterio de semejanza AA, $\triangle PBA \sim \triangle PAD$ y $\triangle PBC \sim \triangle PCD$, recordemos que las tangentes $PA$ y $PC$ son iguales.
Figura 5
Por lo tanto, $\dfrac{BA}{AD} = \dfrac{PB}{PA} = \dfrac{PB}{PC} = \dfrac{BC}{CD}$ $\Rightarrow \dfrac{AB}{BC} = \dfrac{AD}{DC}$.
De acuerdo a la definición 3, $\square ABCD$ es un cuadrilátero armónico.
Proposición 6. Sea $\square ABCD$ un cuadrilátero armónico, entonces $BD$ y las tangentes a $\Gamma$ el circuncírculo de $\square ABCD$, en $A$ y $C$ son concurrentes.
Sean $l_1$ tangente a $\Gamma$ en $A$, $P = l \cap BD$ y $E = AC \cap BD$, por el teorema 2, el haz $A(ABCD)$ es armónico, donde $AA = l_1$, por el teorema 1, $(P, E; D, B) = – 1$.
Análogamente, sea $l_2$ la tangente a $\Gamma$ en $C$ y $Q = l_2 \cap BD$ entonces el haz $C(CBAD)$ es armónico, por lo tanto $(Q, E; D, B) = – 1$.
Por lo tanto, $P = Q$.
$\blacksquare$
Ejemplo
Proposición 7. Sea $\Gamma$ el incírculo de un triángulo $\triangle ABC$, $X$, el punto de contacto de $\Gamma$ con $BC$, $D$ el pie de la altura por $A$ y $M$ el punto medio de $AD$, $N = XM \cap \Gamma$, $N \neq X$ entonces $XN$ es la bisectriz de $\angle BNC$.
Demostración. Sea $L$ el punto al infinito de la recta $AD$, entonces, $M$ y $L$ son conjugados armónicos respecto de $A$ y $D$.
Figura 6
Sea $X’$ el punto diametralmente opuesto a $X$, como $XX’ \parallel AD$, entonces $XX’ \cap AD = L$.
Por el teorema 1, el haz $X(DMAX’)$ es armónico, sea $U = XA \cap \Gamma$, $U \neq X$, entonces $\square XNUX’$ es un cuadrilátero armónico.
Sean $Y$, $Z$ los puntos de tangencia de $\Gamma$ con $CA$ y $AB$ respectivamente, por la proposición 5, $\square XYUZ$ es armónico.
Sea $P = ZY \cap BC$, como $BC$ es tangente a $\Gamma$ en $X$ entonces por la proposición 6, $PU$ es tangente a $\Gamma$.
Como $\square XNUX’$ es armónico, por la proposición 6, $PX$, $PU$, $X’N$ son concurrentes, es decir $X’$, $N$ y $P$ son colineales.
Ya que $XX’$ es diámetro de $\Gamma$, entonces $\angle X’NX = \dfrac{\pi}{2}$, es decir, $NX \perp NP$.
Sabemos que $AX$, $BY$, $CZ$ concurren en el punto de Gergonne $G_e$, entonces por el teorema 2 de la entrada anterior, $P = ZY \cap BC$ es el conjugado armónico de $X$ respecto de $BC$.
Ya que $NX \perp NP$, por el teorema 3 de la entrada anterior, $NX$ es la bisectriz interna de $\angle BNC$.
$\blacksquare$
Más adelante…
En la siguiente entrada hablaremos sobre las simedianas, estas son las reflexiones de la medianas de un triángulo respecto de las bisectrices que pasan por el mismo vértice, con la ayuda de haces armónicos estableceremos algunas propiedades de estas rectas.
Tarea moral
A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.
En un triángulo $\triangle ABC$, $D$, $E$, $F$, los pies de las alturas por $A$, $B$, $C$, respectivamente, $I_a$, $I_b$, $I_c$ los excentros opuestos a $A$, $B$, $C$ respectivamente, demuestra que $I_aD$, $I_bE$, $I_cF$ son concurrentes.
$i)$ Dadas tres rectas concurrentes $OA$, $OC$, $OB$, construye el conjugado armónico de $OC$ respecto de $OA$ y $OB$, $ii)$ Si $(A, B; C, D) = – 1$, $(A, B’; C’, D’) = – 1$, y $AB \neq AB’$, muestra que $BB’$, $CC’$, $DD’$ son concurrentes.
Sea $\square ABCD$ un cuadrilátero convexo, $E = AD \cap BC$, $F = AB \cap CD$, $G = AC \cap BD$, sea $O$ la proyección de $G$ en $FE$, muestra que $\angle AOB = \angle COD$.
Muestra que las rectas que unen un punto en una circunferencia con los extremos de un cuerda, dividen armónicamente al diámetro perpendicular a dicha cuerda.
En un triángulo $\triangle ABC$, $A’$ es el punto medio de $BC$, sea $\Gamma$ la circunferencia con diámetro $AA’$, considera $D = \Gamma \cap AB$, $E = \Gamma \cap CA$, $D \neq A \neq E$, y $P$ la intersección de las tangentes a $\Gamma$ en $D$ y $E$, muestra que $PB = PC$.
Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 159-166.
Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 149-161.
Aref, M. y Wernick, W., Problems and Solutions in Euclidean Geometry. New York: Dover, 2010, pp 178-186.
Agradecimientos
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»
En las dos entradas anteriores revisamos los conceptos esenciales para poder estudiar el plano fase del sistema de ecuaciones de primer orden homogéneas con coeficientes constantes $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Revisamos el campo vectorial asociado al sistema, que para los sistemas que estamos considerando se reduce al campo $\textbf{F}(x,y)=(ax+by, cx+dy)$. A cada $(x,y)$, el campo asocia un vector anclado en dicho punto, que además será tangente a las curvas solución. Si observamos el campo vectorial en el plano, entonces podemos darnos una idea aproximada de cómo se verían las curvas solución, y por tanto, el plano fase completo. Por otra parte estudiamos la estabilidad de los puntos de equilibrio, que son aquellos donde el campo vectorial se anula, es decir, cuando $\textbf{F}(x,y)=(0,0)$. De ellos depende el comportamiento del resto de las soluciones en el plano fase.
Con estos ingredientes, estamos listos para poder dibujar los planos fase de casi cualquier sistema de dos ecuaciones con coeficientes constantes. Como sabemos, la solución general a estos sistemas depende de los valores propios de la matriz asociada. Analizaremos el comportamiento de dichas soluciones, comenzando en esta entrada con el caso cuando los valores propios del sistema son reales distintos y no nulos. Después de cada análisis podremos hacer un dibujo esquemático de cómo se ven las soluciones en el plano fase.
¡Vamos a comenzar!
Plano fase para sistemas con valores propios reales distintos no nulos
En el primer video analizamos de manera general el comportamiento de las soluciones a sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando estos tienen valores propios reales distintos y no nulos. Dependiendo del signo de los valores propios será la forma del plano fase.
En el segundo video resolvemos un ejemplo por cada caso analizado en el video anterior.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.
Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Prueba que si el determinante de la matriz asociada es cero, entonces el sistema tiene al menos un valor propio $\lambda=0$.
Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Encuentra la solución general al sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 5 & -1 \\ 3 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Posteriormente grafica la curva correspondiente a la condición inicial $$\textbf{X}(0)=\begin{pmatrix} 2 \\ 1 \end{pmatrix}.$$
Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 2 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Relaciona cada sistema de ecuaciones con la imagen correspondiente a su plano fase:
$$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 3 & -2 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
$$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
$$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -1 & 1 \\ 0 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Campo vectorial. Elaboración propiaCampo vectorial. Elaboración propiaCampo vectorial. Elaboración propia
Más adelante
En esta entrada logramos dibujar el plano fase para sistemas cuyos valores propios son reales distintos y no nulos. El siguiente paso será considerar aquellos sistemas que tienen valores propios complejos. Nuevamente dividiremos el análisis en tres casos, dependiendo del signo de la parte real de los valores propios. Eso lo haremos en la siguiente entrada.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»
A continuación definiremos algunas de las operaciones que hay entre conjuntos como lo son la unión, intersección y diferencia. Retomaremos algunos axiomas como el de unión y el esquema de comprensión, para ver que estas operaciones definen nuevos conjuntos.
Unión
Recordemos la definición de la unión de dos conjuntos.
Definición. Si $A$ y $B$ son conjuntos, entonces definimos la unión de $A$ y $B$ como:
$A\cup B=\bigcup\set{A,B}$
o bien,
$A\cup B= \set{x: x\in A\ o\ x\in B}$.
Ejemplos.
Consideremos los conjuntos $A= \set{\emptyset}$ y $B= \set{\emptyset, \set{\emptyset}}$. Luego, $A\cup B=\bigcup\set{A,B} = \bigcup\set{\emptyset, \set{\emptyset, \set{\emptyset}}}=\set{\emptyset,\set{\emptyset}}=B$.
Ahora, consideremos $A=\set{\set{\emptyset}}$ y $B=\set{\set{\set{\emptyset}}}$. Tendremos que $A\cup B=\set{\set{\emptyset}}\cup \set{\set{\set{\emptyset}}}=\set{\set{\emptyset},\set{\set{\emptyset}}}$.
$\square$
Propiedades de la unión
Proposición. Para cualquier conjunto $A$ se tiene que $A\subseteq A\cup B$. Además, $A\cup B= B\cup A$.
Demostración.
Primero veamos que $A\subseteq A\cup B$. Supongamos que $x\in A$, entonces existe $A\in \set{A, B}$ tal que $x\in A$. Esto es, por definición de unión que $x\in \bigcup \set{A,B}=A\cup B$.
La unión es conmutativa
Para ver que $A\cup B=B\cup A$, notemos que $A\cup B=\bigcup\set{A,B}$ y $B\cup A=\bigcup \set{B, A}$. Sabemos que $\set{A, B}=\set{B, A}$ por axioma de extensión. Así, $A\cup B=B\cup A$.
$\square$
Intersección
Definición. Sean $A$ y $B$ conjuntos. La intersección de dos conjuntos estará definida como sigue:
$A\cap B=\set{x: x\in A\land x\in B}$.
La intersección de dos conjuntos nos permite obtener un conjunto cuyos elementos son aquellos que se encuentran en ambos conjuntos. En la imagen que proporcionamos arriba podemos ver que la intersección nos deja solamente a la manzana y la pera, pues están en ambos conjuntos y descarta al plátano y la naranja pues solo viven en el primer conjunto. Lo mismo hace con la fresa y la sandía que solo viven en el segundo conjunto.
Proposición. $A\cap B$ es un conjunto.
Demostración. Sean $A$ y $B$ conjuntos.
Definamos la propiedad «$P(x): x\in B$». Por el esquema de comprensión se tiene que
$\set{x\in A:x\in B}$
es un conjunto.
Luego, $\set{x\in A:x\in B}=A\cap B$. En efecto, $z\in A\cap B$ si y sólo si $z\in A$ y $z\in B$ si y sólo si $z\in \set{x\in A:x\in B}$.
Por lo tanto, $A\cap B$ es conjunto.
$\square$
Ejemplos.
Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\cap B=\emptyset$ esto último debido a que no existe ningún elemento $x$ tal que $x\in \set{\emptyset}$ y $x\in\set{\set{\emptyset}}$ al mismo tiempo. De ocurrir, tendriamos que $x=\emptyset$ y $x=\set{\emptyset}$ y por lo tanto, $\emptyset=\set{\emptyset}$ lo cual sabemos que no ocurre. Por lo tanto, $A\cap B=\emptyset$.
Sean $A=\set{\emptyset,\set{\emptyset}}$ y $B=\set{\emptyset}$ conjuntos. Notemos que en este ejemplo el único elemento que está tanto en el conjunto $A$ como en el conjunto $B$ es $x=\emptyset$. De este modo, $A\cap B=\set{\emptyset}$.
$\square$
También podemos definir intersecciones arbitrarias, no sólo de dos conjuntos.
Definición. Sea $A$ un conjunto no vacío, definimos a la intersección de $A$ como la colección:
$\set{x: \forall y\in A(x\in y)}$.
Ejemplo.
Sea $A=\set{\set{\emptyset}, \set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}$, tenemos que la intersección de $A$ es $\emptyset$. En efecto, esto pasa ya que no existe ningún elemento $x$ que pertenezca a todos los elementos de $A$.
$\square$
Ejemplo.
Sea $X=\set{A,B}$ con $A$ y $B$ conjuntos. Resulta que $\bigcap X= \bigcap \set{A, B}= A\cap B$. En efecto, $x\in \bigcap X$ si y sólo si para todo $y\in X$, $x\in y$ si y sólo si $x\in A$ y $x\in B$.
$\square$
El hecho de que la unión arbitraria es conjunto es resultado del axioma de la unión. No hay un axioma de la intersección, por lo que demostraremos que la intersección de un conjunto $A$ es un conjunto, siempre que $A$ no sea vacío.
Proposición. Para todo $A\not=\emptyset$, la intersección de $A$ es un conjunto.1
Demostración:
Sea $A$ conjunto no vacío, entonces $A$ tiene al menos un elemento. Sea $z\in A$, tenemos que $\set{x\in z: \forall y\in A(x\in y)}$ es conjunto por esquema de comprensión.
Resulta que $a\in \set{x\in z: \forall y\in A(x\in y)}$ si y sólo si $a\in y$ para todo $y\in A$. En efecto, si $a\in \set{x\in z: \forall y\in A(x\in y)}$, entonces $a\in z$ y $\forall y\in A$, $a\in y$. Entonces $a\in y$ para todo $y\in A$.
Ahora, si $a\in y$ para todo $y\in A$, en particular $a\in z$ pues $z\in A$. Por tanto, $a\in \set{x\in z: \forall y\in A(x\in y)}$.
$\square$
Si observamos, para realizar la demostración anterior usamos el hecho de que $A\not=\emptyset$, por lo que podríamos preguntarnos qué pasa si $A$ es vacío. Veremos esto con detalle en la siguiente entrada.
Ahora que hemos probado que la intersección de $A$ es un conjunto cuando $A$ es no vacío, le asignaremos una notación la cual estará dada por $\bigcap A$.
Propiedades de la intersección
Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:
$A\cap B\subseteq A$,
$A\cap A=A$,
$A\cap B=B\cap A$.
Demostración.
Sea $x\in A\cap B$. Veamos que $x\in A$. Como $x\in A\cap B$ tenemos por definición de intersección que $x\in A$ y $x\in B$. En particular, $x\in A$. Por lo tanto, $A\cap B\subseteq A$.
Tomemos $x\in A\cap A$. Veamos que $x\in A$. Que $x\in A\cap A$ es equivalente a decir que $x\in A$ y $x\in A$, lo cual pasa si y sólo si $x\in A$. Por lo tanto, $A\cap A=A$.
$A\cap B=B\cap A$ pues $x\in A\cap B$ arbitrario si y sólo si $x\in A$ y $x\in B$, si y sólo si $x\in B$ y $x\in A$, si y sólo si $x\in B\cap A$.
$\square$
Diferencia
Definición. Sean $A$ y $B$ conjuntos. La diferencia de $A$ con $B$ estará definida como sigue:
$A\setminus B=\set{x\in A: x\notin B}$.
Por esquema de comprensión $A\setminus B$ es conjunto.
La diferencia entre dos conjuntos nos permite obtener un conjunto cuyos elementos se encuentra en el primero pero no el segundo conjunto. En la imagen anterior podemos ver que la diferencia nos deja solamente al plátano y la naranja, pues el plátano y la naranja se encuentran en el primer conjunto, pero no en el segundo. La manzana y la pera no forma parte del conjunto final pues vive en ambos conjuntos. La fresa no es elemento de la diferencia pues ni siquiera es elemento del primer conjunto.
Ejemplos.
Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\setminus B=\set{\emptyset}$ pues el único elemento que cumple estar en $A$ y no pertenecer al conjunto $B$ es $\emptyset$.
Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:
$A\setminus \emptyset= A$,
$A\setminus A=\emptyset$,
$A\setminus B=A\setminus (A \cap B)$.
Demostración.
Sea $x\in A\setminus \emptyset$. Entonces $x\in A$ y $x\notin \emptyset$. En particular $x\in A$, por lo tanto $A\setminus \emptyset\subseteq A$. Luego, supongamos que $x\in A$. Como $x\notin \emptyset$ es verdadero para cualquier conjunto $x$, tenemos que $x\in A$ y $x\notin \emptyset$ es verdadero. Por lo tanto, $x\in A\setminus \emptyset$ y así $A\subseteq A\setminus \emptyset$. De lo anterior tenemos que $A=A\setminus \emptyset$.
Supongamos que $A\setminus A\not=\emptyset$, es decir, existe al menos un elemento $x\in A\setminus A$. Entonces $x\in A$ y $x\notin A$, lo cual no puede ocurrir. Dado que la contradicción provino de suponer que $A\setminus A\not=\emptyset$, concluimos que $A\setminus A=\emptyset$.
Veamos que $A\setminus B=A\setminus (A \cap B)$. $\subseteq$] Sea $x\in A\setminus B$, entonces $x\in A$ y $x\notin B$. Luego, como $x\notin B$ entonces $x\notin A$ o $x\notin B$ es verdadero. Lo que equivale a decir que $x\notin (A\cap B)$. Por lo tanto, $x\in A$ y $x\notin (A \cap B)$ y así, $A\setminus B\subseteq A\setminus(A\cap B)$. $\supseteq$] Sea $x\in A\setminus (A\cap B)$, entonces $x\in A$ y $x\notin (A\cap B)$. Lo que equivale a decir que $x\in A$ y ($x\notin A$ o $x\notin B$). Dado que $x\notin A$ no puede ocurrir pues $x\in A$, entonces $x\notin B$. Por lo tanto, $x\in A$ y $x\notin B$ y así, $A\setminus(A\cap B)\subseteq A\setminus B$. Por lo tanto, $A\setminus(A\cap B)= A\setminus B$.
$\square$
Proposición. $A\setminus B=\emptyset$ si y sólo si $A\subseteq B$.
Demostración.
Supongamos que $A\setminus B=\emptyset$ y supongamos que $A\nsubseteq B$ en busca de una contradicción. Como $A\nsubseteq B$, existe $x\in A$ tal que $x\notin B$, y por lo tanto, $x\in A\setminus B$, lo que contradice que $A\setminus B=\emptyset$. Por lo tanto, $A\subseteq B$.
Ahora, si $A\subseteq B$, entonces para cualquier $x\in A$, $x\in B$, por lo que no es posible que $A\setminus B$ sea no vacío.
$\square$
Tarea moral
Los siguientes ejercicios te servirán para poner en práctica los conocimientos que has adquirido en este sección, en la siguiente lista podrás probar las siguientes propiedades de la unión, intersección y diferencia de conjuntos:
Prueba que $A\cap \emptyset=\emptyset$ para todo conjunto $A$.
Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos: – $A\cup(B\cup C)=(A\cup B)\cup C$. – $A\cap (B\cap C)= (A\cap B)\cap C$.
Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos: – $A\cup (B\cap C)= (A\cup B)\cap(A\cup C)$, – $A\cap (B\cup C)= (A\cap B)\cup(A\cap C)$.
Si $A\subseteq C$ y $B\subseteq D$ entonces $A\cap B\subseteq C\cap D$.
Demuestra que $A\setminus B=A$ si y sólo si $A\cap B=\emptyset$.
Demuestra a partir de los axiomas que en efecto si $A$ es un conjunto no vacío, entonces $\cap A$ es conjunto.
Más adelante…
En la siguiente entrada retomaremos la definición de intersección de conjuntos y mencionaremos el axioma de buena fundación. Además abordaremos el tema de la colección de todos los conjuntos apoyados de este último axioma. Finalmente, veremos que la intersección del conjunto vacío resulta ser la colección de todos los conjuntos.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»
También puedes consultar la demostración de este resultado en: Amor, J. A., Teoría de Conjuntos para Estudiantes de Ciencias, México: Serv. Editoriales Fac. Ciencias, UNAM, 1997, p. 17. ↩︎
La matemática es la ciencia del orden y la medida, de bellas cadenas de razonamientos, todos sencillos y fáciles. – Descartes
Introducción
El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.
En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.
En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.
Vectores propios generalizados
De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial
En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es
Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).
Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.
Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es
No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.
El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.
Definición: Un vector $\mathbf{K} \neq \mathbf{0}$ se denomina vector propio generalizado de $\mathbf{A}$ si existe $\lambda \in \mathbb{R}$, tal que $(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0}$ para algún $m \in \mathbb{N}$.
El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial
Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.
A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Algoritmo para encontrar $n$ soluciones linealmente independientes
Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$ Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$ Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$ Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$ Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.
Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.
Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.
Ejemplo: Resolver el siguiente problema con valores iniciales.
Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.
Es sencillo notar que el polinomio característico es
$$P(\lambda) = (2 -\lambda )^{3}$$
y la ecuación característica es
$$(2 -\lambda )^{3} = 0$$
Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial
es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.
Pasemos al segundo punto del algoritmo.
Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir
De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que
Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.
Teorema de Cayley – Hamilton
En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es
Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.
Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.
Tarea moral
Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.
Resolver los siguientes sistemas lineales homogéneos.
Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.
En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.
Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»