Geometría Moderna I: Haz armónico

Por Rubén Alexander Ocampo Arellano

Introducción

Esta es una continuación de la entrada anterior donde vimos algunas propiedades de hileras armónicas de puntos, esta vez nos enfocaremos en propiedades de un haz armónico de rectas, que nos permitirán definir al cuadrilátero armónico.

Haz de rectas

Definición 1. Si cuatro rectas $PA$, $PC$, $PB$, $PD$ concurren en $P$, decimos que forman un haz de rectas y que $P$ es el vértice del haz, denotamos al haz como $P(ACBD)$.

Teorema. 1 Sea $P(ACBD)$ un haz de rectas donde $A$, $C$, $B$, $D$, son colineales, considera $A’$, $B’$, $C’$, $D’$, las intersecciones de cualquier otra transversal al haz, entonces $(A, B; C, D) = (A’, B’; C’, D’)$. 

Demostración. Aplicamos la ley de los senos a $\triangle PAC$, $\triangle PCB$, $\triangle PBD$ y $\triangle PAD$.

Figura 1

$\dfrac{AC}{\sin \angle APC} =\dfrac{PC}{\sin \angle CAP}$,

$\dfrac{CB}{\sin \angle CPB} =\dfrac{PC}{\sin \angle PBC}$,

$\dfrac{DB}{\sin \angle BPD} =\dfrac{PD}{\sin \angle DBP}$,

$\dfrac{AD}{\sin \angle APD} =\dfrac{PD}{\sin \angle DAP}$.

De lo anterior calculamos,
$(A, B; C, D) = \dfrac{AC}{CB} \dfrac{DB}{AD}$

$=\dfrac{\dfrac{\sin \angle APC}{\sin \angle CAP} \dfrac{\sin \angle BPD}{\sin \angle DBP}}{\dfrac{\sin \angle CPB}{\sin \angle PBC} \dfrac{\sin \angle APD}{\sin \angle DAP}}$
$\begin{equation} = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}. \end{equation}$

La última igualdad se debe a que $\angle CAP = \angle DAP$ y $\sin \angle PBC = \sin \angle DBP$, por ser $\angle PBC$ y $\angle DBP$ suplementarios.

Si hacemos el mismo procedimiento, esta vez con los puntos $A’$, $C’$, $B’$, $D’$, obtendremos el mismo resultado ya que $\angle APC = \angle A’PC’$, $\angle CPB = \angle C’PB’$, $\angle BPD = \angle B’PD’$ y $\angle APD = \angle A’PD’$.

Por lo tanto $(A, B; C, D) = (A’, B’; C’, D’)$. 

$\blacksquare$

Definición 2. Dado un haz de rectas $P(ACBD)$, si $A$, $C$, $B$ y $D$ son colineales, definimos la razón cruzada $P(A, B; C, D)$ del haz como la razón cruzada $(A, B; C, D)$, de la hilera de puntos $ACBD$.

Equivalentemente, por la ecuación $(1)$, podemos definir, $P(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$.

Si $P(A, B; C, D) = – 1$, decimos que el haz es armónico y que $PA$, $PB$ son rectas conjugadas armónicas respecto de $PC$ y $PD$ o que $PC$, $PD$ son conjugadas armónicas respecto de $PA$ y $PD$.

Ejemplo

Proposición 1. Las rectas que unen los excentros de un triángulo con los puntos medios de los lados del triángulo relativos a esos excentros son concurrentes.

Demostración. Sean $I_a$, $I_b$, $I_C$, los excentros de un triángulo $\triangle ABC$, $A’$, $B’$, $C’$ los puntos medio de $BC$, $CA$ y $AB$ respectivamente, consideremos $X = I_aA’ \cap I_bI_c$, $Y = I_bB’ \cap I_aI_c$, $Z = I_cC’ \cap I_aI_b$; $D = I_aA \cap BC$, $E = I_bB \cap CA$, $F = I_cC \cap AB$.

Figura 2

Consideremos los haces $I_a(CDA’B)$, $I_b(AB’EC)$, $I_c(BC’FA)$, por el teorema 1, tenemos lo siguiente:
$(A’, D; B, C) = (X, A; I_c, I_b)$,
$(B’, E; A, C) = (Y, B; I_c, I_a)$,
$(C’, F; B, A) = (Z, C; I_a, I_b)$.

Esto es,
$\begin{equation} \dfrac{A’B}{BD} \dfrac{CD}{A’C} = \dfrac{XI_c}{I_cA} \dfrac{I_bA}{XI_b}, \end{equation}$
$\begin{equation} \dfrac{B’A}{AE} \dfrac{CE}{B’C} = \dfrac{YI_c}{I_cB} \dfrac{I_aB}{YI_a}, \end{equation}$
$ \begin{equation} \dfrac{C’B}{BF} \dfrac{AF}{C’A} = \dfrac{ZI_a}{I_aC} \dfrac{I_bC}{ZI_b}. \end{equation}$

Como $AD$, $BE$, $CF$; $I_aA$, $I_bB$, $I_cC$, concurren en el incentro $I$ de $\triangle ABC$, aplicando el teorema de Ceva a los triángulos $\triangle ABC$ y $\triangle I_aI_bI_c$ tenemos:

$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} = 1$,
$\dfrac{I_aC}{CI_b} \dfrac{I_bA}{AI_c} \dfrac{I_cB}{BI_a} = 1$.

Recordemos que $A’$, $B’$, $C’$ son los puntos medios de $BC$, $CA$ y $AB$, empleando segmentos dirigidos y tomando en cuenta lo anterior, si hacemos el producto del inverso de $(2)$ con $(3)$ y $(4)$, obtenemos:

$\dfrac{I_aZ}{ZI_b} \dfrac{I_cX}{XI_b} \dfrac{I_cY}{YI_a} = 1$.

Por el teorema de Ceva, $I_aX = I_aA’$, $I_bY = I_bB’$, $I_cZ = I_cC’$, son concurrentes.

$\blacksquare$

Haz armónico

Proposición 2. Una recta, paralela a alguna de las rectas de un haz, es dividida en dos segmentos iguales por las otras tres rectas del haz si y solo si el haz es armónico.

Demostración. Sean $P(ACBD)$ un haz de rectas con $A$, $C$, $B$, $D$, colineales en ese orden, $l$ paralela a $PA$, $C’ = l \cap PC$, $B’ = l \cap PB$, $D’ = l \cap PD$.

Figura 3

Aplicamos la ley de los senos a $\triangle C’PB’$ y $\triangle B’PD’$

$\dfrac{C’B’}{\sin \angle C’PB’} =\dfrac{PB’}{\sin \angle B’C’P}$,
$\dfrac{D’B’}{\sin \angle B’PD’} =\dfrac{PB’}{\sin \angle PD’B’}$.

Por lo tanto,
$\dfrac{D’B’}{C’B’} = \dfrac{\sin \angle B’C’P}{\sin \angle C’PB’} \dfrac{\sin \angle B’PD’}{\sin \angle PD’B’}$.

Por la ecuación $(1)$
$(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$.

Como $PA \parallel C’B’D’$, entonces $\angle APC = \angle B’C’P$ y $\angle APD$, $\angle PD’B’$ son suplementarios, además $\angle CPB = \angle C’PB’$ y $\angle BPD = \angle B’PD’$.

Por lo tanto $(A, B; C, D) = \dfrac{D’B’}{C’B’}$.

Como resultado, $(A, B; C, D) = -1 \Leftrightarrow |D’B’| = |C’B’|$.

$\blacksquare$

Proposición 3. Si dos rectas conjugadas de un haz armónico son perpendiculares entonces son las bisectrices del ángulo formado por las otras dos rectas del haz.

Demostración. Sea $P(ACBD)$ un haz armónico, supongamos que $PA \perp PB$ (figura 3), sean $l$ una recta paralela a $PA$ y $C’$, $B’$, $D’$, las intersecciones de $l$ con $PC$, $PB$, $PD$ respectivamente.

Por la proposición anterior $C’B’ = B’D’$, como $PA \perp PB$ entonces $PB \perp C’D’$.

Por lo tanto, $\triangle PC’D’$ es isósceles y así, $PA$ y $PB$ son las bisectrices externa e interna de $\angle C’PD’$.

$\blacksquare$

Proposición 4. Si tenemos dos hileras armónicas $ACBD$ y $A’C’B’D’$ tales que $AA’$, $BB’$, $CC’$ concurren en un punto $P$ entonces $DD’$ también pasa por $P$.

Demostración. Sea $X = PD \cap A’C’B’D’$, por el teorema 1, $X$ es el conjugado armónico de $C’$ respecto de $A’B’$, por lo tanto $X = D’$.

$\blacksquare$

Cuadrilátero armónico

Teorema 2. Sean $\square ACBD$ un cuadrilátero cíclico, en ese orden cíclico, y $P$ un punto en su circuncírculo, entonces la razón cruzada del haz $P(ACBD)$ no depende de la posición de $P$.

Demostración. Sea $R$ el circunradio de $\square ABCD$, aplicamos la ley extendida de los senos a $\triangle APC$, $\triangle CPB$, $\triangle BPD$ y $\triangle APD$.

Figura 4

$\dfrac{AC}{\sin \angle APC} = \dfrac{CB}{\sin \angle CPB} = \dfrac{DB}{\sin \angle BPD}$
$= \dfrac{AD}{\sin \angle APD} = \dfrac{1}{2R}$.

Por lo tanto,
$P(A, B; C, D) = \dfrac{\sin \angle APC}{\sin \angle CPB} \dfrac{\sin \angle BPD}{\sin \angle APD}$
$= \dfrac{AC}{CB} \dfrac{DB}{AD}$.

$\blacksquare$

Definición 3. Definimos la razón cruzada de cuatro puntos cíclicos $A$, $B$, $C$, $D$, como $(A, B; C, D) = P(A, B; C, D)$, para cualquier punto $P$ en la misma circunferencia.

De manera equivalente, por el teorema 2, podemos definir $(A, B; C, D) = \dfrac{AC}{CB} \div \dfrac{AD}{DB}$, la cual tomamos como positiva si $AB$ y $CD$ no se intersecan dentro de la circunferencia y como negativa en caso contrario.

Si $(A, B; C, D) = – 1$, decimos que $\square ACBD$ es un cuadrilátero armónico.

Construcción del conjugado armónico en una circunferencia.

Proposición 5. Sean $\Gamma$ el circuncírculo de un triángulo $\triangle ABC$, $P$ la intersección de las tangentes a $\Gamma$ por $A$ y $C$, $D = PB \cap \Gamma$, $D \neq B$, entonces $\square ABCD$ es un cuadrilátero armónico.

Demostración. Como $\angle DBA = \angle DAP$ y $\angle CBD = \angle PCD$, por criterio de semejanza AA, $\triangle PBA \sim \triangle PAD$ y $\triangle PBC \sim \triangle PCD$, recordemos que las tangentes $PA$ y $PC$ son iguales.

Figura 5

Por lo tanto,
$\dfrac{BA}{AD} = \dfrac{PB}{PA} = \dfrac{PB}{PC} = \dfrac{BC}{CD}$
$\Rightarrow \dfrac{AB}{BC} = \dfrac{AD}{DC}$.

De acuerdo a la definición 3, $\square ABCD$ es un cuadrilátero armónico.

Proposición 6. Sea $\square ABCD$ un cuadrilátero armónico, entonces $BD$ y las tangentes a $\Gamma$ el circuncírculo de $\square ABCD$, en $A$ y $C$ son concurrentes.

Sean $l_1$ tangente a $\Gamma$ en $A$, $P = l \cap BD$ y $E = AC \cap BD$, por el teorema 2, el haz $A(ABCD)$ es armónico, donde $AA = l_1$, por el teorema 1, $(P, E; D, B) = – 1$.

Análogamente, sea $l_2$ la tangente a $\Gamma$ en $C$ y $Q = l_2 \cap BD$ entonces el haz $C(CBAD)$ es armónico, por lo tanto $(Q, E; D, B) = – 1$.

Por lo tanto, $P = Q$.

$\blacksquare$

Ejemplo

Proposición 7. Sea $\Gamma$ el incírculo de un triángulo $\triangle ABC$, $X$, el punto de contacto de $\Gamma$ con $BC$, $D$ el pie de la altura por $A$ y $M$ el punto medio de $AD$, $N = XM \cap \Gamma$, $N \neq X$ entonces $XN$ es la bisectriz de $\angle BNC$.

Demostración. Sea $L$ el punto al infinito de la recta $AD$, entonces, $M$ y $L$ son conjugados armónicos respecto de $A$ y $D$.

Figura 6

Sea $X’$ el punto diametralmente opuesto a $X$, como $XX’ \parallel AD$, entonces $XX’ \cap AD = L$.

Por el teorema 1, el haz $X(DMAX’)$ es armónico, sea $U = XA \cap \Gamma$, $U \neq X$, entonces $\square XNUX’$ es un cuadrilátero armónico.

Sean $Y$, $Z$ los puntos de tangencia de $\Gamma$ con $CA$ y $AB$ respectivamente, por la proposición 5, $\square XYUZ$ es armónico.

Sea $P = ZY \cap BC$, como $BC$ es tangente a $\Gamma$ en $X$ entonces por la proposición 6, $PU$ es tangente a $\Gamma$.

Como $\square XNUX’$ es armónico, por la proposición 6, $PX$, $PU$, $X’N$ son concurrentes, es decir $X’$, $N$ y $P$ son colineales.

Ya que $XX’$ es diámetro de $\Gamma$, entonces $\angle X’NX = \dfrac{\pi}{2}$, es decir, $NX \perp NP$.

Sabemos que $AX$, $BY$, $CZ$ concurren en el punto de Gergonne $G_e$, entonces por el teorema 2 de la entrada anterior, $P = ZY \cap BC$ es el conjugado armónico de $X$ respecto de $BC$.

Ya que $NX \perp NP$, por el teorema 3 de la entrada anterior, $NX$ es la bisectriz interna de $\angle BNC$.

$\blacksquare$

Más adelante…

En la siguiente entrada hablaremos sobre las simedianas, estas son las reflexiones de la medianas de un triángulo respecto de las bisectrices que pasan por el mismo vértice, con la ayuda de haces armónicos estableceremos algunas propiedades de estas rectas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. En un triángulo $\triangle ABC$, $D$, $E$, $F$, los pies de las alturas por $A$, $B$, $C$, respectivamente, $I_a$, $I_b$, $I_c$ los excentros opuestos a $A$, $B$, $C$ respectivamente, demuestra que $I_aD$, $I_bE$, $I_cF$ son concurrentes.
  2. $i)$ Dadas tres rectas concurrentes $OA$, $OC$, $OB$, construye el conjugado armónico de $OC$ respecto de $OA$ y $OB$,
    $ii)$ Si $(A, B; C, D) = – 1$, $(A, B’; C’, D’) = – 1$, y $AB \neq AB’$, muestra que $BB’$, $CC’$, $DD’$ son concurrentes.
  3. Sea $\square ABCD$ un cuadrilátero convexo, $E = AD \cap BC$, $F = AB \cap CD$, $G = AC \cap BD$, sea $O$ la proyección de $G$ en $FE$, muestra que $\angle AOB = \angle COD$.
  4. Muestra que las rectas que unen un punto en una circunferencia con los extremos de un cuerda, dividen armónicamente al diámetro perpendicular a dicha cuerda.
  5. En un triángulo $\triangle ABC$, $A’$ es el punto medio de $BC$, sea $\Gamma$ la circunferencia con diámetro $AA’$, considera $D = \Gamma \cap AB$, $E = \Gamma \cap CA$, $D \neq A \neq E$, y $P$ la intersección de las tangentes a $\Gamma$ en $D$ y $E$, muestra que $PB = PC$.

Entradas relacionadas

Fuentes

  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 159-166.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 149-161.
  • Aref, M. y Wernick, W., Problems and Solutions in Euclidean Geometry. New York: Dover, 2010, pp 178-186.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Plano fase para sistemas lineales con valores propios reales distintos no nulos

Por Eduardo Vera Rosales

Introducción

En las dos entradas anteriores revisamos los conceptos esenciales para poder estudiar el plano fase del sistema de ecuaciones de primer orden homogéneas con coeficientes constantes $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Revisamos el campo vectorial asociado al sistema, que para los sistemas que estamos considerando se reduce al campo $\textbf{F}(x,y)=(ax+by, cx+dy)$. A cada $(x,y)$, el campo asocia un vector anclado en dicho punto, que además será tangente a las curvas solución. Si observamos el campo vectorial en el plano, entonces podemos darnos una idea aproximada de cómo se verían las curvas solución, y por tanto, el plano fase completo. Por otra parte estudiamos la estabilidad de los puntos de equilibrio, que son aquellos donde el campo vectorial se anula, es decir, cuando $\textbf{F}(x,y)=(0,0)$. De ellos depende el comportamiento del resto de las soluciones en el plano fase.

Con estos ingredientes, estamos listos para poder dibujar los planos fase de casi cualquier sistema de dos ecuaciones con coeficientes constantes. Como sabemos, la solución general a estos sistemas depende de los valores propios de la matriz asociada. Analizaremos el comportamiento de dichas soluciones, comenzando en esta entrada con el caso cuando los valores propios del sistema son reales distintos y no nulos. Después de cada análisis podremos hacer un dibujo esquemático de cómo se ven las soluciones en el plano fase.

¡Vamos a comenzar!

Plano fase para sistemas con valores propios reales distintos no nulos

En el primer video analizamos de manera general el comportamiento de las soluciones a sistemas de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$ cuando estos tienen valores propios reales distintos y no nulos. Dependiendo del signo de los valores propios será la forma del plano fase.

En el segundo video resolvemos un ejemplo por cada caso analizado en el video anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Los campos vectoriales de las imágenes fueron realizados en el siguiente enlace.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Prueba que si el determinante de la matriz asociada es cero, entonces el sistema tiene al menos un valor propio $\lambda=0$.
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 4 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Encuentra la solución general al sistema y dibuja su plano fase: $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 5 & -1 \\ 3 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$ Posteriormente grafica la curva correspondiente a la condición inicial $$\textbf{X}(0)=\begin{pmatrix} 2 \\ 1 \end{pmatrix}.$$
  • Dibuja el plano fase del sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 1 & 1 \\ 2 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  • Relaciona cada sistema de ecuaciones con la imagen correspondiente a su plano fase:
  1. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 3 & -2 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  2. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 2 & 1 \\ 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
  3. $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} -1 & 1 \\ 0 & -2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}.$$
Campo vectorial valores propios reales uno
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales dos
Campo vectorial. Elaboración propia
Campo vectorial valores propios reales tres
Campo vectorial. Elaboración propia

Más adelante

En esta entrada logramos dibujar el plano fase para sistemas cuyos valores propios son reales distintos y no nulos. El siguiente paso será considerar aquellos sistemas que tienen valores propios complejos. Nuevamente dividiremos el análisis en tres casos, dependiendo del signo de la parte real de los valores propios. Eso lo haremos en la siguiente entrada.

¡No te la pierdas!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Introducción a funciones de varias variables

Por Miguel Ángel Rodríguez García

Introducción

Con esta sección acabamos el curso de Cálculo Diferencial e Integral II, por lo que daremos una breve introducción a funciones de varias variables ya que su siguiente curso de Cálculo Diferencial e Integral III se enfoca en varias variables. Comencemos definiendo una función en varias variables.

Funciones en varias variables

Definición: Una función $f:D\subset \mathbb{R}^{n}\mapsto \mathbb{R}^{m}$ es que a cada punto $X \space \epsilon \space D$ le corresponde un único punto $Y \space \epsilon \space \mathbb{R}^{n}$ lo cual se denota como $Y=f(X)$ y que llamaremos la imagen del punto $X$ mediante la función $f$.

Observemos que a $X$ se define como:

$$X=(x_{1}, x_{2}, x_{3}, …., x_{n})$$

y la función $f$:

$$f(X)=(f_{1}(x_{1}, x_{2}, …., x_{n}), f_{2}(x_{1}, x_{2}, …., x_{n}), …., f_{m}(x_{1}, x_{2}, …., x_{n}))$$

Donde cada $f_{i}$ con $i=1,….,m$ es la componente i-esima de la función $f$, asi:

$$f=(f_{1},…., f_{m})$$

Ejemplos

  • Sea $f:D\subset \mathbb{R}^{3}\mapsto \mathbb{R}^{2}$ definida como:

$$f(x,y,z)=(x^{2}+y^{2}+z^{2}, \frac{\sin(xy)}{x-y})$$

Donde $D={(x,y,z) \space\epsilon \space \mathbb{R}^{3}}$ con $\space x \neq y$. Las componentes de $f$ son:

$$f_{1}(x,y,z)=x^{2}+y^{2}+z^{2}\space \space \space \space \space \space \space f_{2}(x,y,z)=\frac{\sin(xy)}{x-y}$$

  • Sea $f:\mathbb{R}^{3}\mapsto \mathbb{R}^{3}$ definida como $f(x,y,z)=(x^{2}, y^{2}, x^{2}-z^{2})$ por lo que las componentes de $f$ son:

$$f_{1}(x,y,z)=x^{2}\space \space \space \space f_{2}(x,y,z)=y^{2} \space \space \space \space f_{3}(x,y,z)=x^{2}-z^{2}$$

El conjunto $\mathbb{R}^{n}$ tiene estructura de espacio vectorial si definimos las operaciones de suma y producto por escalares como sigue:

  • Dados $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}, Y=(y_{1}, ….., y_{n}) \space \epsilon \space \mathbb{R}^{n}$,

$$X+Y=(x_{1}, …., x_{n})+(y_{1}, …., y_{n})=(x_{1}+y_{1}, …., x_{n}+y_{n})$$.

  • Dados $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}, \lambda \space \epsilon \space \mathbb{R}^{n}$,

$$\lambda X=\lambda (x_{1}, …., x_{n})=(\lambda x_{1}, …., \lambda x_{n})$$.

Por eso mismo, a $X=(x_{1}, …., x_{n}) \space \epsilon \space \mathbb{R}^{n}$ se les denomina vectores.

Definición:

Si $m=1$ se dice que la función $f: D \subseteq \mathbb{R}^{n} \mapsto \mathbb{R}$ es una función real o campo escalar de n-variables.

Si $m>1$ se dice que la función $f: D \subseteq \mathbb{R}^{n} \mapsto \mathbb{R}^{m}$ es una función vectorial o un campo vectorial de n-variables y m-componentes.

Veamos la definición de una grafica en varias variables.

Definición: Sea $f: D \subset \mathbb{R}^{n} \mapsto \mathbb{R}$. Se define la gráfica de la función $f$ como:

$$Gr(f)={(x_{1}, …., x_{n},y) \space \epsilon \space \mathbb{R}^{n+1}: (x_{1}, …., x_{n}) \space \epsilon \space D, y=f(x_{1}, …., x_{n}) }$$

Cuando $n=1$ la representación de $f$ nos proporciona una curva en $\mathbb{R}^{2}$, en el caso cuando $n=2$ nos proporciona una superficie en $\mathbb{R}^{3}$.

Curvas de nivel

En general, para una función de dos variables no es facil graficarla por lo que tenemos que recurrir a otras tecnicas para graficar estas funciones, una tecnica se le conoce como curvas de nivel el cual consiste en que la función se igual a una constante.

$$f(x,y)=k$$

Donde $k$ es una constante.

Gráficamente lo que se esta haciendo es que a la grafica de la función $f(x,y)$ la estamos cortando en «rebanadas» para cada valor de $k$ distinta por lo que veremos para cada corte, una parte de la grafica de la función $f(x,y)$.

Veamos el siguiente ejemplo.

Figura 1: Función $f(x,y)$ cortada por dos planos.

De la figura $(1)$ tenemos la función de dos variables $f(x,y)=x^{2}+y^{2}$ que es el cono azul de la figura $1$, si le hacemos unos cortes por dos planos con valores $k=2$ y $k=4$ obtendremos que las curvas de nivel (viéndolos desde la perspectiva de arriba) se notan como circunferencias como se muestran en la figura $(2)$.

Figura 2: Curvas de nivel para los valores $k=2$ y $k=4$ a la función $f(x,y)$.

Análogamente a este método de graficar funciones de dos variables, para tres variables se puede hacer lo mismo el cual se le conoce como el método de curvas de superficies.

Otro concepto importante para esta introducción a varias variables es la topología, lo que es usual en una variable el concepto de una función dentro de un intervalo abierto, cerrado, propio o impropio, se extiende estos concepto para funciones de varias variables. Como esta sección es una pequeña introducción a funciones de varias variables no se verán estos conceptos pero si se recomienda tener un poco de noción de estos conceptos de topología.

Tarea moral

Los siguientes ejercicios no son para evaluación pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionado con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra el dominio y el rango de la función $f(x,y)=\sqrt{9-x^{2}-y^{2}}$
  2. Sea la función $f(x,y)=x^{2}+3y^{2}$, hallas las curva de nivel con $k=1,2 \space y \space 3$
  3. Obtén la grafica de la función $z=x^{2}-y^{2}$
  4. Hallar las superficies de nivel de la función $f(x,y,z)=x^{2}+y^{2}-z^{2}$ con $k=0$ y $k=-1$

Más adelante…

En esta entrada vimos una introducción a las funciones de varias variables como paso para estudiar estas funciones de varias variables con mas detenimiento en el curso de Cálculo Diferencial e Integral III, así como se estudio las funciones de una variable.

Con esta entrada concluimos el curso de Cálculo Diferencial e Integral II.

Entradas relacionadas

Teoría de los Conjuntos I: Operaciones entre conjuntos

Por Gabriela Hernández Aguilar

Introducción

A continuación definiremos algunas de las operaciones que hay entre conjuntos como lo son la unión, intersección y diferencia. Retomaremos algunos axiomas como el de unión y el esquema de comprensión, para ver que estas operaciones definen nuevos conjuntos.

Unión

Recordemos la definición de la unión de dos conjuntos.

Definición. Si $A$ y $B$ son conjuntos, entonces definimos la unión de $A$ y $B$ como:


$A\cup B=\bigcup\set{A,B}$

o bien,

$A\cup B= \set{x: x\in A\ o\ x\in B}$.

Ejemplos.

  1. Consideremos los conjuntos $A= \set{\emptyset}$ y $B= \set{\emptyset, \set{\emptyset}}$. Luego, $A\cup B=\bigcup\set{A,B} = \bigcup\set{\emptyset, \set{\emptyset, \set{\emptyset}}}=\set{\emptyset,\set{\emptyset}}=B$.
  2. Ahora, consideremos $A=\set{\set{\emptyset}}$ y $B=\set{\set{\set{\emptyset}}}$. Tendremos que $A\cup B=\set{\set{\emptyset}}\cup \set{\set{\set{\emptyset}}}=\set{\set{\emptyset},\set{\set{\emptyset}}}$.

$\square$

Propiedades de la unión

Proposición. Para cualquier conjunto $A$ se tiene que $A\subseteq A\cup B$. Además, $A\cup B= B\cup A$.

Demostración.
Primero veamos que $A\subseteq A\cup B$. Supongamos que $x\in A$, entonces existe $A\in \set{A, B}$ tal que $x\in A$. Esto es, por definición de unión que $x\in \bigcup \set{A,B}=A\cup B$.

La unión es conmutativa

Para ver que $A\cup B=B\cup A$, notemos que $A\cup B=\bigcup\set{A,B}$ y $B\cup A=\bigcup \set{B, A}$. Sabemos que $\set{A, B}=\set{B, A}$ por axioma de extensión. Así, $A\cup B=B\cup A$.

$\square$

Intersección

Definición. Sean $A$ y $B$ conjuntos. La intersección de dos conjuntos estará definida como sigue:

$A\cap B=\set{x: x\in A\land x\in B}$.

La intersección de dos conjuntos nos permite obtener un conjunto cuyos elementos son aquellos que se encuentran en ambos conjuntos. En la imagen que proporcionamos arriba podemos ver que la intersección nos deja solamente a la manzana y la pera, pues están en ambos conjuntos y descarta al plátano y la naranja pues solo viven en el primer conjunto. Lo mismo hace con la fresa y la sandía que solo viven en el segundo conjunto.

Proposición. Se tiene que $A\cap B$ es un conjunto.

Demostración. Sean $A$ y $B$ conjuntos.

Definamos la propiedad $P(x): x\in B$. Por el esquema de comprensión se tiene que

$\set{x\in A:x\in B}$

es un conjunto.

Luego, $\set{x\in A:x\in B}=A\cap B$. En efecto, $z\in A\cap B$ si y sólo si $z\in A$ y $z\in B$ si y sólo si $z\in \set{x\in A:x\in B}$.

Por lo tanto, $A\cap B$ es conjunto.

$\square$

Ejemplos.

  1. Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\cap B=\emptyset$ esto último debido a que no existe ningún elemento $x$ tal que $x\in \set{\emptyset}$ y $x\in\set{\set{\emptyset}}$ al mismo tiempo. De ocurrir, tendriamos que $x=\emptyset$ y $x=\set{\emptyset}$ y por lo tanto, $\emptyset=\set{\emptyset}$ lo cual sabemos que no ocurre. Por lo tanto, $A\cap B=\emptyset$.
  2. Sean $A=\set{\emptyset,\set{\emptyset}}$ y $B=\set{\emptyset}$ conjuntos. Notemos que en este ejemplo el único elemento que está tanto en el conjunto $A$ como en el conjunto $B$ es $x=\emptyset$. De este modo, $A\cap B=\set{\emptyset}$.

$\square$

También podemos definir intersecciones arbitrarias, no sólo de dos conjuntos.

Definición. Sea $A$ un conjunto no vacío, definimos a la intersección de $A$ como la colección:

$\set{x: \forall y\in A(x\in y)}$.

Ejemplo.

Sea $A=\set{\set{\emptyset}, \set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}$, tenemos que la intersección de $A$ es $\emptyset$. En efecto, esto pasa ya que no existe ningún elemento $x$ que pertenezca a todos los elementos de $A$.

$\square$

El hecho de que la unión arbitraria es conjunto es resultado del axioma de la unión. No hay un axioma de la intersección, por lo que demostraremos que la intersección de un conjunto $A$ es un conjunto, siempre que $A$ no sea vacío.

Proposición. Para todo $A\not=\emptyset$, la intersección de $A$ es un conjunto.

Demostración:

Sea $A$ conjunto no vacío, entonces $A$ tiene al menos un elemento. Sea $z\in A$, tenemos que $\set{x\in z: \forall y\in A(x\in y)}$ es conjunto por esquema de comprensión.

Resulta que $a\in \set{x\in z: \forall y\in A(x\in y)}$ si y sólo si $a\in y$ para todo $y\in A$. En efecto, si $a\in \set{x\in z: \forall y\in A(x\in y)}$, entonces $a\in z$ y $\forall y\in A$, $a\in y$. Entonces $a\in y$ para todo $y\in A$.

Ahora, si $a\in y$ para todo $y\in A$, en particular $a\in z$ pues $z\in A$. Por tanto, $a\in \set{x\in z: \forall y\in A(x\in y)}$.

$\square$

Si observamos, para realizar la demostración anterior usamos el hecho de que $A\not=\emptyset$, por lo que podríamos preguntarnos qué pasa si $A$ es vacío. Veremos esto con detalle en la siguiente entrada.

Ahora que hemos probado que la intersección de $A$ es un conjunto cuando $A$ es no vacío, le asignaremos una notación la cual estará dada por $\bigcap A$.

Propiedades de la intersección

Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:

  1. $A\cap B\subseteq A$,
  2. $A\cap A=A$,
  3. $A\cap B=B\cap A$.

Demostración.

  1. Sea $x\in A\cap B$. Veamos que $x\in A$.
    Como $x\in A\cap B$ tenemos por definición de intersección que $x\in A$ y $x\in B$. En particular, $x\in A$. Por lo tanto, $A\cap B\subseteq A$.
  2. Tomemos $x\in A\cap A$. Veamos que $x\in A$.
    Que $x\in A\cap A$ es equivalente a decir que $x\in A$ y $x\in A$, lo cual pasa si y sólo si $x\in A$. Por lo tanto, $A\cap A=A$.
  3. $A\cap B=B\cap A$ pues $x\in A\cap B$ arbitrario si y sólo si $x\in A$ y $x\in B$, si y sólo si $x\in B$ y $x\in A$, si y sólo si $x\in B\cap A$.

$\square$

Diferencia

Definición. Sean $A$ y $B$ conjuntos. La diferencia de $A$ con $B$ estará definida como sigue:

$A\setminus B=\set{x\in A: x\notin B}$.

Por esquema de comprensión $A\setminus B$ es conjunto.

La diferencia entre dos conjuntos nos permite obtener un conjunto cuyos elementos se encuentra en el primero pero no el segundo conjunto. En la imagen anterior podemos ver que la diferencia nos deja solamente al plátano y la naranja, pues el plátano y la naranja se encuentran en el primer conjunto, pero no en el segundo. La manzana y la pera no forma parte del conjunto final pues vive en ambos conjuntos. La fresa no es elemento de la diferencia pues ni siquiera es elemento del primer conjunto.

Ejemplos.

  1. Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\setminus B=\set{\emptyset}$ pues el único elemento que cumple estar en $A$ y no pertenecer al conjunto $B$ es $\emptyset$.
  2. Sea $A=\set{\emptyset, \set{\emptyset}}$ y $B=\set{\emptyset}$. Luego,
    $A\setminus B=\set{x\in A:x\notin B}=\set{x\in \set{\emptyset, \set{\emptyset}}: x\notin\set{\emptyset}}= \{\set{\emptyset}\}$.

Propiedades de la diferencia

Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:

  1. $A\setminus \emptyset= A$,
  2. $A\setminus A=\emptyset$,
  3. $A\setminus B=A\setminus (A \cap B)$.

Demostración.

  1. Sea $x\in A\setminus \emptyset$. Entonces $x\in A$ y $x\notin \emptyset$. En particular $x\in A$, por lo tanto $A\setminus \emptyset\subseteq A$.
    Luego, supongamos que $x\in A$. Como $x\notin \emptyset$ es verdadero para cualquier conjunto $x$, tenemos que $x\in A$ y $x\notin \emptyset$ es verdadero. Por lo tanto, $x\in A\setminus \emptyset$ y así $A\subseteq A\setminus \emptyset$.
    De lo anterior tenemos que $A=A\setminus \emptyset$.
  2. Supongamos que $A\setminus A\not=\emptyset$, es decir, existe al menos un elemento $x\in A\setminus A$. Entonces $x\in A$ y $x\notin A$, lo cual no puede ocurrir. Dado que la contradicción provino de suponer que $A\setminus A\not=\emptyset$, concluimos que $A\setminus A=\emptyset$.
  3. Veamos que $A\setminus B=A\setminus (A \cap B)$.
    $\subseteq$] Sea $x\in A\setminus B$, entonces $x\in A$ y $x\notin B$. Luego, como $x\notin B$ entonces $x\notin A$ o $x\notin B$ es verdadero. Lo que equivale a decir que $x\notin (A\cap B)$. Por lo tanto, $x\in A$ y $x\notin (A \cap B)$ y así, $A\setminus B\subseteq A\setminus(A\cap B)$.
    $\supseteq$] Sea $x\in A\setminus (A\cap B)$, entonces $x\in A$ y $x\notin (A\cap B)$. Lo que equivale a decir que $x\in A$ y ($x\notin A$ o $x\notin B$). Dado que $x\notin A$ no puede ocurrir pues $x\in A$, entonces $x\notin B$. Por lo tanto, $x\in A$ y $x\notin B$ y así, $A\setminus(A\cap B)\subseteq A\setminus B$.
    Por lo tanto, $A\setminus(A\cap B)= A\setminus B$.

$\square$

Tarea moral

Los siguientes ejercicios te servirán para poner en práctica los conocimientos que has adquirido en este sección, en la siguiente lista podrás probar las siguientes propiedades de la unión, intersección y diferencia de conjuntos:

Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos, $A\cup(B\cup C)=(A\cup B)\cup C$.

$A\cap (B\cap C)= (A\cap B)\cap C$.

Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos:
– $A\cup (B\cap C)= (A\cup B)\cap(A\cup C)$,
– $A\cap (B\cup C)= (A\cap B)\cup(A\cap C)$.

Si $A\subseteq C$ y $B\subseteq C$ entonces $A\cap B\subseteq C\cap D$.

Demuestra que $A\setminus B=A$ si y sólo si $A\cap B=\emptyset$.

Demuestra a partir de los axiomas que en efecto si $A$ es un conjunto no vacío, entonces $\cap A$ es conjunto.

Más adelante…

En la siguiente entrada retomaremos la definición de intersección de conjuntos y mencionaremos el axioma de buena fundación. Además abordaremos el tema de la colección de todos los conjuntos apoyados de este último axioma. Finalmente, veremos que la intersección del conjunto vacío resulta ser la colección de todos los conjuntos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»