Archivo de la categoría: Sin clasificar

Ecuaciones Diferenciales I – Videos: Método de eliminación de variables

Introducción

En la entrada anterior revisamos las principales propiedades que satisface el conjunto de soluciones a un sistema lineal de ecuaciones de primer orden de la forma $$\dot{\textbf{X}}=\textbf{A}\textbf{X}+\textbf{Q}.$$ En particular vimos que el conjunto de soluciones al sistema homogéneo forma un espacio vectorial con la suma y producto por escalar usuales de matrices. Gracias a esta propiedad logramos encontrar la solución general a dichos sistemas, tanto homogéneos como no homogéneos.

Con esto en mente, podemos comenzar a resolver algunos sistemas lineales. Los más sencillos son los sistemas con coeficientes constantes, es decir, sistemas donde la matriz $\textbf{A}$ es una matriz conformada por constantes. En esta entrada revisaremos el método más sencillo disponible para resolver dichos sistemas, que será el de eliminación de variables.

El método de eliminación de variables consiste, como su nombre lo indica, en tratar de eliminar las variables dependientes $x_{i}(t)$ hasta quedarnos únicamente con una de ellas dentro de una ecuación diferencial de orden superior con coeficientes constantes. Para eliminar las variables utilizaremos la linealidad del sistema, por lo que podremos realizar operaciones elementales entre las ecuaciones del sistema, es decir, podremos sumar ecuaciones y multiplicar por escalares.

Una vez que llegamos a la ecuación diferencial de orden superior con coeficientes constantes, debemos resolverla para encontrar la función $x_{i}(t)$ con la que nos quedamos. Con esta función conocida, podremos ir encontrando las demás funciones que resuelven el problema. Además, como $x_{i}(t)$ es solución general a la ecuación diferencial de orden superior, entonces todas las soluciones involucrarán constantes arbitrarias $c_{1}, c_{2},…,c_{n}$. Por lo tanto, $$\textbf{X}=\begin{pmatrix} x_{1}(t) \\ x_{2}(t) \\ \vdots \notag \\ x_{n}(t) \end{pmatrix}$$ será la solución general al sistema.

Antes de comenzar debemos advertir que, dado que el método depende de la resolución de una ecuación diferencial de orden superior, no es conveniente utilizarlo para resolver sistemas de más de tres ecuaciones diferenciales.

Método de eliminación de variables

En el primer video resolvemos de forma general el sistema lineal de dos ecuaciones diferenciales con coeficientes constantes por el método de eliminación de variables. Luego, en el segundo video utilizamos el método desarrollado en el primer video para resolver un par de ejemplos.

Tarea moral

Resuelve los siguientes sistemas de ecuaciones:

  • $\begin{alignedat}{4} \dot{x} &= 7x+3y \\ \dot{y} &= 2x-y \end{alignedat}$
  • $\begin{alignedat}{4} \dot{x} &= x-5y \\ \dot{y} &= y \end{alignedat}$

Resuelve los siguientes problemas de condición inicial:

  • $\begin{alignedat}{4} \dot{x} &= 2x+10y \\ \dot{y} &= -x-y \end{alignedat} \, \, \, \, \, \, \, \, \, \, ; \begin{alignedat}{4} x(0) &= 0 \\ y(0) &= 1 \end{alignedat}.$
  • $\begin{alignedat}{4} \dot{x} &= 3x-4y+e^{t} \\ \dot{y} &= x-y-e^{t} \end{alignedat} \, \, \, \, \, \, \, \, \, \, ; \begin{alignedat}{4} x(0) &= 1 \\ y(0) &= -1 \end{alignedat}.$

Resuelve el siguiente sistema de tres ecuaciones (recuerda que aunque no resolvimos ecuaciones diferenciales de tercer orden, los métodos que desarrollamos para ecuaciones de segundo orden se pueden extender a ecuaciones de orden superior):

  • $\begin{alignedat}{4} \dot{x} &= 2x+y+z \\ \dot{y} &= x-y-z \\ \dot{z} &= 3x+y-2z \end{alignedat}$

Más adelante

Ya hemos resuelto algunos sistemas lineales con coeficientes constantes, aunque su solución dependió de nuestros conocimientos acerca de las ecuaciones de orden superior con coeficientes constantes. Necesitamos nuevas herramientas para poder resolver los mismos sistemas sin tener que resolver una ecuación de orden superior.

En la próxima entrada hablaremos de la exponencial de una matriz, veremos cómo definir este nuevo término y por supuesto estudiaremos sus principales propiedades. La exponencial de una matriz estará fuertemente relacionada con la forma como resolveremos más adelante los sistemas lineales con coeficientes constantes.

Hasta la próxima entrada!

Notas relacionadas

Ecuaciones Diferenciales I – Videos: Introducción a sistemas de ecuaciones de primer orden

Introducción

Bienvenidos a la tercera unidad del curso de Ecuaciones diferenciales ordinarias, donde estudiaremos sistemas de ecuaciones diferenciales lineales de primer orden.

Un sistema de ecuaciones es una familia de ecuaciones diferenciales de la forma $$\begin{alignedat}{4} \dot{x_{1}} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x_{2}} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x_{n}} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ donde $t$ es la variable independiente, cada $x_{i}$ es una variable dependiente de $t$ y cada $F_{i}$ es una función que depende de las $n+1$ variables.

Los sistemas de ecuaciones aparecen con frecuencia en problemas de física o biología, en los que el fenómeno en cuestión involucra más de una variable. Estas variables interactúan entre sí, por lo que la razón de cambio de éstas depende tanto del tiempo como de las variables restantes.

Vamos a estudiar propiedades que cumple el conjunto de soluciones a un sistema lineal homogéneo, y posteriormente resolveremos estos sistemas desde un punto de vista matricial, por lo que tus conocimientos de Álgebra lineal serán de utilidad.

En esta entrada definiremos lo que es un sistema de ecuaciones de primer orden, así como también una solución. Hablaremos del problema de condición inicial y enunciaremos el teorema de existencia y unicidad, el cual es la base para desarrollar toda la teoría alrededor de los sistemas lineales. Escribiremos el sistema de ecuaciones en forma matricial, y finalizaremos haciendo un cambio de variable para transformar una ecuación de orden $n\geq 2$ en un sistema de $n$ ecuaciones diferenciales de primer orden. Con esta transformación podremos encontrar soluciones a ecuaciones de cualquier orden resolviendo su sistema de ecuaciones asociado.

Como te habrás dado cuenta en el sistema de ecuaciones escrito al inicio, para denotar a la derivada de una función utilizaremos la siguiente notación: $$\dot{y}=y’=\frac{dy}{dt}.$$

Además, denotaremos por $x_{1}, x_{2},…,x_{n}$ a las variables dependientes de $t$. Para los sistemas de dos o tres ecuaciones diferenciales denotaremos $x$, $y$, $z$ a las variables dependientes de $t$, salvo que esta notación cause confusión.

Vamos a comenzar.

Sistemas de ecuaciones de primer orden y ejemplos

En el primer video de esta entrada damos las definiciones de un sistema de ecuaciones diferenciales de primer orden, una solución al sistema, diremos cuándo el sistema es lineal, no lineal, homogéneo o no homogéneo. Finalizamos dando dos ejemplos de problemas donde aparecen sistemas de ecuaciones de primer orden.

Problema de condición inicial y el teorema de existencia y unicidad

En el segundo video hablamos un poco de los problemas de condición inicial y enunciamos el teorema de existencia y unicidad para sistemas de ecuaciones de primer orden, tanto la versión general como la versión para sistemas lineales homogéneos. Mas adelante daremos una demostración de la segunda versión.

Sistemas de ecuaciones en forma matricial y transformación de una ecuación de orden superior en un sistema de ecuaciones de primer orden

En el último video, damos la notación matricial para los sistemas de ecuaciones de primer orden. Además transformamos una ecuación de orden $n\geq 2$ en un sistema de $n$ ecuaciones diferenciales, haciendo un sencillo cambio de variable.

Tarea moral

  • Transforma las ecuaciones $a\ddot{y}+b\dot{y}+cy=0$ y $a\dddot{y}+b\ddot{y}+c\dot{y}+dy=0$, donde $a$,$b$,$c$,$d$ son constantes y $a\neq0$ en sistemas de ecuaciones de primer orden, y escribe el sistema en forma matricial.
  • Transforma la ecuación diferencial no lineal $$\ddot{y}+\cos{y}=t$$ en un sistema de ecuaciones de primer orden.
  • Considera la ecuación $$a\ddot{y}+b\dot{y}+cy=0.$$ Prueba que si $$\textbf{X}=\begin{pmatrix} x_{1}(t) \\ x_{2}(t) \end{pmatrix}$$ es solución al sistema de ecuaciones $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -\frac{c}{a} & -\frac{b}{a} \end{pmatrix} \textbf{X}$$ entonces $y(t)=x_{1}(t)$ es solución a la ecuación diferencial.
  • Prueba que si $y(t)$ es solución a la ecuación diferencial $$a\ddot{y}+b\dot{y}+cy=0$$ entonces $$\textbf{X}=\begin{pmatrix} y(t) \\ \dot{y}(t) \end{pmatrix}$$ es solución al sistema de ecuaciones $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 \\ -\frac{c}{a} & -\frac{b}{a} \end{pmatrix} \textbf{X}.$$

Más adelante

Una vez que hemos establecido las definiciones básicas, la notación y el teorema de existencia y unicidad, vamos a estudiar propiedades que cumple el conjunto de soluciones a un sistema lineal de ecuaciones. Estas propiedades son en su mayoría, análogas a las que enunciamos y probamos para ecuaciones diferenciales de segundo orden, por lo que será fácil abordarlas.

Hasta la próxima!

Entradas relacionadas

Álgebra Moderna I: Teoremas sobre subgrupos y Subgrupo generado por $ X $

Introducción

Ya vimos qué es un subgrupo cíclico generado por $\left<a\right>$. Ahora nos preguntamos si, teniendo $G$ cíclico y tomando cualquier subrgrupo $H \subset G$ ¿será cierto que $H$ también es cíclico?

Ilustremos esto con un ejemplo. Consideremos $\z$ con la suma, en este caso $\z = \left<1\right>$,

$\dots, -3, -2, -1, 0, 1, 2, 3, \dots$.

Entre posibles subgrupos podemos encontrar:

$\dots, -6, -4, -2, 0, 2, 4, 6, \dots$
$\dots, -9, -6, -3, 0, 3, 6, 9, \dots$

es decir $\left<2\right>$ y $\left<3\right>$ respectivamente. Pero también podemos observar que tanto $2$ como $3$ son la mínima potencia de $1$ que aparece en sus respectivos generados. Es decir, aunque el $1$ no esté en un subgrupo cíclico de $\z$, el subgrupo será generado por la mínima potencia de $1$ que sí sea elemento del subgrupo. En esta entrada, comenzaremos probando este resultado.

En la segunda parte de esta entrada regresaremos a nuestra problemática inicial. Si tenemos un subconjunto $X \subset G$, con $G$ un grupo, ¿cuál es el mínimo subgrupo $H \in G$ tal que $X \subset H$?

Podemos estar de acuerdo en que es posible que $X$ esté contenido en más de un subgrupo, en general estará contenido por una familia se subgrupos de $G$. A estos subgrupos los denotaremos como $H_i$ con $i \in \{1, \dots, n\}$. Entonces el mínimo subgrupo de $G$ que contenga a $X$ será la intersección de esta familia, porque sabemos que $\displaystyle X \subset \bigcap_{i \in \{1, \dots, n\}}H_i$. Esto será lo que desarrollaremos en la segunda parte de la entrada.

Los subgrupos de un grupo cíclico, es cíclico.

Teorema. Todo subgrupo de un grupo cíclico, es cíclico.

Demostración.
Sea $G$ un grupo cíclico, $H \leq G$.
Como $G$ es cíclico, entonces $G = \left< a \right>$ para algún $a \in G$.

Para ver que $H$ es cíclico tenemos que proponer un generador de $H$, este generador tiene que ser una potencia de $a$, porque $H \subset G$ y $G$ es cíclico. Por lo que dijimos en la introducción, agarraremos la menor potencia de $a$ que esté en $H$. Pero, para ello, tenemos que asegurarnos de que existen potencias positivas de $a$. Así, manejaremos dos casos.

Si $H = \{e\} = \left< e \right>$ que es cíclico.

Si $H \neq \{e\}$, sea $h \in H\setminus\{e\}$. Entonces como $H \leq G$, $h \in G = \left<a\right>$. Así $h = a^k$ para algún $k \in \z$ y como $h \neq e$ entonces $k \neq 0$.

Tenemos que $h^{-1} = a^{-k} \in H$ pues $H$ es subgrupo.

Así $a^k$, $a^{-k} \in H$ (con $k \in \z \setminus\{0\}$), entonces no importa si $k$ es positivo o negativo, siempre habrá $a$ elevado a algo positivo, es decir,

$\{n \in \z^+ | a^n \in H\} \neq \emptyset$.

Sea $m = \text{mín } \{n \in \z^+|a^n\in H\}$.
P.D. $H = \left< a^m \right>$

$\supseteq]$
Por la elección de $m$, $a^m \in H$ y entonces $\left< a^m \right> \subseteq H$.

$\subseteq]$
Sea $h \in H$. Como $H \leq G = \left<a\right>$, entonces $h = a^k$ para algún $k \in \z$.

Por el algoritmo de la división existen $q,r \in \z$ tales que $k = mq+r$ con $0 \leq r < m$.
Entonces $h = a^k = a^{mq+r} = (a^m)^q a^r$
$(a^m)^{-q}h = a^r$

Pero $a^m \in H$, $h \in H$ y $H$ es subgrupo, entonces $a^r = (a^m)^{-q}h \in H$ con $0 \leq r < m$. Para no contradecir la elección de $m$ concluimos que $r=0$.

Así $h = a^{mq} = (a^m)^q \in \left< a^m \right>$.
Por lo tanto $H = \left< a^m \right>$ y $H$ es cíclico.

$\square$

El mínimo subgrupo que contiene a cualquier subconjunto $X$

Teorema. La intersección de una familia no vacía de subgrupos de un grupo $G$ es un subgrupo de $G$.

Cuando decimos familia no vacía nos referimos a que haya al menos un grupo a intersecar. Es una condición que se pide para que a nivel conjuntista no hayaproblemas con la intersección.

Demostración.
Sea $G$ un grupo y $\{H_i | i \in I\}$ una familia de subgrupos de $G$.
P.D. $\displaystyle \bigcap_{i \in I} H_i \leq G$.

Como $H_i \leq G$ para toda $i \in I$, entonces $e \in H_i$ para toda $i \in I$ y así $\displaystyle e \in \bigcap_{i \in I} H_i$.

Sea $\displaystyle a, b \in \bigcap_{i \in I}$. Tenemos que $a,b \in H_i$ para toda $i \in I$.
Como $H_i \leq G$ para toda $i \in I$, entonces $ab^{-1} \in H_i$ para $i \in I$ y así $a b^{-1} \in \displaystyle \bigcap_{i \in I}H_i$.

Por lo tanto $\displaystyle \bigcap_{i \in I} H_i \leq G$.

$\square$

Corolario. Sea $G$ un grupo y $X$ un subconjunto de $G$. Existe un subgrupo de $G$ que contiene a $X$ y que estará contenido en cualquier subgrupo de $G$ que contenga a $X$.

Demostración.
Sea $G$ un grupo y $X$ subconjunyo de $G$.
$G$ es un subgrupo de $G$ que contienen a $X$ y entonces la familia $\{H \leq G | X \subseteq H\}$ es no vacia. Entonces sí existen subgrupos de $G$ que contienen a $X$.

Consideremos $\displaystyle \bigcap_{\substack{H \leq G \\ X \subseteq H}} H$. Por el teorema anterior es un subgrupo de $G$ y por construcción $X \in \displaystyle \bigcap_{\substack{H \leq G \\ X \subseteq H}} H$.

Si $\hat{H}$ es un subconjunto de $G$ que contiene a $X$, entonces $\hat{H} \in \{H \leq G | X \subseteq H \}$, y al ser uno de los intersectados, obtenemos

$\displaystyle \bigcap_{\substack{H \leq G \\ X \subseteq H}} H \subseteq \hat{H}$.

$\square$

El subgrupo de $G$ generado por $X$

Para concluir esta entrada, daremos una definición que resume lo visto.

Definición. Sea $G$ un grupo y $X$ un subgrupo de $G$. El conjunto

\begin{align*}
\bigcap_{\substack{H \leq G \\ X \subseteq H}} H
\end{align*}

es el subgrupo de $G$ generado por $X$ y se denota por $\left< X \right>$.

Decimos que $X$ genera a $G$ si $\left< X \right> = G$.

Observación. Sea $G$ un grupo y sea $a \in G$. Entonces

\begin{align*} \left< \{a\} \right> = \left< a \right>. \end{align*}

Demostración. Se quedará como tarea moral.

Notación. Para $a_1,\dots, a_n \in G$, el conjunto $\left< \{a_1,\dots, a_n\}\right>$ se denota por $\left< a_1, \dots, a_n \right>$.

Tarea moral

  1. Sea $G$ un grupo tal que todos sus subgrupos propios son cíclicos, entonces $G$ es cíclico. Demuestra este enunciado o encuentra un contraejemplo.
  2. Considera a los enteros con la suma. Describe a los subgrupos:
    1. $\left<\{10, 15\}\right>$ (se denota por $\left<10,15\right>$).
    2. $\left<\{9, 20\}\right>$ (se denota por $\left<9,20\right>$).
  3. Demuestra la última observación: Sea $G$ un grupo y sea $a \in G$. Entonces $\left< \{a\} \right> = \left< a \right>$. Hint: Usa la doble contención y el teorema anterior.

Más adelante…

Ya estudiamos a los elementos de la forma $a^k$ con $a \in G$, $k \in \z$ y $G$ grupo. En la siguiente entrada combinaremos varios elementos de esa forma. Estudiaremos qué son y algunas propiedades de las llamadas palabras. Además, la siguiente entrada es la última de esta unidad, ¡sigue avanzando! ya casi acabas.

Entradas relacionadas

Álgebra Superior I: Negaciones de proposiciones con conectores y cuantificadores

Introducción

Ya hemos visto cómo podemos hacer uso de las proposiciones que usan conectores y algunos ejemplos de sus negaciones. Y también ya hemos visto sobre el significado de los cuantificadores así como su uso y ejemplos. Pues en esta entrada haremos uso del conector negación para entender qué significa negar una proposición con conector o cómo son las negaciones de los cuantificadores.

Conectores y su negación

Ya hemos repasado cuatro conectores binarios:

  • Conjunción
  • Disyunción
  • Implicación
  • Doble Implicación

Ahora veamos qué sucede cuando negamos cada uno de estos.

Conjunción y disyunción

Esta es una propiedad que ya visitamos con anterioridad cuando hablamos de la conjunción y disyunción, y que a la negación de estas dos se les conocen como Leyes de Demorgan y nos dicen que la negación de estas corresponden a:

  • $\neg (P \lor Q) = \neg P \land \neg Q$
  • $\neg (P \land Q) = \neg P \lor \neg Q$

Siendo que trabajemos con alguna de estas, solo es necesario recordar: La conjunción se niega con la disyunción y la disyunción se niega con la conjunción.

Implicación

Para ver cómo es que se niega este conector, recordemos su equivalencia lógica: $P \Rightarrow Q = \neg P \lor Q$. Lo siguiente que podemos hacer es aplicar las leyes de Demorgan para encontrar cómo es la negación de esta. Nota que $\neg (P \Rightarrow Q) = \neg(\neg P \lor Q) =P \land \neg Q $. Lo cuál nos quiere decir: «La negación de la implicación es que se cumpla la hipótesis y no la tesis», que es la única forma en que no se cumple la implicación.

Doble implicación

Ahora, recordemos que la doble implicación $P \Leftrightarrow Q$ es una equivalencia lógica a $(P\Rightarrow Q) \land (Q \Rightarrow P)$. De esta manera

$$ \begin{aligned} \neg(P \Leftrightarrow Q) &= \neg((P\Rightarrow Q) \land (Q \Rightarrow P))\\ &=\neg(P\Rightarrow Q) \lor \neg(Q \Rightarrow P) \\ &= (P \land \neg Q) \lor (Q \land \neg P)\end{aligned}$$

Esto es una equivalencia a decir «Las dos proposiciones deben tener valores de verdad distintos». Para que la negación de la doble implicación sea verdadera necesitamos que $P$ sea verdad y $Q$ falsa o $Q$ verdad y $P$ falsa.

Para recapitular esta parte, recuerda la siguiente tabla:

ConectorNegación
$P \lor Q$$\neg P \land \neg Q$
$P \land Q$$\neg P \lor \neg Q$
$P \Rightarrow Q$$P \land \neg Q $
$P \Leftrightarrow Q$$(P \land \neg Q) \lor (Q \land \neg P)$

Negando cuantificadores

Ahora que ya hemos visto sobre las negaciones de los conectores, es turno de que hablemos un poco de los cuantificadores. Y para esto recordemos que un cuantificador nos da información de cómo una proposición con término variable o también conocidas como predicados.

Negación de cuantificadores universales

Observa por un momento el siguiente predicado:

«Todos los números primos son impares»

Esta proposición la podemos ver de la forma $\forall x P(x)$ en el universo de discurso de los número enteros. Y la proposición nos dice que cada número primo que tomemos, será impar. ¿Esto es verdad? Pues resulta que no. Y de hecho el único número primo que no es impar es el 2. En este caso no podemos decir que sea verdad el cuantificador, esto pues existe al menos un número entero que no cumple la proposición. ¿Ves a dónde vamos con las palabras resaltadas?

Para negar el cuantificador $\forall$ usamos el cuantificador $\exists$ diciendo que existe un elemento que no cumple la propiedad:

$\neg(\forall x P(x)) = \exists x \neg P(x)$

Pensemos en el significado de la expresión. Si tenemos el esquema proposicional $\neg(\forall x P(x))$ significa que en el universo de discurso, existe una variable $a$ donde $P(a)$ es falsa, es decir $\neg P(a)$ es verdadera.

Negación de cuantificadores existenciales

Por otro lado, pensemos en el siguiente ejemplo:

«Existe un número entero mayor a 1 y menor a 2»

Para poder decir si es verdad o no, deberíamos ponernos de acuerdo en qué es un número entero o qué significa que sea menor o mayor que otro. Pero nuestra intuición nos dice que esto no es cierto (y estamos en lo correcto al pensar así). Ahora ¿Cómo se te ocurre que podríamos negar la expresión $\exists x P(x)$, donde nuestro universo de discurso son los números enteros y $P(x) : 1<x<2$? Pues necesitaríamos que no exista algún elemento que cumpla la condición, entonces podemos decir:

$\neg (\exists x P(x)) = \nexists x P(x)$

Pero podemos ir un poco más allá, y notar que lo que nos dice esta negación es que cualquier elemento que tomemos de nuestro universo de discurso, no cumplirá con la proposición. Es decir, «Para todo x en el universo de discurso, no se cumplirá el predicado». Dicho de otra forma:

$= \neg (\exists x P(x)) = \forall x \neg (P(x))$

Y por transitividad, ahora sabemos que $\nexists x P(x) = \forall x \neg (P(x))$. Y en nuestro ejemplo significa que «cada número entero no cumplirá que sea menor a 2 y mayor a 1».

Tarea moral

  1. ¿Cuál es la negación de las siguientes proposiciones?
    • $P\lor (Q \Rightarrow S)$
    • $(P \Leftrightarrow (Q\land \neg S))$
    • $P \land (Q\lor R)$
    • $P \Rightarrow(Q \Rightarrow P)$
  2. ¿Cuál es la negación de los siguientes predicados?
    • $\forall x (P(x)\RightarrowQ(x))$
    • $\exists y (\forall x(P(x)\land Q(y)))$

Más adelante…

Llegando a este punto, ya tenemos el conocimiento necesario para hablar de una sustancia muy importante en la matemática: las demostraciones. Esto es, ¿Cómo podemos estar seguros de cuándo algo se cumple y cuándo no? ¿Qué significa que un enunciado se derive de otros enunciados? Y más importante: en lo que a partir de ahora estudiarás en las matemáticas, vamos a introducir algunas técnicas de demostración que te ayudarán a entender de qué estamos hablando en matemáticas cuando haya que verificar algo. Y para esto usaremos algo conocido como reglas de inferencia.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Ecuación de Euler

Introducción

En la entrada anterior desarrollamos la teoría de soluciones en series de potencias alrededor de un punto ordinario de la ecuación diferencial $a_{0}(t)\frac{d^{2}{y}}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=0$. En cierta forma el teorema de existencia de soluciones con desarrollo en series de potencias alrededor del punto ordinario que probamos nos facilitó las cosas.

Sin embargo, cuando tenemos puntos singulares la teoría falla. Es por eso que debemos encontrar un método alternativo para estudiar soluciones alrededor de puntos singulares a nuestra ecuación diferencial. Antes de comenzar de manera general, lo primero que haremos será considerar una ecuación diferencial en particular, con $t_{0}=0$ como punto singular, la cual es bastante sencilla de resolver: esta es la ecuación de Euler, debido al famoso matemático Leonhard Euler (si no lo conoces o quieres saber acerca de él, te dejo el siguiente enlace a su biografía), y que tiene la forma $$t^{2}\frac{d^{2}{y}}{dt^{2}}+\alpha t\frac{dy}{dt}+\beta y=0$$ donde $\alpha$ y $\beta$ son constantes.

Resolveremos esta ecuación y en la próxima entrada trataremos de generalizar este mismo resultado a una clase más general de ecuaciones con puntos singulares.

Vamos a comenzar!

Leonhard Euler
Leonhard Euler

Ecuación de Euler

En el primer video resolvemos de manera general la ecuación de Euler para cualquier intervalo que no contenga al punto singular $t_{0}=0$, y en el segundo video resolvemos un ejemplo particular de este tipo de ecuaciones.

Tarea moral

  • Prueba que si $(\alpha -1)^{2}-4\beta=0$ entonces $W[t^{r_{1}}, t^{r_{1}}\ln{t}]\neq0$, donde $r_{1}$ es la única raíz de la ecuación cuadrática $r^{2}+(\alpha -1)r+\beta=0$. Por tanto, la solución general a la ecuación de Euler cuando $(\alpha -1)^{2}-4\beta=0$ y $t>0$ es $y(t)=c_{1}t^{r_{1}}+c_{2}t^{r_{1}}\ln{t}$.
  • Si $(\alpha -1)^{2}-4\beta<0$ entonces las raíces $r_{1}$ y $r_{2}$ a la ecuación $r^{2}+(\alpha -1)r+\beta=0$ son complejas. Prueba que $t^{r_{1}}$ y $t^{r_{2}}$ son efectivamente soluciones a la ecuación de Euler, y que además son linealmente independientes. Por tanto, la solución general a la ecuación de Euler cuando $(\alpha -1)^{2}-4\beta<0$ y $t>0$ es $y(t)=c_{1}t^{r_{1}}+c_{2}t^{r_{2}}$. (Sigue el hint dado en el video para hacer las cuentas más sencillas).
  • La solución general encontrada en el problema anterior es una función de variable compleja. Haz elecciones adecuadas de $c_{1}$ y $c_{2}$ para ver que si $r_{1}=a+bi$ y $r_{2}=a-bi$, entonces $t^{a}cos(b\ln{t})$ y $t^{a}sin(b\ln{t})$ son soluciones a la ecuación de Euler para el caso del ejercicio anterior. Prueba que éstas son soluciones linealmente independientes, y por tanto $y(t)=k_{1}t^{a}cos(b\ln{t})+k_{2}t^{a}sin(b\ln{t})$ es solución general a la ecuación de Euler, donde $y$ es una función de valores reales.
  • Resolver la ecuación $$t^{2}\frac{d^{2}{y}}{dt^{2}}+2t\frac{dy}{dt}+4y=0$$ tanto para $t>0$ como para $t<0$.
  • Resuelve el problema de condición inicial $$t^{2}\frac{d^{2}{y}}{dt^{2}}-7t\frac{dy}{dt}+9y=0$$ con condiciones $y(1)=0$, $\frac{dy}{dt}(1)=2$, $t>0$.

Más adelante

Una vez que hemos encontrado la solución general a la ecuación de Euler, lo siguiente tratar de utilizar este mismo método para resolver una clase más general de ecuaciones diferenciales con puntos singulares. Dado que algunas de estas ecuaciones serán bastante complicadas de resolver, clasificaremos los puntos singulares en dos tipos: regulares e irregulares, y nos enfocaremos exclusivamente a resolver ecuaciones diferenciales alrededor de puntos singulares regulares.

Entradas relacionadas