Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de segundo orden. Propiedades del conjunto de soluciones

Por Eduardo Vera Rosales

Introducción

Hola a todos. Después de haber estudiado ecuaciones diferenciales de primer orden, llegamos a la segunda unidad del curso donde analizaremos ecuaciones diferenciales de segundo orden. Dada la dificultad para resolver este tipo de ecuaciones, nos enfocaremos únicamente en las ecuaciones lineales de segundo orden, es decir, de la forma $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=g(t).$$

En esta entrada comenzaremos con el caso de las ecuaciones homogéneas de segundo orden, es decir, cuando $g(t)$ es la función constante cero en un intervalo $(\alpha,\beta)$. Estudiaremos la teoría de las soluciones a este tipo de ecuaciones antes de analizar las distintas técnicas para resolverlas. Debido a que el conjunto de soluciones a este tipo de ecuaciones se comportan de buena manera, podremos encontrar la solución general a la ecuación si previamente conocemos dos soluciones particulares que cumplan una hipótesis que daremos a conocer en el intervalo $(\alpha,\beta)$. Definiremos el Wronskiano y la independencia lineal de dos soluciones a una ecuación diferencial, y probaremos distintos teoremas y propiedades de las soluciones con base en estos conceptos.

¡Comencemos!

Ecuaciones lineales homogéneas de segundo orden, Teorema de existencia y unicidad y solución general

En este video damos una introducción a las ecuaciones diferenciales de segundo orden, y en particular, a las ecuaciones lineales de segundo orden. Enunciamos el teorema de existencia y unicidad para ecuaciones lineales de segundo orden, y comenzamos a desarrollar la teoría para encontrar la solución general a ecuaciones homogéneas.

Conjunto fundamental de soluciones y el Wronskiano

Continuando con la teoría de las soluciones a ecuaciones homogéneas de segundo orden, demostramos un par de teoremas que nos ayudan a encontrar la solución general a este tipo de ecuaciones. Además, definimos al conjunto fundamental de soluciones de la ecuación homogénea y el Wronskiano de dos funciones.

Independencia lineal de soluciones

En este último video definimos el concepto de independencia lineal de soluciones a la ecuación homogénea de segundo orden, y demostramos un teorema que nos da otra forma de encontrar un conjunto fundamental de soluciones a la ecuación diferencial homogénea.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que $y_{1}(t)=\sin{t}$ y $y_{2}(t)=\cos{t}$ son soluciones a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+y=0.$$ Posteriormente prueba que $y(t)=k_{1}\sin{t}+k_{2}\cos{t}$ también es solución a la ecuación, donde $k_{1}$, $k_{2}$ son constantes.
  • Prueba que $\{\sin{t},\cos{t}\}$ es un conjunto fundamental de soluciones a la ecuación del ejercicio anterior. ¿En qué intervalo es el conjunto anterior un conjunto fundamental de soluciones?
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, $y_{1}(t)$, $y_{2}(t)$ son soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(\alpha,\beta)$ y existe $t_{0}$ en dicho intervalo, donde $W[y_{1},y_{2}](t_{0})\neq 0$, entonces $\{y_{1}(t),y_{2}(t)\}$ forman un conjunto fundamental de soluciones en $(\alpha,\beta)$.
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, entonces existe un conjunto fundamental de soluciones $\{y_{1}(t),y_{2}(t)\}$ a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en el mismo intervalo. (Hint: Toma un punto en el intervalo $(\alpha,\beta)$ y dos problemas de condición inicial adecuados de tal forma que puedas utilizar el teorema de existencia y unicidad y el Wronskiano para deducir el resultado).
  • Prueba que $y_{1}(t)=t|t|$, $y_{2}(t)=t^{2}$ son linealmente independientes en $[-1,1]$ pero linealmente dependientes en $[0,1]$. Verifica que el Wronskiano se anula en $\mathbb{R}$. ¿Pueden ser $y_{1}(t)$, $y_{2}(t)$ soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(-1,1)$ si $p$ y $q$ son continuas en este intervalo?

Más adelante

En la próxima entrada conoceremos el método de reducción de orden, donde supondremos que ya conocemos una solución particular $y_{1}(t)$ a la ecuación lineal homogénea de segundo orden, y con ayuda de esta hallaremos una segunda solución $y_{2}(t)$ tal que forma un conjunto fundamental de soluciones junto con $y_{1}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Supremo e ínfimo

Por Karen González Cárdenas

Introducción

Ya hemos visto los conceptos de máximo, mínimo, cota superior e inferior de un conjunto en $\r$. En esta entrada definiremos formalmente el concepto de supremo e ínfimo de un conjunto, veremos que los revisados previamente se encuentran relacionados. Adicionalmente, demostraremos algunas proposiciones útiles y algunos ejemplos en los cuales aplicaremos las definiciones respectivas.

Supremo e ínfimo, primera definición

Definición: Sea $A \subseteq \r$ con $A\neq \emptyset$. Decimos que $\alpha \in \r$ es:

  • El supremo de $A \Leftrightarrow$
    • $\alpha$ es cota superior de $A$
    • $\alpha$ es la mínima cota superior, es decir, si $\beta$ es cota superior de $A \Rightarrow \alpha \leq \beta$.

      En otras palabras, la mínima cota superior de un conjunto es el menor número real que es una cota superior de ese conjunto.

  • El ínfimo de $A \Leftrightarrow$
    • $\alpha$ es cota inferior de $A$
    • $\alpha$ es la máxima cota inferior, es decir, si $\beta$ es cota inferior de $A \Rightarrow \beta \leq \alpha$.

      De esta manera, la máxima cota inferior de un conjunto es el número real más grande que sirve como cota inferior para dicho conjunto.

Retomemos el último ejemplo visto en la entrada pasada:

$$A= \left\{\frac{1}{n}: n\in \mathbb{N} \setminus\left\{0\right\} \right\}$$

  • El conjunto de cotas superiores de $A$ está dado por:
    $$[1, \infty)$$
    tiene elemento mínimo y es 1. Esto nos indica que existe una mínima cota superior, ya que el $1$ es el menor número real que sirve como cota superior para dicho conjunto.
  • El conjunto de cotas inferiores de $A$ está dado por:
    $$(- \infty, 0]$$
    tiene elemento máximo y es 0. Esto nos indica que existe una máxima cota inferior, debido a que el $0$ es el mayor número real que sirve como cota inferior para $(- \infty, 0]$.

Dadas las observaciones anteriores ahora podemos decir que:

  • El supremo de $A$ es $1$: $$sup(A)=1$$
  • El ínfimo de $A$ es $0$: $$inf(A)=0$$

Observación: El supremo o el ínfimo de un conjunto puede o no pertenecer al conjunto.

Pasemos a revisar la existencia y la unicidad de supremos e ínfimos.

Existencia del supremo y del ínfimo

En general, no tendremos que preocuparnos por la existencia del supremo ni del ínfimo cuando hablemos de un conjunto no vacío y acotado de números reales; en cambio, consideraremos como axioma que siempre existen.

En la siguiente entrada motivaremos y hablaremos con más detalle del siguiente axioma.

Axioma del Supremo: Si $A \subseteq \r$ es no vacío y $A$ es acotado superiormente entonces existe $\alpha \in \r$ tal que:
$$\alpha = sup(A)$$

En esa entrada, también demostraremos a partir de este axioma que los conjuntos no vacíos y acotados inferiormente siempre tienen ínfimo. Igualmente, hablaremos de otras propiedades de los números reales relacionadas con este axioma, como que el conjunto de los números reales no está acotado y la propiedad arquimediana. Por ahora, sólo lo enunciamos, pues en las siguientes secciones demostraremos varias propiedades del supremo y del ínfimo para las que necesitaremos su existencia.

Unicidad del supremo y del ínfimo

El Axioma del Supremo nos garantiza la existencia del supremo e implica la del ínfimo pero, ¿habrá más de un supremo o un ínfimo para un mismo conjunto?

Teorema: Sea $A \subseteq \r$ con $A\neq \emptyset$ y acotado. El supremo y el ínfimo de $A$ son únicos.

Demostración (Unicidad del supremo): Supongamos que existen $\alpha_{1}, \alpha_{2}$ tales que:
$\alpha_{1} = sup(A)$ y $\alpha_{2}=sup(A)$.

Para $\alpha_{1}$ tenemos que para toda $a \in A, a\leq \alpha_{1}$. Y como $\alpha_{1}$ es mínima cota superior entonces $\forall M$ cota superior de $A, \alpha_{1}\leq M$. Así en particular ocurre que: $\alpha_{1}\leq \alpha_{2}$ es cota superior.

Análogamente para $\alpha_{2}$ tenemos que: $\alpha_{2} \leq M$ donde $M$ es cota superior de $A$.
$\Rightarrow \alpha_{2}\leq \alpha_{1}$ es cota superior.

Debido a que $\alpha_{1}\leq \alpha_{2}$ y $\alpha_{2}\leq \alpha_{1}$ concluimos:
$$\alpha_{1}=\alpha_{2}.$$
$\therefore\quad$ El supremo de $A$ es único.

$\square$

Relaciones entre supremos e ínfimos

Proposición: Sean $A,B \subseteq \r$ distintos del vacío. Si se cumple que para toda $a\in A$ y para toda $b \in B$ $a \leq b \Rightarrow sup(A)\leq inf(B).$

Demostración:
Primero observamos que $A$ tiene supremo, ya que como $A \neq \emptyset$ y $B \neq \emptyset$:
$\Rightarrow \exists b_{0} \in B, \forall a\in A $ se cumple que $a \leq b_{0}$
$\Rightarrow b_{0}$ es cota superior de $A$
$\Rightarrow A \neq \emptyset$ y acotado superiormente
$\therefore \exists \alpha =sup(A) \in \r.$

Ahora vemos que $B$ tiene ínfimo, esto se sigue de $B \neq \emptyset$ y $A \neq \emptyset$:
$\Rightarrow \exists a_{0} \in A, \forall b\in B$ ocurre que $a_{0} \leq b$
$\Rightarrow a_{0}$ es cota inferior de $B$
$\Rightarrow B \neq \emptyset$ y acotado inferiormente
$\therefore \exists \beta =inf(B) \in \r.$

Por lo que sólo nos falta verificar que $\alpha \leq \beta$. Cómo por hipótesis tenemos que $\forall a \in A, \forall b\in B (a\leq b)$ obtenemos:
$\Rightarrow \forall a \in A$ ($a$ es cota inferior de $B$)
$\Rightarrow \forall a \in A$ ($a\leq \beta$)
$\Rightarrow \beta$ cota superior de $A$
$\Rightarrow \alpha \leq \beta$

$\square$

Proposición: Sean $C \subseteq A \subseteq \r$ donde $C$ es no vacío y $A$ acotado.
$\Rightarrow inf(A) \leq inf(C) \leq sup(C) \leq sup(A)$.
Demostración:

Sea $C \neq \emptyset$ subconjunto de $A$, como $ C \subseteq A \Rightarrow A \neq \emptyset$.
Ya que $A$ es acotado para toda $a \in A$ ocurre que: $m \leq a \leq M$ donde $m$ es cota inferior y $M$ es cota superior de $A$. Así si tomamos $c \in C$ tenemos:
$c \in A \Rightarrow m \leq c \leq M \Rightarrow C$ es acotado.
Por lo que afirmamos que existen:
$$sup(A), \quad sup(C), \quad inf(A), \quad inf(C).$$
Observemos que $sup(A) $ al ser cota superior de $A$ y $C \subseteq A \Rightarrow \sup(A)$ es cota superior de $C$ , por lo que podemos concluir:
$$sup(C) \leq sup(A).$$
Análogamente para los ínfimos se sigue que:
$$inf(A) \leq inf(C).$$
Y como $inf(C) < sup(C)$ obtenemos:
$$inf(A) \leq inf(C) \leq sup(C) \leq sup(A).$$

$\square$

Proposición: Sean $A’ \subseteq A \subseteq \r$ y $B’ \subseteq B \subseteq \r$ donde $A’, B’$ son distintos del vacío. Si se cumple que:

  • $\forall a\in A, \forall b \in B \quad (a \leq b)$
  • $sup(A’)=inf(B’)$

$\Rightarrow sup(A)=inf(B)$
Demostración:

Primero observemos que $A$ y $B$ son no vacíos ya que:

  • $A’ \neq \emptyset$ y $A’ \subseteq A$
  • $B’ \neq \emptyset$ y $B’ \subseteq B$

Por lo que afirmamos que existen en $\r$:
$$sup(A) \quad inf(B)$$
Por hipótesis aplicando el resultado anterior y la primera proposición de esta sección tenemos:
$$sup(A’) \leq sup(A) \leq inf(B) \leq inf(B’)$$
$$\therefore sup (A) \leq inf(B)$$
Además vemos que:
$$inf(B) \leq inf(B’) = sup(A’) \leq sup(A)$$
$$\therefore inf(B) \leq sup (A) $$
Por lo que obtenemos la igualdad:
$$inf(B)= sup (A)$$

$\square$

Ahora continuaremos con una definición de supremo e ínfimo equivalente a la primera.

Supremo e ínfimo segunda definición

Definición: Sea $A \subseteq \r$ con $A\neq \emptyset$. Decimos que $\alpha \in \r$ es:

  • El supremo de $A \Leftrightarrow$
    • $\alpha$ es cota superior de $A$
    • $\forall \varepsilon > 0, \exists x_{\varepsilon} \in A$ tal que $\alpha – \varepsilon < x_{\varepsilon}$.
  • El ínfimo de $A \Leftrightarrow$
    • $\alpha$ es cota inferior de $A$
    • $\forall \varepsilon > 0, \exists x_{\varepsilon} \in A$ tal que $x_{\varepsilon} < \alpha + \varepsilon$.

Ejemplos

Veamos para
$$B=\left\{2-\frac{1}{n}: n\in \mathbb{N}\setminus \left\{0\right\}\right\}$$
consideramos como candidatos $inf(B)=1$ y $sup(B)=2$.

Comenzaremos probando $inf(B)=1$ haciendo uso de la segunda definición:

  • Tenemos que probar que $1$ es cota inferior de $B$, es decir, $1 \leq x$ para toda $x \in B$.
    Sea $x \in B \Rightarrow x=2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    1 \leq 2- \frac{1}{n} &\Leftrightarrow 1-2 \leq – \frac{1}{n}\\
    &\Leftrightarrow -1 \leq – \frac{1}{n}\\
    &\Leftrightarrow 1 \geq \frac{1}{n}\\
    &\Leftrightarrow n \geq 1
    \end{align*}
    $\therefore 1$ es cota inferior
  • Ahora probamos que $\forall \varepsilon > 0, \exists x_{\varepsilon} \in B$ tal que $x_{\varepsilon}< 1+ \varepsilon$.
    Sea $\varepsilon >0$. Tomemos $x_{\varepsilon}=1 \in B$ entonces $1<1+\varepsilon$
    $\therefore 1$ es ínfimo de $B$.

Ahora procedamos a demostrar que $sup(B)=2$:

  • $2$ es cota superior de $B$, es decir, $2 \geq x$ para toda $x \in B$.
    Tomemos $x \in B \Rightarrow x=2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    2 \geq 2-\frac{1}{n} &\Leftrightarrow 2-2 \geq -\frac{1}{n}\\
    &\Leftrightarrow 0 \geq -\frac{1}{n}\\
    &\Leftrightarrow 0 \leq \frac{1}{n}\\
    \end{align*}
    $\therefore 2$ es cota superior
  • Demostremos que $\forall \varepsilon > 0, \exists x_{\varepsilon} \in B$ tal que
    $2- \varepsilon < x_{\varepsilon}$.
    Sea $\varepsilon >0$. Tomemos $x_{\varepsilon}= 2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    2- \varepsilon < 2-\frac{1}{n}&\Leftrightarrow – \varepsilon < -\frac{1}{n}\\
    &\Leftrightarrow \varepsilon > \frac{1}{n}\\
    &\Leftrightarrow (\varepsilon )n> 1\\
    &\Leftrightarrow n> \frac{1}{\varepsilon}\\
    \end{align*}
    $\therefore 2$ es supremo de $B$

$\square$

Hallar el supremo y el ínfimo del siguiente conjunto:
$$C= \left\{x: x^{2}+x+1 \geq 0 \right\}$$

Solución:
Notemos que:
\begin{align*}
x^{2}+x+1 \geq 0 &\Leftrightarrow x^{2}+x+\frac{1}{4}+1-\frac{1}{4} \geq 0\\
&\Leftrightarrow \left(x + \frac{1}{2} \right)^{2}+\frac{3}{4} \geq 0\\
\end{align*}
Vemos que la última desigualdad la cumple cualquier número real. Por lo tanto, tenemos que $C= \r$.
$\therefore \quad$ no existe ni $sup(C)$ ni $inf(C)$

$\square$

Más adelante…

Ahora que ya hemos visto el concepto de supremo, en la siguiente entrada veremos una propiedad más que cumple el conjunto de números reales: el Axioma del Supremo. Veremos su enunciado y varias de sus aplicaciones, algunas de ellas se demostrarán en las próximas unidades.

Tarea moral

  • Prueba que la primera y segunda definición de supremo e ínfimo son equivalentes.
  • Demuestra que el ínfimo de un conjunto es único.
    Sugerencia: La prueba es análoga a la dada para el supremo.
  • Para $A= \left\{\frac{1}{n}: n\in \mathbb{N}\setminus \left\{0\right\} \right\}$ prueba usando la definición que prefieras que $sup(A)=1$ e $inf(A)=0$.
  • Encontrar el supremo y el ínfimo del conjunto
    $$D= \left\{x: x^{2}+x-1 < 0 \right\}$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones diferenciales lineales de primer orden – Método por factor integrante

Por Omar González Franco

Las matemáticas son el arte de la explicación.
– Paul Lockhart

Introducción

Hasta ahora sólo hemos hecho un análisis cualitativo de las soluciones a distintas ecuaciones diferenciales, esto nos ha permitido tener un panorama general sobre el comportamiento de dichas soluciones y su implicación al tratarse de la descripción de un fenómeno real ya que recordemos que para alguna ecuación diferencial ordinaria de la forma

$$\dfrac{dy}{dx} = f(x, y) \label{1} \tag{1}$$

podemos obtener su campo de pendientes y a través de él trazar una infinidad de funciones que satisfacen la ecuación.

Ahora comenzaremos a desarrollar métodos analíticos para obtener explícitamente las funciones solución de una ecuación diferencial ordinaria. Cabe mencionar que no siempre será posible resolver de manera analítica una ecuación diferencial por lo que el análisis cualitativo siempre será una herramienta alterna que puede ayudar en esos casos.

Sabemos que hay diferentes tipos de ecuaciones diferenciales, en esta entrada vamos a comenzar con unas de las ecuaciones más sencillas que podemos encontrar, las ecuaciones diferenciales lineales.

Ecuaciones diferenciales lineales de primer orden

En la primer entrada hicimos una clasificación por linealidad de las ecuaciones diferenciales. Vimos que una ecuación diferencial de $n$-ésimo orden es lineal si:

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = g(x) \label{2} \tag{2}$$

Con las propiedades de que la variable dependiente $y$, así como todas sus derivadas $y^{\prime}, y^{\prime \prime}, \cdots, y^{(n)}$ son de primer grado y los coeficientes $a_{0}, a_{1}, \cdots, a_{n}$, así como la función $g(x)$ dependen a lo sumo de la variable independiente $x$. Una ecuación que no satisface estas propiedades es una ecuación no lineal.

Las primeras ecuaciones que estudiaremos son las ecuaciones diferenciales lineales de primer orden, reduciendo la ecuación (\ref{2}) a primer orden tenemos la siguiente definición.

Como $a_{1}(x) \neq 0$ (ya que si lo es ya no tendríamos una ecuación diferencial), podemos dividir toda la ecuación por este coeficiente.

$$\dfrac{dy}{dx} + \dfrac{a_{0}(x)}{a_{1}(x)} y = \dfrac{g(x)}{a_{1}(x)}$$

Si definimos

$$P(x) = \dfrac{a_{0}(x)}{a_{1}(x)} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{g(x)}{a_{1}(x)} \label{4} \tag{4}$$

podemos reescribir la ecuación (\ref{3}) como

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{5} \tag{5}$$

A esta ecuación se le conoce como la forma canónica y es la definición de ecuación lineal que también encontraremos en la literatura.

Lo que buscamos es una solución de la ecuación diferencial (\ref{5}) en un intervalo $\delta$ donde $P$ y $Q$ sean continuas.

En la forma canónica (\ref{5}), decimos que la ecuación

$$\dfrac{dy}{dx} + P(x) y = 0 \tag{6} \label{6}$$

es la ecuación homogénea, ya que si $g(x) = 0$, entonces $Q(x) = 0$.

Nuestro objetivo es encontrar la forma explícita de la solución $y(x)$ de la ecuación diferencial lineal (\ref{5}). Esta ecuación tiene la propiedad de que la solución general $y(x)$ es la suma de la solución de la ecuación homogénea (\ref{6}) que denotaremos como $y_{h}(x)$ y llamaremos solución homogénea, más la solución de la ecuación no homogénea (\ref{5}) que denotaremos como $y_{p}(x)$ y que llamaremos solución particular, esto es

$$y(x) = y_{h}(x) + y_{p}(x) \label{7} \tag{7}$$

Para mostrar este hecho observemos lo siguiente.

\begin{align*}
\dfrac{dy}{dx} + P(x)y &= \dfrac{d}{dx} (y_{h} + y_{p}) + P(x) (y_{h} + y_{p}) \\
&= \left( \dfrac{d y_{h}}{dx} + P(x) y_{h} \right) + \left( \dfrac{d y_{p}}{dx} + P(x) y_{p} \right) \\
&= 0 + Q(x) \\
&= Q(x)
\end{align*}

Ya que

$$\dfrac{d y_{h}}{dx} + P(x) y_{h} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d y_{p}}{dx} + P(x) y_{p} = Q(x)$$

Así, para hallar la forma explícita de $y(x)$ debemos hallar la forma explícita de la solución homogénea $y_{h}(x)$ y la forma explícita de la solución particular $y_{p}(x)$ para finalmente sumar ambos resultados.

Solución a ecuaciones diferenciales lineales homogéneas de primer orden

Comencemos por resolver la ecuación diferencial homogénea (\ref{6}) para obtener la solución homogénea $y_{h}(x)$. La ecuación que queremos resolver es

$$a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = 0$$

O bien,

$$\dfrac{dy}{dx} + P(x) y = 0$$

Realicemos un poco de algebra y cálculo.

\begin{align*}
\dfrac{dy}{dx} + P(x) y &= 0 \\
\dfrac{dy}{dx} &= -P(x) y \\
\dfrac{1}{y} \dfrac{dy}{dx} &= -P(x)
\end{align*}

De la última expresión identificamos que

$$\dfrac{d}{dx} (\ln{|y|}) = \dfrac{1}{y} \dfrac{dy}{dx}$$

Sustituimos.

$$\dfrac{d}{dx} (\ln{|y|}) = -P(x)$$

Integremos ambos lados de la ecuación con respecto a la variable $x$.

\begin{align*}
\int \left( \dfrac{d}{dx} (\ln{|y|}) \right) dx &= \int -P(x) dx \\
\ln{|y|} + c &= -\int P(x) dx
\end{align*}

Donde hemos hecho uso del teorema fundamental del cálculo y $c$ es la constante de integración. Apliquemos la exponencial en ambos lados de la ecuación.

\begin{align*}
e^{(\ln{|y|} + c)} &= e^{-\int P(x) dx} \\
e^{\ln{|y|}}e^{c} &= e^{-\int P(x) dx} \\
|y| e^{c} &= e^{-\int P(x) dx} \\
|y| &= e^{-c} e^{-\int P(x) dx} \\
y &= e^{-c} e^{-\int P(x) dx}
\end{align*}

Definimos la constante $k = e^{-c}$, obtenemos finalmente

$$y(x) = k e^{-\int P(x) dx} \label{8} \tag{8}$$

La función (\ref{8}) es solución de la ecuación diferencial homogénea (\ref{6}).

Recordemos que si lo que estamos resolviendo es una ecuación de la forma (\ref{5}), entonces $y(x) = y_{h}(x)$ es la solución de la ecuación diferencial homogénea asociada.

Realicemos un ejemplo.

Es buen momento para aconsejar no memorizar los resultados de los métodos de resolución que estudiemos en el curso y en su lugar aplicar el procedimiento para obtener la solución de una ecuación diferencial. Esto, además de ser una buena práctica, nos ayudará a desarrollar la habilidad de identificar y aplicar los distintos métodos que existen para resolver las distintas ecuaciones diferenciales que se nos puedan presentar. Por supuesto, en ocasiones el método se vuelve demasiado extenso y lo conveniente es hacer uso de resultados intermedios para avanzar más rápido.

¡Resolvamos nuestra primer ecuación diferencial!.

Ejemplo: Obtener la solución de la ecuación diferencial homogénea

$$x \dfrac{dy}{dx} + 2y = 0$$

dada la condición inicial $y(3) = 1$.

Solución: A simple vista verificamos que efectivamente se trata de una ecuación diferencial lineal homogénea, así que podemos aplicar la teoría desarrollada y no sólo eso, además se trata de un problema de valores iniciales.

Comencemos por dividir la ecuación por $x \neq 0$ para obtener la forma (\ref{6}). El resultado es

$$\dfrac{dy}{dx} + \dfrac{2}{x} y = 0$$

Identificamos que $P(x) = \dfrac{2}{x}$.

Como dijimos antes, podemos aplicar directamente el resultado (\ref{8}) y listo, sin embargo haremos todo el desarrollo para comprender bien el método.

La ecuación diferencial la podemos reescribir como

$$\dfrac{1}{y} \dfrac{dy}{dx} = -\dfrac{2}{x}$$

Recordando que

$$\dfrac{d}{dx} (\ln{|y|}) = \dfrac{1}{y} \dfrac{dy}{dx}$$

podemos escribir

$$\dfrac{d}{dx} (\ln{|y|}) = -\dfrac{2}{x}$$

Integremos ambos lados de la ecuación.

$$\int {\dfrac{d}{dx} (\ln{|y|}) dx} = -\int {\dfrac{2}{x} dx}$$

Por un lado tenemos

$$\int {\dfrac{d}{dx} (\ln{|y|}) dx} = \ln{|y|} + c_{1}$$

Por otro lado,

\begin{align*}
\int{P(x) dx} &= \int{\dfrac{2}{x} dx} \\
&= 2 \int{\dfrac{1}{x} dx} \\
&= 2 \ln{|x|} + c_{2}
\end{align*}

Igualando ambos resultados se tiene

$$\ln{|y|} + c_{1} = -(2 \ln{|x|} + c_{2})$$

Si juntamos las dos contantes de integración en una sola podemos escribir

$$\ln{|y|} = -2 \ln{|x|} + k$$

Apliquemos la exponencial en ambos lados.

\begin{align*}
e^{\ln{|y|}} &= e^{ -2 \ln{|x|} + k} \\
|y| &= e^{k} e^{\ln{|x|^{-2}}} \\
y &= Kx^{-2}
\end{align*}

En donde definimos la constante $K = e^{k}$. Por lo tanto, la solución general de la ecuación diferencial dada es

$$y(x) = \dfrac{K}{x^{2}}$$

con $x$ en cualquier intervalo que no contenga al $0$.

Ahora apliquemos la condición inicial para obtener una solución particular. Se debe satisfacer que $y(3) = 1$, evaluemos la función en $3$ e igualemos a $1$.

$$y(3) = \dfrac{K}{3^{2}} = \dfrac{K}{9} = 1$$

De la última igualdad obtenemos que $K = 9$, por lo tanto la solución particular es

$$y(x) = \dfrac{9}{x^{2}}$$

Nota: Para evitar confusiones cabe mencionar que en el ejemplo cuando hablamos de solución general y solución particular nos referimos al contexto general de las ecuaciones diferenciales donde solución general es la función que satisface la ecuación diferencial y tienen contantes arbitrarias, mientras que la solución particular es la función que satisface la ecuación diferencial y cuyas constantes toman un valor específico, por el contrario no nos referimos a la solución general $y = y_{h} + y_{p}$ y solución particular $y_{p}$ vistos al inicio de esta entrada, pues recordemos que en esta sección estamos estudiando ecuaciones diferenciales homogéneas.

$\square$

En conclusión, ahora sabemos resolver ecuaciones diferenciales lineales homogéneas de la forma

$$\dfrac{dy}{dx} + P(x) y = 0$$

cuya solución general es

$$y(x) = k e^{- \int P(x) dx}$$

Ahora veamos el caso no homogéneo en el que $Q(x) \neq 0$.

Solución a ecuaciones diferenciales lineales no homogéneas de primer orden

La ecuación diferencial que intentamos resolver es

$$a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = g(x)$$

O bien,

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Vamos a estudiar dos métodos distintos para resolver este tipo de ecuaciones, uno de ellos es conocido como método por factor integrante y el otro como método por variación de parámetros. Esta entrada la concluiremos con el desarrollo del primer método y en la siguiente entrada estudiaremos el método por variación de parámetros.

Método por factor integrante

Consideremos la ecuación diferencial lineal no homogénea (\ref{5}). El método por factor integrante consiste en encontrar una función $\mu (x)$ que satisfaga la siguiente relación.

$$\dfrac{d}{dx} (\mu y) = \mu \dfrac{dy}{dx} + \mu P(x) y = \mu Q(x) \label{9} \tag{9}$$

Es decir, que la derivada del producto de $\mu (x)$ con la solución $y(x)$ sea igual a multiplicar la ecuación original por $\mu$. La función $\mu$ debe ser una función dependiente de $x$ y derivable, de manera que, usando la regla del producto

$$\dfrac{d}{dx} (\mu y) = \mu \frac{dy}{dx} + y \dfrac{d\mu}{dx} \label{10} \tag{10}$$

Igualando las ecuaciones (\ref{9}) y (\ref{10}), se tiene

\begin{align*}
\mu \dfrac{dy}{dx} + \mu P(x) y &= \mu \frac{dy}{dx} + y \dfrac{d\mu}{dx} \\
\mu P(x) y &= y \dfrac{d\mu}{dx} \\
\mu P(x) &= \dfrac{d\mu}{dx} \\
P(x) &= \frac{1}{ \mu} \dfrac{d\mu}{dx} \\
P(x) &= \dfrac{d}{dx} (\ln{|\mu}|)
\end{align*}

Integremos la última relación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{d}{dx} (\ln{|\mu}|) \right) dx} &= \int{P(x) dx} \\
\ln{|\mu|} + c_{1} &= \int{P(x) dx}
\end{align*}

En esta ocasión supongamos que $c_{1} = 0$, veremos más adelante que esto no afecta el resultado. Por otro lado, como $e^{x} > 0$ para toda $x$, en particular

$$e^{\int{P(x) dx}} > 0$$

Entonces aplicando la exponencial en ambos lados de la última expresión se obtiene

$$\mu (x) = e^{\int{P(x) dx}} \tag{11} \label{11}$$

A esta función se le conoce como factor integrante y es siempre positiva.

De la ecuación (\ref{9}) sabemos que

$$\dfrac{d}{dx} (\mu y) = \mu Q(x)$$

Integremos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{d}{dx} (\mu y) \right) dx} &= \int{\mu Q(x) dx} \\
\mu y + c_{2} &= \int{\mu Q(x)} dx \\
y &= \dfrac{1}{\mu} \left( \int{\mu Q(x) dx} \right)
\end{align*}

Donde supusimos nuevamente que $c_{2} = 0$. La última expresión ya nos da la solución que buscamos, con $\mu$ el factor integrante.

Por lo tanto, la solución de la ecuación diferencial lineal no homogénea

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

es

$$y(x) = \dfrac{1}{e^{\int{P(x) dx}}} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right) \label{12} \tag{12}$$

O en una forma más compacta

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \label{13} \tag{13}$$

Con $\mu(x)$ el factor integrante (\ref{11}).

El resultado que obtuvimos corresponde a la solución particular $y(x) = y_{p}(x)$, como mencionamos antes, la solución completa o solución general de la ecuación (\ref{5}) es la suma de la solución homogénea más la solución particular

$$y(x) = y_{h}(x) + y_{p}(x)$$

Así, sumando el resultado (\ref{8}) con el resultado (\ref{12}) obtenemos que la solución completa de la ecuación diferencial (\ref{5}) es

$$y(x) = y_{h}(x) + y_{p}(x) = k e^{-\int P(x) dx} + e^{-\int P(x) dx} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right)$$

Factorizando

$$y(x) = e^{-\int P(x) dx} \left( \int{e^{\int{P(x) dx}} Q(x) dx} + k \right) \label{14} \tag{14}$$

O bien, en términos del factor integrante

$$y(x) = \dfrac{1}{\mu(x)}\left(\int{\mu (x) Q(x) dx} + k \right) \label{15} \tag{15}$$

La ecuación (\ref{15}) es la solución general de las ecuaciones diferenciales lineales de primer orden. En la siguiente entrada mencionaremos el por qué es posible haber tomado como cero a las constantes de integración que aparecieron en el método, sin embargo intenta justificar este hecho con lo visto hasta este momento.

Para concluir realicemos un ejemplo en el que obtengamos la solución homogénea y la solución particular por separado para después sumarlas y obtener la solución general.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{dy}{dx} = -y + x^{2}$$

Solución: Comenzamos por reescribir la ecuación en la forma canónica (\ref{5}).

$$\dfrac{dy}{dx} + y = x^{2}$$

Identificamos que $P(x) = 1$ y $Q(x) = x^{2}$. Con el valor de $P(x)$ calculemos el factor integrante omitiendo las constantes.

$$\mu (x) = e^{\int{P(x) dx}} = e^{\int dx} = e^{x}$$

Esto es,

$$\mu (x) = e^{x}$$

La solución homogénea en términos del factor integrante es

$$y_{h}(x) = k e^{-\int P(x) dx} = \dfrac{k}{\mu(x)}$$

Sustituimos el valor del factor integrante.

$$y_{h}(x) = \dfrac{k}{e^{x}} \label{16} \tag{16}$$

Esta función corresponde a la solución de la ecuación homogénea asociada

$$\dfrac{dy}{dx} + y = 0$$

Para obtener la solución particular usemos el resultado (\ref{13}), donde

$$\int{\mu (x)Q(x) dx} = \int{e^{x} x^{2} dx}$$

Resolvamos la integral usando integración por partes con $u(x) = x^{2}$ y $dv(x) = e^{x}$.

$$\int{e^{x} x^{2} dx} = x^{2} e^{x} -\int{2x e^{x} dx}$$

Para la nueva integral volvemos a hacer integración por partes usando $r(x) = x$ y $ds(x) = e^{x}$.

\begin{align*}
\int{e^{x} x^{2} dx} &= x^{2} e^{x} -2 \left(x e^{x} -\int{e^{x} dx}\right) \\
&= x^{2} e^{x} -2x e^{x} + 2e^{x} \\
&= e^{x}\left(x^{2} -2x + 2\right)
\end{align*}

Podemos omitir las contantes de integración. Sustituyamos este resultado en la solución particular.

\begin{align*}
y_{p}(x) &= \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \\
&= \dfrac{1}{e^{x}} \left[ e^{x} \left( x^{2} -2x + 2 \right) \right] \\
&= x^{2} -2x + 2 \\
&= x^{2} -2 \left(x-1\right)
\end{align*}

Por lo tanto, la solución particular de la ecuación diferencial no homogénea es

$$y_{p}(x) = x^{2} -2(x -1) \label{17} \tag{17}$$

La solución general la obtenemos de sumar los resultados (\ref{16}) y (\ref{17}).

$$y(x) = \dfrac{k}{e^{x}} + \left( x^{2} -2 \left( x -1\right) \right)$$

Por lo tanto, la solución general de la ecuación diferencial dada es

$$y(x) = x^{2} -2 \left(x-1\right) + \dfrac{k}{e^{x}}$$

$\square$

Con esto concluimos esta entrada, en la siguiente estudiaremos el método de variación de parámetros.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las siguientes ecuaciones diferenciales lineales de primer orden, obtener las soluciones generales $y(x)$ calculando primero la solución homogénea $y_{h}(x)$, después la solución particular $y_{p}(x)$ y finalmente sumando los resultados. (Se pueden omitir las constantes de integración en el proceso).
  • $\dfrac{dy}{dx} -y = e^{2x}$
  • $\dfrac{dy}{dx} + y = e^{2x}$
  • $x \dfrac{dy}{dx} + 4y = x^{-3}e^{x}$
  • $x^{2} \dfrac{dy}{dx} = -2xy + 3e^{3x}$
  1. Resolver la siguiente ecuación diferencial sujeta a la condición inicial dada (problema con valores iniciales).
  • $\dfrac{dy}{dx} + y = e^{-x}, \hspace{1cm} y(0) = -\dfrac{1}{4}$.
  1. Resolver el siguiente problema.
  • Un marcapasos de corazón consiste en un interruptor, una batería de voltaje constante $E_{0}$, un capacitor con capacitancia constante $C$ y un corazón como un resistor con resistencia constante $R$. Cuando se cierra el interruptor, el capacitor se carga; cuando el interruptor se abre, el capacitor de descarga enviando estímulos eléctricos al corazón. Todo el tiempo el corazón se está estimulando, el voltaje $E$ a través del corazón satisface la ecuación diferencial lineal
    $$\dfrac{dE}{dt} = -\dfrac{1}{RC}E$$
    Resolver la ecuación diferencial sujeta a la condición inicial $E(4) = E_{0}$.
  1. Intenta justificar el hecho de que podamos omitir las constantes de integración en los métodos de resolución vistos.

Más adelante…

¡Ya resolvimos analíticamente nuestras primeras ecuaciones diferenciales!. Gran logro.

En la siguiente entrada estudiaremos el método de variación de parámetros para obtener la solución particular de la ecuación diferencial no homogénea y estableceremos una serie de pasos a seguir para resolver este tipo de ecuaciones sin tener que memorizar las formulas de las soluciones.

Finalmente retomaremos el teorema de existencia y unicidad y lo estudiaremos en el contexto de las ecuaciones diferenciales lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral: Resultados derivados de los teoremas del valor intermedio y del máximo-mínimo

Por Juan Manuel Naranjo Jurado

Introducción

Anteriormente revisamos el teorema del valor intermedio y el teorema del máximo-mínimo. Esta entrada será un complemento a las anteriores, pues estudiaremos resultados derivados de tales teoremas.

La raíz $k$-ésima

Iniciaremos esta entrada probando que todo número real positivo tiene raíz cuadrada y, posteriormente probaremos que todo número real positivo tiene raíz $k$-ésima.

Proposición. Para todo $a \in \mathbb{R}$, $a >0$, existe $b >0$ tal que $b^2 = a$. Es decir, todo real positivo tiene raíz cuadrada.

Demostración.

Sea $a > 0$.

Consideremos la función $f(x) = x^2$, $f$ es continua en $\mathbb{R}$. Notemos que $f(0) = 0^2 = 0$. Además, como $\mathbb{N}$ no está acotado superiormente, existe $n \in \mathbb{N}$ tal que $a<n$. Entonces

$$f(n) = n^2 \quad \text{y} \quad a<n \leq n^2 = f(n).$$

Por lo anterior, se tiene que $f$ es continua en $[0, n]$ y $f(0)<a<f(n)$. Por el teorema del valor intermedio, existe $c \in \mathbb{R}$, $0<c<n$ tal que $f(c)=a$, es decir, $c^2 = a.$
Consideremos $b = c$, entonces $b^2 = a.$

$\square$

Definición. Sean $a > 0$, $b > 0$, $k \in \mathbb{N}$, decimos que $b$ es la raíz $k$-ésima de $a$ si $b^k = a$ y lo denotamos como $b = \sqrt[k]{a}.$

Proposición. Para todo $a >0$, todo $k \in \mathbb{N}$, existe la raíz $k$-ésima de $a.$

Demostración.

Sean $a>0$ y $k \in \mathbb{N}.$

Consideremos la función $f(x) = x^k$, continua en $\mathbb{R}$. Entonces, para algún $n \in \mathbb{N}$ se tiene que

$$f(0) = 0^k = 0 < a < n \leq n^k = f(n).$$

Por el teorema del valor intermedio, existe $b$ tal que $0<b<n$ y $f(b) = a.$

$$\therefore b^k = a.$$

$\square$

Notemos que en la definición dada consideramos únicamente los valores positivos que cumplen $b^k = a,$ de esta forma, $b$ es único.

Proposición. La raíz $k$-ésima es única.

Demostración.

Si existen $b > 0$, $c > 0$ tal que $b^k = a$ y $c^k = a$.
Si $b \neq c$ entonces $b > c$ ó $b<c$.
\begin{gather*}
\text{Si } b < c \Rightarrow b^k < c^k \Rightarrow a < a \text{ (contradicción).} \\
\text{Si } b > c \Rightarrow b^k > c^k \Rightarrow a > a \text{ (contradicción).}
\end{gather*}

$$\therefore b = c.$$

$\square$

Polinomios

Otro de los resultados derivados del teorema del valor intermedio es la existencia de las raíces para cierto tipo de polinomios.

Teorema. Si $n$ es impar, entonces cualquier ecuación de la forma

$$x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = 0$$

tiene una raíz.

Demostración.

La demostración se basa en probar que existen $x_1$ y $x_2$ tales que la función $f(x) = x^n+a_{n-1}x^{n-1}+ \ldots + a_0$ cumple $f(x_1) < 0$ y $f(x_2) >0$. Además, dado que $f$ es continua, podremos usar el teorema del valor intermedio y concluir que existe $x_0$ tal que $f(x_0) = 0$, es decir, que la ecuación $x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = 0$ tiene una raíz.

A continuación haremos una manipulación algebraica que permitirá mostrar de forma más sencilla que mientras $|x| \to \infty$, entonces $f$ tendrá un comportamiento similar a la función $g(x) = x^n$ y considerando que $n$ es impar, entonces para valores positivos lo suficientemente grandes $f$ será positivo, mientras que para valores negativos lo suficientemente grandes, $f$ será negativo.

$$ f(x) = x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = x^n \left( 1+\frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right), \quad \text{para } x \neq 0.$$

Daremos inicio a la demostración viendo que

$$\left\lvert \frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right\rvert \leq \frac{|a_{n-1}|}{|x|} + \ldots + \frac{|a_{0}|}{|x^n|}.$$

Ahora trataremos de acotar la expresión anterior, para ello estamos buscando $|x|$ lo suficientemente grande para acotar la suma de $n$ términos de la forma $\frac{|a_{n-k}|}{|x^k|} $. Primero vayamos con el denominador y notemos que si $|x|>1$, entonces se tiene que $|x|^k \geq|x|$ para todo $k \in \mathbb{N}$. Esto implica que $\frac{1}{|x|^k } \leq \frac{1}{|x|}.$ Para el numerador es suficiente considerar el máximo de los términos $|a_{n-k}|$ y sumarlo $n$-veces, es decir, el máximo de los $n|a_{n-k}|.$ Sin embargo, por fines algebraicos (visibles en $(2)$), utilizaremos $2n|a_{n-k}|.$

De esta forma, si $$|x| > max\{1, 2n|a_{n-1}|, \dots, 2n|a_0|\}, \tag{1}$$
entonces $|x^k|>|x|$ y

$$\frac{|a_{n-k}|}{|x^k|} < \frac{|a_{n-k}|}{|x|} < \frac{|a_{n-k}|}{2n|a_{n-k}|} = \frac{1}{2n}$$

es decir,

$$\left\lvert \frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right\rvert \leq \frac{1}{2n} + \frac{1}{2n} + \ldots + \frac{1}{2n}= \frac{n}{2n} =\frac{1}{2}.$$

$$\Rightarrow -\frac{1}{2} \leq \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n} \leq \frac{1}{2}.$$

Sumando $1$ a la expresión anterior, se sigue que

$$\frac{1}{2} \leq 1 + \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n}. \tag{2}$$

Si consideramos $x_1 < 0$ que satisface $(1)$, entonces $x_1^n < 0$ puesto que $n$ es impar, y de la expresión anterior se obtiene

$$0 > \frac{x_1^n}{2} \geq x_1^n \left( 1 + \frac{a_{n-1}}{x_1} + \ldots + \frac{a_0}{x_1^n} \right) = f(x_1).$$

Por otro lado, si consideramos $x_2 > 0$ tal que satisface $(1)$, entonces $x_2^n >0$ y así tenemos

$$0 < \frac{x_2^n}{2} \leq x_2^n \left( 1 + \frac{a_{n-1}}{x_2} + \ldots + \frac{a_0}{x_2^n} \right) = f(x_2).$$

Por lo cual $f(x_1) < 0$ y $f(x_2) > 0$. Por el teorema del valor intermedio, concluimos que existe $x_0 \in [x_1,x_2]$ tal que $f(x_0) = 0$.

$\square$

Después de haber probado el teorema anterior, podemos notar que fue fundamental en la demostración usar que $n$ es impar. El caso cuando $n$ es par se convierte en un problema más complejo derivado del hecho de que hay algunos polinomios que no tienen solución en los reales, tal es el caso de $x^2+1 = 0$; sin embargo, para este tipo de polinomios podemos probar que existe un mínimo.

Teorema. Si $n$ es par y $f(x) = x^n+a_{n-1}x^{n-1} + \ldots + a_0$, entonces existe un $x_0$ tal que $f(x_0) \leq f(x)$ para todo $x \in \mathbb{R}$.

Demostración.

Por el teorema del máximo-mínimo, sabemos que toda función continua en un intervalo cerrado $[a,b]$ tiene un mínimo en dicho intervalo. Así que nos enfocaremos en encontrar un mínimo para cuando nuestra función esté fuera de tal intervalo.

De forma similar a la demostración anterior, consideremos $M = max\{1, 2n|a_{n-1}|, \dots, 2n|a_0| \}$, entonces para todo $x$ que satisfaga $|x| \geq M$, se tiene que

$$\frac{1}{2} \leq 1 + \frac{a_{n-1}}{x} + \ldots+ \frac{a_0}{x^n}.$$

Como $n$ es par, $x^n>0$ para todo $x$, por tanto

$$\frac{x^n}{2} \leq x^n \left( 1 + \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n} \right) = f(x), \text{si } |x|\geq M.$$

Consideremos ahora el número $f(0)$. Sea $b > 0$ un número tal que $b^n \geq 2f(0)$ y $b>M$. Entonces si $x \geq b$, obtenemos

$$f(x) \geq \frac{x^n}{2} \geq \frac{b^n}{2} \geq f(0). \tag{1}$$

Análogamente, si $x \leq -b$, entonces

$$f(x) \geq \frac{x^n}{2} \geq \frac{(-b)^n}{2}= \frac{b^n}{2} \geq f(0). \tag{2}$$

Por lo que si $x \geq b$ ó $x \leq -b$, entonces $f(x) \geq f(0)$.

Dado que $f$ es continua, podemos aplicar el teorema del máximo-mínimo en el intervalo $[-b,b],$. Por tanto, existe un número $x_0$ tal que si $-b \leq x \leq b$, entonces $f(x_0) \leq f(x)$. En particular, $f(x_0) \leq f(0)$.

Además, por $(1)$ y $(2)$ sabemos que si $x \geq b$ ó $x \leq -b$, entonces $f(x) \geq f(0) \geq f(x_0)$.

Por lo anterior, podemos concluir que $f(x_0) \leq f(x)$ para todo $x$.

$\square$

Más adelante…

En la siguiente entrada daremos la definición de continuidad uniforme y veremos su relación con el concepto que conocemos de continuidad. También revisaremos el concepto de funciones de Lipschitz y el papel que juegan dentro de la continuidad.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Supongamos que $f$ es una función continua en $[0,1]$ y que $f(x)$ pertenece al intervalo $[0,1]$ para cada $x$. Demuestra que $f(x) = x$ para algún $x$.
  • Demuestra que existe algún número $x$ tal que $sen(x) = x-1$.
  • Encuentra la solución al polinomio $x^5+5x^4+2x+1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: El teorema espectral y de descomposición polar complejos

Por Ayax Calderón

Introducción

Ya hablamos de qué son las transformaciones adjuntas en el caso de los espacios hermitianos, que podemos pensar como el equivalente complejo a los espacios euclideanos. A partir de esto, hablamos de quienes son las transformaciones que preservan el producto interior hemitiano (y por lo tanto la norma hermitiana): las transformaciones unitarias.

Lo que haremos ahora es dar el análogo al teorema espectral real, pero para el caso complejo. En el caso real el resultado es para transformaciones o matrices simétricas. En el caso complejo eso no funcionará. Primero, tenemos que introducir a las transformaciones hermitianas, que serán las que sí tendrán un teorema espectral. Ya eligiendo la noción correcta, las demostraciones se parecen mucho a las del caso real, así que solamente las esbozaremos y en caso de ser necesario haremos aclaraciones pertinentes para la versión compleja.

Transformaciones hermitianas

La noción correcta que necesitamos para enunciar y demostrar el teorema espectral es la siguiente.

Definición. Sea $V$ un espacio hermitiano con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Diremos que una transformación lineal $T:V\to V$ es hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.

Diremos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

La conexión entre las transformaciones hermitianas y las matrices hermitianas es la siguiente.

Teorema. Sea $V$ un espacio hermitiano y $\mathcal{B}=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. Las transformación $T$ es hermitiana si y sólo si la matriz $A=Mat_{\mathcal{B}}(T)$ es hermitiana.

Demostración. Recordemos que si $\mathcal{B}$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como $$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$

Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_i \rangle .$$

Hagamos ahora sí la demostración del si y sólo si. Supongamos primero que $T$ es hermitiana. Tenemos entonces que:

\begin{align*}
A_{ji}&=\langle T(e_i),e_j\rangle\\
&=\langle e_i, T(e_j) \rangle\\
&=\overline{\langle T(e_j),e_i \rangle}\\
&=\overline{A_{ij}}.
\end{align*}

La tercer igualdad se sigue pues para el producto interior hermitiano al intercambiar las entradas se conjuga. Así $A$ es hermitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle \\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}\\
&=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle\\
&=\langle x,T(y) \rangle.
\end{align*}

Por lo tanto $T$ es hermitiana.

$\square$

El teorema espectral complejo

En el siguiente teorema resumimos tanto los resultados auxiliares para demostrar el teorema espectral en el caso complejo (1 y 2), como el teorema espectral mismo (3).

Teorema. Sea $V$ un espacio hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacios.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, tenemos lo siguiente. $$t||x||^2=\langle x, tx \rangle =\langle x, T(x) \rangle = \langle T(x), x \rangle = \langle tx,x\rangle = \overline{t}||x||^2.$$ Como $x\neq 0$, podemos cancelar $||x||$ de ambos lados para obtener $t=\overline{t}$ y por lo tanto $t$ es real. Compara esta demostración con la del caso real, ¡en esta ocasión es mucho más sencillo!
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)\in W$ ya que $W$ es $T$-estable. Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además, $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $\mathcal{B}$ de $V$ tal que $A= Mat_{\mathcal{B}}(T)$ es una matriz triangular superior. Recordemos que $Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*$, se sigue que
    $$A=Mat_{\mathcal{B}}(T)=Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Por ello, $\mathcal{B}$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:

Teorema. Si $V$ es un espacio hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $\mathcal{B}$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_{\mathcal{B}}(T)$. Como los elementos de $\mathcal{B}=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todo eigenvector es real, entonces $A$ es de entradas reales, pues $a_{ii}=t_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Finalmente, enunciamos la versión del teorema espectral para matrices.

Teorema (teorema espectral complejo). Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana. Existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

El teorema de descomposición polar complejo

A partir del teorema espectral complejo se puede demostrar también un teorema de descomposición polar complejo. El resultado es el siguiente.

Teorema (descomposición polar compleja). Sea $A\in M_n(\mathbb{C})$ una matriz invertible. Entonces existen una única matriz unitaria $U$ y una única matriz hermitiana $H$ con eigenvalores positivos tales que $A=UH$.

También hay una versión para cuando la transformación no es invertible. La discusión y las pruebas son análogas a lo que se platicó en la entrada de descomposición polar.

Más adelante…

Con esta entrada terminamos la tercera unidad de nuestro curso. En esta tercera unidad las transformaciones que estudiamos cumplen propiedades bonitas: ser ortogonales, diagonales, unitarias, etc. A partir de ello hay clasificaciones muy detalladas: la clasificación de matrices ortogonales, el teorema espectral, el teorema de descomposición polar. En la cuarta unidad hablaremos de otra manera en la que podemos «simplificar» cualquier transformación lineal o matriz: mediante formas canónicas. La ventaja es que la cantidad de matrices que podremos simplificar será mucho mayor, aunque la ligera desventaja es que ya no tendremos una forma «diagonal» sino una «casi diagonal».

Tarea moral

  1. Encuentra una diagonalización de $\begin{pmatrix} 1+i & 2i \\ -2i & 1-i \end{pmatrix}$. Encuentra la descomposición polar de $\begin{pmatrix} 1+i & 1-i \\ 2i & 2-i\end{pmatrix}.$
  2. Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación: Si $\norm{U(x)}=\norm{x}$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitaria.
  3. Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  4. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  5. Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»