Cálculo Diferencial e Integral I: Axioma del supremo y sus aplicaciones

Por Karen González Cárdenas

Introducción

Durante toda esta unidad hemos visto una serie de propiedades que cumple el conjunto de los reales $\r$, sin embargo, debemos añadir a la lista una relacionada con la completitud de $\r$: el Axioma del Supremo. Para ello comenzaremos hablando de la completitud de $\r$, lo enunciaremos y veremos algunas de sus consecuencias.

Una idea de completitud en $\r$

La completitud de los reales afirma que el conjunto $\r$ rellena a toda la recta numérica sin dejar agujeros. Por lo que cada número real tiene asignado un punto de la recta real:
$$punto \quad en \quad la \quad recta = número \quad real$$
Previamente hemos hecho uso de esta idea al representar gráficamente al conjunto $\r$ utilizando una recta. En el curso veremos dos enunciados que enunciarán esta propiedad: el Axioma del Supremo y Completitud por Cortaduras de Dedekind.

Consideramos como parte de nuestro conjunto de propiedades al Axioma del Supremo, por lo que el enunciado de Cortaduras de Dedekind será un tema adicional para esta unidad.

Axioma del Supremo

En la entrada anterior ya empezamos a platicar de algunas de las impliciciones del siguiente axioma.

Axioma del Supremo: Si $A \subseteq \r$ es no vacío y $A$ es acotado superiormente entonces existe $\alpha \in \r$ tal que:
$$\alpha = sup(A)$$

Pese a lo simple que pueda parecer, más adelante veremos su importancia, ya que muchos resultados y propiedades de $\r$ son consecuencia de este.

Hablemos del ínfimo

Veremos que el enunciado anterior tiene como una de sus consecuencias a su análogo, hablando ahora del ínfimo de un conjunto.

Teorema del ínfimo: Si $A \subseteq \r$ no vacío y $A$ es acotado inferiormente entonces existe $\beta \in \r$ tal que:
$$\beta= inf(A)$$

Demostración:
Sea $A \neq \emptyset$ acotado inferiormente. Ahora consideremos el siguiente conjunto:
$$ B = \left\{ -x \in \r | x \in A \right\}$$

Como $A$ es acotado inferiormente entonces existe $m \in \r$ que es cota inferior de $A$. Así se cumple la siguiente desigualdad para todos los $x \in A$:

$m \leq x \Leftrightarrow -m \geq -x$ para toda $-x \in B$.
Por tanto, $-m$ es cota superior de $B$. Concluimos así que $B$ es no vacío y acotado superiormente. Aplicando el Axioma del Supremo tenemos que existe $\alpha = sup(B)$.

Recordemos que por definición $\alpha$ cumple:

  1. $\alpha$ es cota superior de $B$ para cualquier $-x \in B$.
  2. Es la menor de las cotas superiores de $B$, por lo que si $\alpha_0$ es cota superior de $B$
    $\Rightarrow \alpha < \alpha_0$
  3. Además $-x \leq \alpha$.

Del punto $3$ observamos que:
$$x \geq -\alpha \quad \forall x \in A.$$
$\Rightarrow -\alpha$ cota inferior de $A$.


Nos falta ver qué $- \alpha$ es la mayor de las cotas inferiores de $A$. Notemos que del punto $2$ tenemos que:
$$ -\alpha>-\alpha_0.$$
donde $-\alpha_0$ es cota inferior de $A$.
$$\therefore -\alpha=inf(A).$$

$\square$

$\mathbb{N}$ y $\r$ no acotados superiormente

Teorema: El conjunto $\mathbb{N}$ no es acotado superiormente.

Demostración: Procederemos por contradicción. Supongamos que $\mathbb{N}$ es acotado superiormente por lo que existe $M \in \r$ tal que $M$ es cota superior de $\mathbb{N}$. Aplicando el Axioma del Supremo existe:
$$\alpha = sup(\mathbb{N})$$

entonces:

  • $\alpha$ es cota superior de $\mathbb{N}$
  • $\alpha$ es la menor de las cotas superiores de $\mathbb{N}$

Como para toda $n \in \mathbb{N}$:
$$n \leq \alpha$$
Y $n+1 \in \mathbb{N}$ entonces:
$$n+1 \leq \alpha \Leftrightarrow n \leq \alpha -1$$

Ya que para toda $n \in \mathbb{N}$ se cumple:
$$n \leq \alpha -1$$

donde vemos que $\alpha -1$ es cota superior de $\mathbb{N}$ y además:
$$\alpha -1 < \alpha \quad \contradiccion$$
lo que contradice la definición de $\alpha$.

$\square$

Corolario: El conjunto $\r$ no es acotado superiormente.

Demostración: Procederemos por contradicción, por lo que supongamos que $\r$ es un conjunto acotado superiormente. Ya que sabemos $\mathbb{N} \subseteq \r$ y $\r$ es acotado tendríamos que:
$\mathbb{N}$ es acotado $\contradiccion$ lo cual es una contradicción al teorema anterior.

$\square$

Propiedad de Arquímedes

Teorema (Propiedad de Arquímedes): Si $x >0$ y $y \in \r$ entonces existe $N \in \mathbb{N}$ tal que $$y < Nx$$

Demostración (Por contradicción): Suponemos que no se cumple, es decir,
$\exists x >0$ y $y \in \r$ tal que $\forall n \in \mathbb{N}$ ocurre que $y > nx$
Ya que $x>0$ entonces para cualquier $n \in \mathbb{N}$:
$$\frac{y}{x} > n$$
por lo que $\frac{y}{x}$ es cota superior de $\mathbb{N}$.

Concluimos que $\mathbb{N}$ es acotado superiormente lo que sabemos es una contradicción.

$\square$

Corolario: Para todo $x >0$ existe $n \in \mathbb{N}$ tal que
$$ \frac{1}{n} < x$$

Demostración: Ejercicio como Tarea moral.

Ejercicio

Sean $A \subseteq \r$ y $\lambda >0$ con $\alpha = sup(A)$. Para el conjunto
$$\lambda A := \left\{ x:x=\lambda a \quad\text{con}\quad a \in A \right\}$$
Es decir, el conjunto $\lambda A$ consiste en los reales $x$ que son de la forma $x= \lambda a$ para algún $a$ en $A$.
Prueba que existe $sup(\lambda A)$ y que $sup(\lambda A)= \lambda \alpha$.
Demostración:

Sea $a \in A$ entonces se sigue que $a \leq \alpha$ así al multiplicar por $\lambda >0$:
$$\Rightarrow \lambda a \leq \lambda \alpha$$

Ya que $\lambda a =x \in \lambda A \Rightarrow \lambda A$ es acotado superiormente y $\lambda \alpha$ es cota superior.

Aplicando el Axioma del Supremo afirmamos que existe $\beta := sup(\lambda A)$ y además:
$$\beta \leq \lambda \alpha.$$

Falta probar que $\beta \geq \lambda \alpha$
Si tomamos $x \in \lambda A$ entonces $x = \lambda a$ y $\lambda a \leq \beta$:
$$\Rightarrow a \leq \frac{\beta}{\lambda}$$

Y por la definición de supremo se sigue:
$$\alpha \leq \frac{\beta}{\lambda} \Leftrightarrow \lambda \alpha \leq \beta$$
Así concluimos:
$$\therefore \beta = \lambda \alpha$$
$$\therefore \lambda sup(A) = sup(\lambda A)$$

$\square$

Otras aplicaciones

A continuación sólo enunciaremos un teorema en el cual el Axioma del Supremo es aplicado. Dado que en este punto no hemos revisado los conceptos de sucesión ni de límite, más adelante se verá su demostración.

Teorema: Si $\{ a_n \}$ es una sucesión en $\mathbb{R}$ no decreciente y acotada superiormente entonces es una sucesión convergente.

Más adelante

En la próxima entrada veremos un poco sobre las Cortaduras de Dedekind y la completitud de $\r$, éste será considerado como un tema adicional para esta unidad.

Tarea moral

  • Demuestra que para todo $x >0$ existe $n \in \mathbb{N}$ tal que
    $$ \frac{1}{n} < x$$
  • Prueba que si $a<b$ e $I=(a,b)$ es un intervalo en $\r$ entonces $sup(I)=b$ y $inf(I)=a$.
    Sugerencia: Utiliza el resultado anterior y procede haciendo uso de las respectivas definiciones.
  • Sean $A,B \subseteq \r$ con $\alpha = sup(A)$ y $\beta=sup(B)$. Definimos el siguiente conjunto
    $$ A+B := \left\{ x:x=a+b; a \in A, b \in B \right\}$$
    Demuestra que existe $sup(A+B)$ y que $sup(A+B)= \alpha + \beta$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Continuidad uniforme

Por Juan Manuel Naranjo Jurado

Introducción

En las entradas anteriores nos enfocamos en estudiar la definición de continuidad y sus propiedades. Especialmente, los teoremas revisados empleaban fuertemente el concepto de continuidad en un intervalo. En esta entrada haremos la revisión de un tipo de continuidad aún más exigente: la continuidad uniforme.

Primero recordemos que una función es continua en un intervalo $A$ si lo es para cada uno de sus elementos. Es decir,

$$\lim_{x \to y} f(x) = f(y) \quad \forall y \in A.$$

En términos de la definición del límite, lo podemos ver de la siguiente forma: Dado $\varepsilon > 0$ y $y \in [a,b]$, existe $\delta > 0$ tal que para todo $x \in A$ tal que $0 < |x – y| < \delta$ se satisface que $|f(x)-f(y)| < \varepsilon$. Es importante enfatizar que, en general, el valor de $\delta$ dependerá tanto de $\varepsilon$ como de $y$.

Analicemos con mayor detalle los siguientes ejemplos:

$$f(x) = x, \quad g(x) = x^2.$$

Ambas funciones son continuas en todo $\mathbb{R}$. Consideremos $y \in \mathbb{R}$ y calculemos el valor de $\delta$ en términos de un valor dado $\varepsilon > 0$ para probar la continuidad en $y$.

Para la función $f$, consideremos $\delta = \varepsilon$. Si $0<|x-y| < \delta$, entonces

$$|f(x) -f(y)| = |x-y| < \delta = \varepsilon.$$

Para $g$, el valor de delta anteriormente dado no funciona. En este caso, como se probó en una entrada anterior, podemos considerar $\delta’ = min \{ 1, \frac{\varepsilon}{1+2|y|} \}$. Si $0 < |x-y| < \delta’$, entonces

\begin{align*}
|x^2-y^2| & = |x-y||x+y| \\ \\
& < |x-y|(1+2|y|) \\ \\
& < \delta’ (1+2|y|) \\ \\
& \leq \frac{\varepsilon}{1+2|y|} \cdot (1+2|y|) \\ \\
& = \varepsilon.
\end{align*}

Podemos observar que el valor de $\delta$ para $f$ depende únicamente de $\varepsilon$, mientras que para la función $g$, depende tanto de $\varepsilon$ como de $y$. Esto debido a que $g$ tiene cambios más «drásticos» que $f$.

Continuidad uniforme

Motivado directamente de lo anterior, si $\delta$ funciona para cualesquiera $x$, $y$, es decir, no depende de $y$, entonces tenemos la siguiente definición.

Definición. Sea $f: A \to \mathbb{R}$. Se dice que $f$ es uniformemente continua en $A$ si para todo $\varepsilon > 0$ existe $\delta > 0$ tal que para cualesquiera $x$, $y \in A$ que satisfacen $|x-y| < \delta$, entonces $|f(x) – f(y)| < \varepsilon$.

De la definición se sigue que toda función uniformemente continua es continua. Sin embargo, el recíproco no es cierto y como contraejemplo tenemos la función $g(x) = x^2$ que es continua, pero por lo revisado al inicio podemos decir intuitivamente que no es uniformemente continua en $\mathbb{R}$. Considerando esto, vale la pena mencionar algunos criterios que permiten identificar cuando una función $f$ no es uniformemente continua.

Criterios de no continuidad uniforme. Sea $f: A \to \mathbb{R}$. Entonces los siguientes enunciados son equivalentes.

  1. $f$ no es uniformemente continua en $A$.
  2. Existe $\varepsilon_0 > 0$ tal que para todo $\delta > 0$ existen los puntos $x_\delta$, $y_\delta$ en $A$ tales que $|x_\delta – y_\delta| < \delta,$ pero $|f(x_\delta) – f(y_\delta)| \geq \varepsilon_0$.
  3. Existe $\varepsilon_0 > 0$ y dos sucesiones $\{x_n\}$, $\{y_n\}$ tales que $\lim\limits_{n \to \infty} (x_n-y_n) = 0$ y $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para todo $n \in \mathbb{N}$.

Ahora revisaremos un teorema que nos servirá para saber en qué momento se tiene continuidad uniforme en un intervalo de la forma $[a,b]$.

Teorema de continuidad uniforme. Si $f$ es continua en un intervalo acotado y cerrado $[a,b]$, entonces $f$ es uniformemente continua.

Demostración.

Supongamos que $f$ no es uniformemente continua en $[a, b]$. Entonces existe $\varepsilon_0 > 0$ y dos sucesiones $\{x_n\}$ y $\{y_n\}$ en $[a,b]$ tales que $|x_n-y_n| < \frac{1}{n}$, pero $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para todo $n \in \mathbb{N}$.

Dado que $[a, b]$ está acotado, la sucesión $\{x_n\}$ también está acotada. De esta forma, por el teorema de Bolzano-Weierstrass, existe una subsucesión $\{ x_{n_k} \}$ de $\{x_n\}$ que converge a un real $z$. Además, como $[a, b]$ es un intervalo cerrado, el límite $z$ pertenece al intervalo (por el corolario revisado en esta entrada). Notemos que para la subsucesión $\{y_{n_k}\}$, se tiene que

$$|y_{n_k} – z| \leq |y_{n_k} – x_{n_k}| + |x_{n_k} – z|.$$

Por lo que se sigue que $\{y_{n_k} \}$ también converge a $z$.

Además, si $f$ es continua en el punto $z$, entonces las subsucesiones $\{f(x_{n_k}) \}$ y $\{f(y_{n_k}) \}$ convergen a $f(z)$. Pero esto es una contradicción, pues $|f(x_n)-f(y_n)| \geq \varepsilon_0$ para todo $n \in \mathbb{N}$.

Así, la hipótesis de que $f$ no es uniformemente continua en el intervalo acotado y cerrado $[a, b]$ implica que $f$ no es continua en algún punto $z \in [a,b]$. Por tanto, concluimos que si $f$ es continua en todo punto del intervalo $[a, b]$, entonces $f$ es uniformemente continua.

$\square$

Retomando el ejemplo $g(x) = x^2$, $g$ no es uniformemente continua en $\mathbb{R}$, sin embargo, sí es uniformemente continua en cualquier intervalo $[a,b]$. En particular, podemos modificar ligeramente el valor de delta que se propuso anteriormente $\delta’ = min \{ 1, \frac{\varepsilon}{1+2|y|} \}$, y usar en su lugar $\delta = min \{ 1, \frac{\varepsilon}{1+2 max\{|a|, |b| \}} \}$. Notemos que este último valor no depende de $y$.

Funciones Lipschitz

Probar mediante la definición que una función es uniformemente continua puede ser una tarea difícil. Por ello, revisaremos una condición que, de cumplirse, nos facilitará este problema.

Definición. Sea $f: A \to \mathbb{R}$. Si existe una constante $K > 0$ tal que
$$|f(x) – f(y)| \leq K|x-y|$$

para todos $x$, $y \in A$, entonces se dice que $f$ es una función de Lipschitz en $A$.

La definición anterior nos permite clasificar a las funciones que cumplen que

$$\frac{|f(x) – f(y)|}{|x-y|} \leq K, \quad x \neq y.$$

Observemos que el miembro izquierdo de la desigualdad es el valor absoluto de la pendiente de la recta que pasa por los puntos $(x, f(x))$ y $(y, f(y))$. Así, podemos interpretar que una función es de Lipschitz si la pendiente de la recta formada por cualesquiera dos puntos en la gráfica de $f$ está acotada por algún valor $K$.

Teorema. Si $f: A \to \mathbb{R}$ es una función de Lipschitz, entonces $f$ es uniformemente continua.

Demostración.

Sea $\varepsilon > 0$.

Como $f$ es una función de Lipschitz, existe $K > 0$ tal que para cualesquiera $x, y \in A$, $|f(x) – f(y)| \leq K|x-y|.$

Consideremos $\delta = \frac{\varepsilon}{K}$. Si $|x-y| < \delta$, entonces se tiene que

\begin{align*}
|f(x)-f(y)| & < K|x-y| \\
& < K \frac{\varepsilon}{K} \\ 
& = \varepsilon.
\end{align*}

Por tanto, $f$ es uniformemente continua.

$\square$

Revisemos un ejemplo donde se prueba continuidad uniforme a través del teorema anterior.

Ejemplo 1. La función $f(x) = x^2$ es uniformemente continua en $A = [0, b]$, con $b > 0$.

Demostración.

Notemos que

\begin{align*}
|f(x)-f(y)| & = |x^2 – y^2| \\
& = |x+y||x-y| \\
& \leq 2b |x-y|.
\end{align*}

$$\therefore |f(x)-f(y)| \leq 2b |x-y|.$$

Consideremos $K = 2b$. Como $f$ es de Lipschitz, entonces es uniformemente continua.

$\square$

Cabe resaltar que no toda función uniformemente continua es de Lipschitz, para probarlo veamos el siguiente ejemplo.

Ejemplo 2. La función $f(x) = \sqrt{x}$ es uniformemente continua en $A = [0,2]$, pero no es de Lipschitz.

Demostración.

Como $f$ es continua en el intervalo cerrado y acotado $[0,2]$, entonces $f$ es uniformemente continua.

Consideremos $x$, $y \in A$ con $y = 0$, $x \neq 0$ y supongamos que existe $K > 0$ tal que $|f(x)-f(0)| \leq K|x – 0|$, es decir $|g(x)| < K|x|$. Entonces

\begin{gather*}
& |\sqrt{x}| < K |x|.
\end{gather*}

Como $x \in A$, se sigue que
\begin{gather*}
& \sqrt{x} < K x. \\ \\
\Leftrightarrow & \frac{\sqrt{x}}{x} < K. \\ \\
\Leftrightarrow & \frac{1}{\sqrt{x}} < K \tag{1}.
\end{gather*}

Además, notemos que $1<K+1$, esto implica que $1<(K+1)^2$. Es decir, $ \frac{1}{(K+1)^2} < 1$. Por tanto, $\frac{1}{(K+1)^2} \in (0,1) \subset A$.

De está forma, podríamos considerar particularmente a $x \neq 0$ como $x = \frac{1}{(K+1)^2}$. Sin embargo, también debe cumplir $(1)$, esto implica que $K +1 < K$. Lo cual es una contradicción. Por tanto, $f$ no es de Lipschitz.

$\square$

Finalmente, veremos un ejemplo donde usamos los dos teoremas vistos en esta entrada con la finalidad de probar continuidad uniforme.

Ejemplo 3. Prueba que la función $f(x) = \sqrt{x}$ es uniformemente continua en $A = [0, \infty)$.

Demostración.

Del ejemplo anterior, sabemos que $f$ es uniformemente continua en el intervalo $[0,2]$. Ahora probaremos que también lo es en el intervalo $[1,\infty).$

Sean $x$, $y \in [1, \infty)$, entonces se tiene que

\begin{align*}
|f(x)-f(y)| & = | \sqrt{x}-\sqrt{y}| \\
& = | \sqrt{x}-\sqrt{y}| \cdot \frac{\sqrt{x}+\sqrt{y}}{\sqrt{x}+\sqrt{y}} \\
& = \frac{|x-y|}{\sqrt{x}+\sqrt{y}} \\
& \leq \frac{1}{2} |x-y|.
\end{align*}

Por lo tanto, $f$ es una función de Lipschitz en el intervalo $[1, \infty)$. Por lo que se sigue que es uniformemente continua en tal intervalo. Como $f$ es uniformemente continua en $[0,2]$ y $[1, \infty)$, entonces también lo es en $A = [0,2] \cup [1, \infty).$

$\square$

Más adelante…

En las siguientes entradas complementaremos el estudio de las funciones continuas revisando propiedades específicas relacionas con las funciones monótonas. Adicionalmente, responderemos una pregunta que surge de forma muy natural: si $f$ es una función continua, ¿qué sucede con su inversa?

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Da un ejemplo de función que sea uniformemente continua.
  • Demostrar que la función $f(x) = \frac{1}{x}$ es uniformemente continua en $[a, \infty)$ siendo $a$ una constante positiva.
  • Prueba que la función $f(x) = \frac{1}{x^2}$ no es uniformemente continua en $(0, \infty)$. Sugerencia: Usa el criterio 3 de no continuidad uniforme y considera las sucesiones $\{ \frac{1}{n} \}$ y $\{ \frac{1}{n+1} \}.$
  • Demuestra que si $f$ y $g$ son funciones uniformemente continuas en $A \subset \mathbb{R}$, entonces $f+g$ también es uniformemente continua en $A.$
  • Demuestra que si $f$ y $g$ son funciones uniformemente continuas en $A \subset \mathbb{R}$ y ambas están acotadas en $A$, entonces $f \cdot g$ es uniformemente continua en $A.$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I: Ecuaciones diferenciales lineales de primer orden y el teorema de existencia y unicidad – Método de variación de parámetros

Por Omar González Franco

Las leyes de la naturaleza no son más que los pensamientos matemáticos de Dios.
– Euclides

Introducción

Hemos comenzado a desarrollar métodos de resolución de ecuaciones diferenciales lineales de primer orden. El tipo de ecuaciones que queremos resolver es

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{1} \tag{1}$$

En la entrada anterior vimos que la solución general $y(x)$ es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$.

$$y(x) = y_{h}(x) + y_{p}(x) \label{2} \tag{2}$$

La solución homogénea está dada como

$$y_{h}(x) = k e^{- \int P(x) dx} = \dfrac{k}{\mu (x)} \label{3} \tag{3}$$

Mientras que la solución particular tiene la forma

$$y_{p}(x) = e^{- \int{P(x) dx}} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \label{4} \tag{4}$$

Donde $\mu (x)$ es el factor integrante

$$\mu(x) = e^{\int{P(x) dx}} \label{5} \tag{5}$$

Así, la solución general de la ecuación diferencial (\ref{1}) es

$$y(x) = k e^{-\int{P(x) dx}} + e^{-\int{P(x) dx}} \left(\int{e^{\int{P(x) dx}}Q(x) dx}\right) \label{6} \tag{6}$$

O de forma más compacta

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + k \right) \label{7} \tag{7}$$

En la entrada anterior mencionamos que hay dos métodos distintos para la obtención de la solución particular, ya presentamos el método por factor integrante, en este entrada vamos a desarrollar el método conocido como variación de parámetros.

Método de variación de parámetros

Sabemos que la solución de la ecuación diferencial homogénea

$$\dfrac{dy}{dx} + P(x) y = 0 \label{8} \tag{8}$$

es

$$y_{h}(x) = k e^{- \int P(x) dx}$$

Este resultado nos incita a suponer que para la ecuación no homogénea

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

la solución particular puede tener la forma

$$y_{p}(x) = k(x) e^{- \int P(x) dx} \label{9} \tag{9}$$

En donde $k$ pasa a ser una función dependiente de $x$. El método de variación de parámetros consiste en determinar justamente la expresión explícita de $k(x)$.

Sustituyamos la solución propuesta (\ref{9}) en la ecuación no homogénea (\ref{1}).

\begin{align*}
\dfrac{dy_{p}}{dx} + P(x) y_{p} &= \dfrac{d}{dx} \left(k e^{- \int P(x) dx} \right) + P(x) k e^{- \int P(x) dx} \\
&= \left[k \dfrac{d}{dx} \left( e^{- \int P(x) dx} \right) + \dfrac{dk}{dx} e^{- \int P(x) dx}\right] + P(x) k e^{- \int P(x) dx} \\
&= – k P(x) e^{- \int P(x) dx} + \dfrac{dk}{dx} e^{- \int P(x) dx} + k P(x) e^{- \int P(x) dx} \\
&= \dfrac{dk}{dx} e^{- \int P(x) dx} \\
&= Q(x)
\end{align*}

De la última igualdad obtenemos que

$$\dfrac{dk}{dx} = e^{\int P(x) dx} Q(x) \label{10} \tag{10}$$

Integremos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{dk}{dx} \right) dx} &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
k(x) + c &= \int{ \left( e^{\int P(x) dx} Q(x) \right) dx} \\
\end{align*}

Si consideramos $c = 0$ obtenemos que la forma explícita de $k(x)$ es

$$k(x) = \int{ e^{\int P(x) dx} Q(x) dx} \label{11} \tag{11}$$

Sustituyamos este resultado en la solución particular (\ref{9}).

$$y_{p}(x) = \left( \int{e^{\int P(x) dx} Q(x) dx} \right) e^{- \int P(x) dx} \label{12} \tag{12}$$

Si consideramos el factor integrante (\ref{5}) esta función la podemos escribir como

$$y_{p}(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} \right) \label{13} \tag{13}$$

Hemos obtenido la misma expresión que usando el método por factor integrante visto en la entrada anterior.

Algunas consideraciones

La solución completa (o solución general) de la ecuación diferencial lineal (\ref{1}) es la suma de la solución homogénea $y_{h}(x)$, más la solución particular $y_{p}(x)$, es importante reconocer este hecho ya que en muchas ocasiones la ecuación homogénea, y por tanto la solución homogénea, serán muy relevantes si estamos estudiando algún fenómeno real. Sin embargo, cuando nuestro objetivo es obtener la solución completa no es necesario obtener ambas soluciones por separado para después sumarlas, sino que podemos intentar obtener directamente la solución general, esto está directamente relacionado con la omisión de constantes de integración que hemos hecho, así que es momento de explicar qué está ocurriendo con estas constantes.

Es posible desarrollar los métodos por factor integrante y variación de parámetros manteniendo las constantes de integración, aunque los cálculos se vuelven más extensos, sin embargo al final todas las constantes que resulten se pueden agrupar en una sola constante $C$, es así que en ambos métodos siempre llegaremos al resultado

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} + C \right) \label{14} \tag{14}$$

Donde $C$ es la constante resultante de juntar todas las constantes de integración que pudieran aparecer en el proceso.

El resultado (\ref{14}) corresponde a la solución general que hemos obtenido anteriormente, es decir, si en ambos métodos mantenemos a las constantes de integración podemos obtener la solución general. Lo que nosotros hicimos anteriormente fue que la constante $k$ de la ecuación (\ref{7}) la asociábamos a la solución homogénea (\ref{3}), de manera que al sumar ambas soluciones ya obteníamos la solución general, pero en realidad también se puede obtener de ambos métodos manteniendo a las constantes. Decidimos hacerlo así porque es importante el papel que pueden tomar por separado las soluciones homogénea y particular en algunas situaciones, además de que omitir las constantes evitó hacer cálculos más extensos en ambos métodos.

Finalmente, como ya mencionamos antes, no se recomienda resolver ecuaciones diferenciales usando las formulas obtenidas para las soluciones, sino aplicar cada paso del método correspondiente, sin embargo, a continuación presentamos una serie de pasos que se recomiendan seguir para la resolución de ecuaciones diferenciales lineales de primer orden.

Método para resolver ecuaciones lineales

Si bien es cierto que ya conocemos las formas explícitas de las soluciones de las ecuaciones diferenciales lineales, es conveniente seguir una serie de pasos para resolverlas. Dichos pasos se describen a continuación.

  1. Escribir la ecuación diferencial lineal en la forma canónica

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

  1. Calcular el factor integrante $\mu (x)$ mediante la fórmula

$$\mu (x) = e^{\int{P(x) dx}}$$

  1. Multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados de la ecuación.

$$\mu (x) \dfrac{dy}{dx} + \mu (x) P(x) y = \mu (x) Q(x)$$

  1. Identificar que el lado izquierdo de la ecuación es la derivada de $\mu(x)$ por $y(x)$ y sustituir.

$$\dfrac{d}{dx} (\mu y) = \mu (x) Q(x)$$

  1. Integrar la última ecuación y dividir por $\mu (x)$ para obtener finalmente la solución general $y(x)$. En la última integración debemos considerar a la constante de integración.

Esta serie de pasos nos permiten obtener directamente la solución general de la ecuación diferencial lineal, es por ello que en el último paso sí debemos considerar a la constante de integración, dicha constante representa el resultado de juntar todas las contantes que podremos omitir en pasos intermedios.

Realicemos un ejemplo en el que apliquemos este algoritmo de resolución.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

Solución: El primer paso es escribir a la ecuación diferencial en la forma canónica.

\begin{align*}
\left( x^{2} +1 \right) \dfrac{dy}{dx} &= x^{2} + 2x -1 -4xy \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1 -4xy}{x^{2} +1} \\
\dfrac{dy}{dx} &= \dfrac{x^{2} + 2x -1}{x^{2} +1} -\left( \dfrac{4x}{x^{2} +1} \right) y
\end{align*}

La forma canónica es

$$\dfrac{dy}{dx} + \left( \dfrac{4x}{x^{2} +1} \right) y = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

Identificamos que

$$P(x) = \dfrac{4x}{x^{2} +1} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{x^{2} + 2x -1}{x^{2} +1}$$

El segundo paso es determinar el factor integrante.

$$\mu(x) = e^{\int{P(x) xd}} = e^{\int{\left( \dfrac{4x}{x^{2} +1} \right) dx}}$$

Resolvamos la integral omitiendo la constante de integración.

\begin{align*}
\int{\dfrac{4x}{x^{2} +1} dx} &= 4 \int{\dfrac{x}{x^{2} +1} dx} \\
&= \dfrac{4}{2} \ln{\left( x^{2} + 1 \right)} \\
&= 2 \ln{\left(x^{2} + 1\right)} \\
&= \ln{\left( x^{2} + 1\right)^{2}}
\end{align*}

Sustituimos en el factor integrante.

\begin{align*}
\mu (x) = e^{\ln{\left( x^{2} + 1\right)^{2}}} = \left( x^{2} + 1\right)^{2}
\end{align*}

Por tanto, el factor integrante es

$$\mu (x) = ( x^{2} + 1)^{2}$$

El tercer paso es multiplicar a la ecuación diferencial en su forma canónica por el factor integrante en ambos lados.

\begin{align*}
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + \left( x^{2} + 1\right)^{2} \left( \dfrac{4x}{x^{2} +1} \right) y &= \left( x^{2} + 1\right)^{2} \left(\dfrac{x^{2} + 2x -1}{x^{2} +1}\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= \left( x^{2} + 1\right) \left(x^{2} + 2x -1\right) \\
\left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y &= x^{4} + 2x^{3} +2x -1
\end{align*}

El cuarto paso es identificar que

$$\dfrac{d}{dx}(\mu (x) y(x)) = \dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = \left( x^{2} + 1\right)^{2} \dfrac{dy}{dx} + 4x \left( x^{2} + 1\right) y$$

Así que ahora podemos escribir

$$\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) = x^{4} + 2x^{3} +2x -1$$

El quinto y último paso es integrar esta relación por ambos lados con respecto a $x$ considerando a la constante de integración.

\begin{align*}
\int{\dfrac{d}{dx}\left( y \left( x^{2} + 1\right)^{2}\right) dx} &= \int{\left( x^{4} + 2x^{3} +2x -1\right)}dx \\
y \left( x^{2} + 1\right)^{2} + k &= \int{\left( x^{4} + 2x^{3} +2x -1\right)} dx
\end{align*}

Resolvamos la integral.

\begin{align*}
\int{\left( x^{4} + 2x^{3} +2x -1\right)} dx &= \int{x^{4} dx} + \int{2x^{3} dx} + \int{2x dx} -\int{dx} \\
&= \dfrac{x^{5}}{5} + 2\left(\dfrac{x^{4}}{4}\right) + 2 \left(\dfrac{x^{2}}{2}\right) -x \\
&= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x
\end{align*}

Omitimos todas las constantes de esta integral. Sustituyendo este resultado obtenemos

\begin{align*}
y \left( x^{2} + 1\right)^{2} + k &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x \\
y\left( x^{2} + 1\right)^{2} &= \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \\
y(x) &= \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K \right)
\end{align*}

Por lo tanto, la solución general de la ecuación diferencial

$$\left( x^{2} +1 \right) \dfrac{dy}{dx} = x^{2} + 2x -1 -4xy$$

es

$$y(x) = \dfrac{1}{\left(x^{2} + 1\right)^{2}} \left( \dfrac{x^{5}}{5} + \dfrac{x^{4}}{2} + x^{2} -x + K\right)$$

Donde $K$ es la constante que engloba a todas las contantes de integración que omitimos.

$\square$

Para concluir el análisis de las ecuaciones diferenciales lineales de primer orden, presentaremos el teorema de existencia y unicidad para este tipo de ecuaciones.

Teorema de existencia y unicidad

Ya presentamos el teorema de existencia y unicidad para ecuaciones diferenciales de primer orden, podemos usar este resultado para justificar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de primer orden.

Demostración: Consideremos la ecuación diferencial

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Reescribamos esta ecuación en su forma normal.

$$\dfrac{dy}{dx} = Q(x) -P(x) y$$

Definimos

$$f(x, y) = Q(x) -P(x) y \label{15} \tag{15}$$

De manera que

$$\dfrac{dy}{dx} = f(x, y) \label{16} \tag{16}$$

Debido a que en un intervalo de solución $\delta$ debe satisfacerse que $P(x)$ y $Q(x)$ sean continuas, entonces tenemos garantizado que (\ref{15}) es continua y por tanto $\dfrac{\partial f}{\partial y}$ también lo es, con esto estamos cumpliendo las hipótesis del teorema de existencia y unicidad para ecuaciones diferenciales de primer orden que establecimos anteriormente, aplicando dicho teorema obtenemos que entonces existe algún intervalo $\delta_{0}: (x_{0} -h, x_{0} + h)$, $h > 0$, contenido en $\delta$, y una función única $\gamma (x)$, definida en $\delta_{0}$, que satisface la condición inicial $y(x_{0}) = y_{0}$.

$\square$

Apliquemos este resultado a la solución general. Consideremos la condición inicial $y(x_{0}) = y_{0}$ y la solución general de la ecuación diferencial no homogénea (\ref{1})

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{ \mu (x) Q(x) dx} + k \right)$$

Apliquemos la condición inicial.

$$y_{0} = y(x_{0}) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} \Bigg|_{x = x_{0}} + k \right) \label{17} \tag{17}$$

De este resultado se puede despejar a $k$ obteniendo un único valor, digamos $k = k_{0}$, por lo tanto la función

$$\gamma (x) = \dfrac{1}{\mu (x_{0})} \left( \int{ \mu (x) Q(x) dx} + k_{0} \right) \label{18} \tag{18}$$

es solución del problema de valor inicial. Así, para cada $x_{0} \in \delta_{0}$, encontrar una solución particular de la ecuación (\ref{1}) es exactamente lo mismo que encontrar un valor adecuado de $k$ en la ecuación (\ref{17}), es decir, a todo $x_{0} \in \delta_{0}$ le corresponde un distinto $k$.

Con esto damos por concluido el desarrollo de métodos para resolver ecuaciones diferenciales lineales de primer orden, en la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden que no son lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. De acuerdo al algoritmo para resolver ecuaciones diferenciales lineales de primer orden, encontrar la solución general de las siguientes ecuaciones diferenciales.
  • $3\dfrac{y}{x} -8 + 3\dfrac{dy}{dx} = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$
  • $\dfrac{dy}{dx} + \cos(x) (y -1) = 0$
  1. Una vez que se conoce la solución general de la ecuación diferencial
    $$x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0$$ Resolver los siguientes problemas de valor inicial y analizar cada situación considerando el teorema de existencia y unicidad.
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(0) = y_{0}, \hspace{1cm} y_{0} > 0$
  • $x + \dfrac{y}{x} -\dfrac{dy}{dx} = 0, \hspace{1cm} y(x_{0}) = y_{0}, \hspace{1cm} x_{0} > 0, \hspace{0.3cm} y_{0} > 0$

    ¿Que se puede concluir al respecto?.

Más adelante…

Ya sabemos resolver ecuaciones diferenciales lineales de primer orden tanto homogéneas como no homogéneas y conocemos el teorema de existencia y unicidad que justifica los métodos que hemos desarrollado.

En la siguiente entrada comenzaremos a desarrollar métodos para resolver ecuaciones diferenciales de primer orden no lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de segundo orden. Propiedades del conjunto de soluciones

Por Eduardo Vera Rosales

Introducción

Hola a todos. Después de haber estudiado ecuaciones diferenciales de primer orden, llegamos a la segunda unidad del curso donde analizaremos ecuaciones diferenciales de segundo orden. Dada la dificultad para resolver este tipo de ecuaciones, nos enfocaremos únicamente en las ecuaciones lineales de segundo orden, es decir, de la forma $$a_{0}(t)\frac{d^{2}y}{dt^{2}}+a_{1}(t)\frac{dy}{dt}+a_{2}(t)y=g(t).$$

En esta entrada comenzaremos con el caso de las ecuaciones homogéneas de segundo orden, es decir, cuando $g(t)$ es la función constante cero en un intervalo $(\alpha,\beta)$. Estudiaremos la teoría de las soluciones a este tipo de ecuaciones antes de analizar las distintas técnicas para resolverlas. Debido a que el conjunto de soluciones a este tipo de ecuaciones se comportan de buena manera, podremos encontrar la solución general a la ecuación si previamente conocemos dos soluciones particulares que cumplan una hipótesis que daremos a conocer en el intervalo $(\alpha,\beta)$. Definiremos el Wronskiano y la independencia lineal de dos soluciones a una ecuación diferencial, y probaremos distintos teoremas y propiedades de las soluciones con base en estos conceptos.

¡Comencemos!

Ecuaciones lineales homogéneas de segundo orden, Teorema de existencia y unicidad y solución general

En este video damos una introducción a las ecuaciones diferenciales de segundo orden, y en particular, a las ecuaciones lineales de segundo orden. Enunciamos el teorema de existencia y unicidad para ecuaciones lineales de segundo orden, y comenzamos a desarrollar la teoría para encontrar la solución general a ecuaciones homogéneas.

Conjunto fundamental de soluciones y el Wronskiano

Continuando con la teoría de las soluciones a ecuaciones homogéneas de segundo orden, demostramos un par de teoremas que nos ayudan a encontrar la solución general a este tipo de ecuaciones. Además, definimos al conjunto fundamental de soluciones de la ecuación homogénea y el Wronskiano de dos funciones.

Independencia lineal de soluciones

En este último video definimos el concepto de independencia lineal de soluciones a la ecuación homogénea de segundo orden, y demostramos un teorema que nos da otra forma de encontrar un conjunto fundamental de soluciones a la ecuación diferencial homogénea.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que $y_{1}(t)=\sin{t}$ y $y_{2}(t)=\cos{t}$ son soluciones a la ecuación diferencial $$\frac{d^{2}y}{dt^{2}}+y=0.$$ Posteriormente prueba que $y(t)=k_{1}\sin{t}+k_{2}\cos{t}$ también es solución a la ecuación, donde $k_{1}$, $k_{2}$ son constantes.
  • Prueba que $\{\sin{t},\cos{t}\}$ es un conjunto fundamental de soluciones a la ecuación del ejercicio anterior. ¿En qué intervalo es el conjunto anterior un conjunto fundamental de soluciones?
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, $y_{1}(t)$, $y_{2}(t)$ son soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(\alpha,\beta)$ y existe $t_{0}$ en dicho intervalo, donde $W[y_{1},y_{2}](t_{0})\neq 0$, entonces $\{y_{1}(t),y_{2}(t)\}$ forman un conjunto fundamental de soluciones en $(\alpha,\beta)$.
  • Prueba que si $p(t)$, $q(t)$ son continuas en $(\alpha,\beta)$, entonces existe un conjunto fundamental de soluciones $\{y_{1}(t),y_{2}(t)\}$ a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en el mismo intervalo. (Hint: Toma un punto en el intervalo $(\alpha,\beta)$ y dos problemas de condición inicial adecuados de tal forma que puedas utilizar el teorema de existencia y unicidad y el Wronskiano para deducir el resultado).
  • Prueba que $y_{1}(t)=t|t|$, $y_{2}(t)=t^{2}$ son linealmente independientes en $[-1,1]$ pero linealmente dependientes en $[0,1]$. Verifica que el Wronskiano se anula en $\mathbb{R}$. ¿Pueden ser $y_{1}(t)$, $y_{2}(t)$ soluciones a la ecuación $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=0$$ en $(-1,1)$ si $p$ y $q$ son continuas en este intervalo?

Más adelante

En la próxima entrada conoceremos el método de reducción de orden, donde supondremos que ya conocemos una solución particular $y_{1}(t)$ a la ecuación lineal homogénea de segundo orden, y con ayuda de esta hallaremos una segunda solución $y_{2}(t)$ tal que forma un conjunto fundamental de soluciones junto con $y_{1}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Supremo e ínfimo

Por Karen González Cárdenas

Introducción

Ya hemos visto los conceptos de máximo, mínimo, cota superior e inferior de un conjunto en $\r$. En esta entrada definiremos formalmente el concepto de supremo e ínfimo de un conjunto, veremos que los revisados previamente se encuentran relacionados. Adicionalmente, demostraremos algunas proposiciones útiles y algunos ejemplos en los cuales aplicaremos las definiciones respectivas.

Supremo e ínfimo, primera definición

Definición: Sea $A \subseteq \r$ con $A\neq \emptyset$. Decimos que $\alpha \in \r$ es:

  • El supremo de $A \Leftrightarrow$
    • $\alpha$ es cota superior de $A$
    • $\alpha$ es la mínima cota superior, es decir, si $\beta$ es cota superior de $A \Rightarrow \alpha \leq \beta$.

      En otras palabras, la mínima cota superior de un conjunto es el menor número real que es una cota superior de ese conjunto.

  • El ínfimo de $A \Leftrightarrow$
    • $\alpha$ es cota inferior de $A$
    • $\alpha$ es la máxima cota inferior, es decir, si $\beta$ es cota inferior de $A \Rightarrow \beta \leq \alpha$.

      De esta manera, la máxima cota inferior de un conjunto es el número real más grande que sirve como cota inferior para dicho conjunto.

Retomemos el último ejemplo visto en la entrada pasada:

$$A= \left\{\frac{1}{n}: n\in \mathbb{N} \setminus\left\{0\right\} \right\}$$

  • El conjunto de cotas superiores de $A$ está dado por:
    $$[1, \infty)$$
    tiene elemento mínimo y es 1. Esto nos indica que existe una mínima cota superior, ya que el $1$ es el menor número real que sirve como cota superior para dicho conjunto.
  • El conjunto de cotas inferiores de $A$ está dado por:
    $$(- \infty, 0]$$
    tiene elemento máximo y es 0. Esto nos indica que existe una máxima cota inferior, debido a que el $0$ es el mayor número real que sirve como cota inferior para $(- \infty, 0]$.

Dadas las observaciones anteriores ahora podemos decir que:

  • El supremo de $A$ es $1$: $$sup(A)=1$$
  • El ínfimo de $A$ es $0$: $$inf(A)=0$$

Observación: El supremo o el ínfimo de un conjunto puede o no pertenecer al conjunto.

Pasemos a revisar la existencia y la unicidad de supremos e ínfimos.

Existencia del supremo y del ínfimo

En general, no tendremos que preocuparnos por la existencia del supremo ni del ínfimo cuando hablemos de un conjunto no vacío y acotado de números reales; en cambio, consideraremos como axioma que siempre existen.

En la siguiente entrada motivaremos y hablaremos con más detalle del siguiente axioma.

Axioma del Supremo: Si $A \subseteq \r$ es no vacío y $A$ es acotado superiormente entonces existe $\alpha \in \r$ tal que:
$$\alpha = sup(A)$$

En esa entrada, también demostraremos a partir de este axioma que los conjuntos no vacíos y acotados inferiormente siempre tienen ínfimo. Igualmente, hablaremos de otras propiedades de los números reales relacionadas con este axioma, como que el conjunto de los números reales no está acotado y la propiedad arquimediana. Por ahora, sólo lo enunciamos, pues en las siguientes secciones demostraremos varias propiedades del supremo y del ínfimo para las que necesitaremos su existencia.

Unicidad del supremo y del ínfimo

El Axioma del Supremo nos garantiza la existencia del supremo e implica la del ínfimo pero, ¿habrá más de un supremo o un ínfimo para un mismo conjunto?

Teorema: Sea $A \subseteq \r$ con $A\neq \emptyset$ y acotado. El supremo y el ínfimo de $A$ son únicos.

Demostración (Unicidad del supremo): Supongamos que existen $\alpha_{1}, \alpha_{2}$ tales que:
$\alpha_{1} = sup(A)$ y $\alpha_{2}=sup(A)$.

Para $\alpha_{1}$ tenemos que para toda $a \in A, a\leq \alpha_{1}$. Y como $\alpha_{1}$ es mínima cota superior entonces $\forall M$ cota superior de $A, \alpha_{1}\leq M$. Así en particular ocurre que: $\alpha_{1}\leq \alpha_{2}$ es cota superior.

Análogamente para $\alpha_{2}$ tenemos que: $\alpha_{2} \leq M$ donde $M$ es cota superior de $A$.
$\Rightarrow \alpha_{2}\leq \alpha_{1}$ es cota superior.

Debido a que $\alpha_{1}\leq \alpha_{2}$ y $\alpha_{2}\leq \alpha_{1}$ concluimos:
$$\alpha_{1}=\alpha_{2}.$$
$\therefore\quad$ El supremo de $A$ es único.

$\square$

Relaciones entre supremos e ínfimos

Proposición: Sean $A,B \subseteq \r$ distintos del vacío. Si se cumple que para toda $a\in A$ y para toda $b \in B$ $a \leq b \Rightarrow sup(A)\leq inf(B).$

Demostración:
Primero observamos que $A$ tiene supremo, ya que como $A \neq \emptyset$ y $B \neq \emptyset$:
$\Rightarrow \exists b_{0} \in B, \forall a\in A $ se cumple que $a \leq b_{0}$
$\Rightarrow b_{0}$ es cota superior de $A$
$\Rightarrow A \neq \emptyset$ y acotado superiormente
$\therefore \exists \alpha =sup(A) \in \r.$

Ahora vemos que $B$ tiene ínfimo, esto se sigue de $B \neq \emptyset$ y $A \neq \emptyset$:
$\Rightarrow \exists a_{0} \in A, \forall b\in B$ ocurre que $a_{0} \leq b$
$\Rightarrow a_{0}$ es cota inferior de $B$
$\Rightarrow B \neq \emptyset$ y acotado inferiormente
$\therefore \exists \beta =inf(B) \in \r.$

Por lo que sólo nos falta verificar que $\alpha \leq \beta$. Cómo por hipótesis tenemos que $\forall a \in A, \forall b\in B (a\leq b)$ obtenemos:
$\Rightarrow \forall a \in A$ ($a$ es cota inferior de $B$)
$\Rightarrow \forall a \in A$ ($a\leq \beta$)
$\Rightarrow \beta$ cota superior de $A$
$\Rightarrow \alpha \leq \beta$

$\square$

Proposición: Sean $C \subseteq A \subseteq \r$ donde $C$ es no vacío y $A$ acotado.
$\Rightarrow inf(A) \leq inf(C) \leq sup(C) \leq sup(A)$.
Demostración:

Sea $C \neq \emptyset$ subconjunto de $A$, como $ C \subseteq A \Rightarrow A \neq \emptyset$.
Ya que $A$ es acotado para toda $a \in A$ ocurre que: $m \leq a \leq M$ donde $m$ es cota inferior y $M$ es cota superior de $A$. Así si tomamos $c \in C$ tenemos:
$c \in A \Rightarrow m \leq c \leq M \Rightarrow C$ es acotado.
Por lo que afirmamos que existen:
$$sup(A), \quad sup(C), \quad inf(A), \quad inf(C).$$
Observemos que $sup(A) $ al ser cota superior de $A$ y $C \subseteq A \Rightarrow \sup(A)$ es cota superior de $C$ , por lo que podemos concluir:
$$sup(C) \leq sup(A).$$
Análogamente para los ínfimos se sigue que:
$$inf(A) \leq inf(C).$$
Y como $inf(C) < sup(C)$ obtenemos:
$$inf(A) \leq inf(C) \leq sup(C) \leq sup(A).$$

$\square$

Proposición: Sean $A’ \subseteq A \subseteq \r$ y $B’ \subseteq B \subseteq \r$ donde $A’, B’$ son distintos del vacío. Si se cumple que:

  • $\forall a\in A, \forall b \in B \quad (a \leq b)$
  • $sup(A’)=inf(B’)$

$\Rightarrow sup(A)=inf(B)$
Demostración:

Primero observemos que $A$ y $B$ son no vacíos ya que:

  • $A’ \neq \emptyset$ y $A’ \subseteq A$
  • $B’ \neq \emptyset$ y $B’ \subseteq B$

Por lo que afirmamos que existen en $\r$:
$$sup(A) \quad inf(B)$$
Por hipótesis aplicando el resultado anterior y la primera proposición de esta sección tenemos:
$$sup(A’) \leq sup(A) \leq inf(B) \leq inf(B’)$$
$$\therefore sup (A) \leq inf(B)$$
Además vemos que:
$$inf(B) \leq inf(B’) = sup(A’) \leq sup(A)$$
$$\therefore inf(B) \leq sup (A) $$
Por lo que obtenemos la igualdad:
$$inf(B)= sup (A)$$

$\square$

Ahora continuaremos con una definición de supremo e ínfimo equivalente a la primera.

Supremo e ínfimo segunda definición

Definición: Sea $A \subseteq \r$ con $A\neq \emptyset$. Decimos que $\alpha \in \r$ es:

  • El supremo de $A \Leftrightarrow$
    • $\alpha$ es cota superior de $A$
    • $\forall \varepsilon > 0, \exists x_{\varepsilon} \in A$ tal que $\alpha – \varepsilon < x_{\varepsilon}$.
  • El ínfimo de $A \Leftrightarrow$
    • $\alpha$ es cota inferior de $A$
    • $\forall \varepsilon > 0, \exists x_{\varepsilon} \in A$ tal que $x_{\varepsilon} < \alpha + \varepsilon$.

Ejemplos

Veamos para
$$B=\left\{2-\frac{1}{n}: n\in \mathbb{N}\setminus \left\{0\right\}\right\}$$
consideramos como candidatos $inf(B)=1$ y $sup(B)=2$.

Comenzaremos probando $inf(B)=1$ haciendo uso de la segunda definición:

  • Tenemos que probar que $1$ es cota inferior de $B$, es decir, $1 \leq x$ para toda $x \in B$.
    Sea $x \in B \Rightarrow x=2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    1 \leq 2- \frac{1}{n} &\Leftrightarrow 1-2 \leq – \frac{1}{n}\\
    &\Leftrightarrow -1 \leq – \frac{1}{n}\\
    &\Leftrightarrow 1 \geq \frac{1}{n}\\
    &\Leftrightarrow n \geq 1
    \end{align*}
    $\therefore 1$ es cota inferior
  • Ahora probamos que $\forall \varepsilon > 0, \exists x_{\varepsilon} \in B$ tal que $x_{\varepsilon}< 1+ \varepsilon$.
    Sea $\varepsilon >0$. Tomemos $x_{\varepsilon}=1 \in B$ entonces $1<1+\varepsilon$
    $\therefore 1$ es ínfimo de $B$.

Ahora procedamos a demostrar que $sup(B)=2$:

  • $2$ es cota superior de $B$, es decir, $2 \geq x$ para toda $x \in B$.
    Tomemos $x \in B \Rightarrow x=2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    2 \geq 2-\frac{1}{n} &\Leftrightarrow 2-2 \geq -\frac{1}{n}\\
    &\Leftrightarrow 0 \geq -\frac{1}{n}\\
    &\Leftrightarrow 0 \leq \frac{1}{n}\\
    \end{align*}
    $\therefore 2$ es cota superior
  • Demostremos que $\forall \varepsilon > 0, \exists x_{\varepsilon} \in B$ tal que
    $2- \varepsilon < x_{\varepsilon}$.
    Sea $\varepsilon >0$. Tomemos $x_{\varepsilon}= 2-\frac{1}{n}$ para algún $n \in \mathbb{N}\setminus \left\{0\right\}$.
    \begin{align*}
    2- \varepsilon < 2-\frac{1}{n}&\Leftrightarrow – \varepsilon < -\frac{1}{n}\\
    &\Leftrightarrow \varepsilon > \frac{1}{n}\\
    &\Leftrightarrow (\varepsilon )n> 1\\
    &\Leftrightarrow n> \frac{1}{\varepsilon}\\
    \end{align*}
    $\therefore 2$ es supremo de $B$

$\square$

Hallar el supremo y el ínfimo del siguiente conjunto:
$$C= \left\{x: x^{2}+x+1 \geq 0 \right\}$$

Solución:
Notemos que:
\begin{align*}
x^{2}+x+1 \geq 0 &\Leftrightarrow x^{2}+x+\frac{1}{4}+1-\frac{1}{4} \geq 0\\
&\Leftrightarrow \left(x + \frac{1}{2} \right)^{2}+\frac{3}{4} \geq 0\\
\end{align*}
Vemos que la última desigualdad la cumple cualquier número real. Por lo tanto, tenemos que $C= \r$.
$\therefore \quad$ no existe ni $sup(C)$ ni $inf(C)$

$\square$

Más adelante…

Ahora que ya hemos visto el concepto de supremo, en la siguiente entrada veremos una propiedad más que cumple el conjunto de números reales: el Axioma del Supremo. Veremos su enunciado y varias de sus aplicaciones, algunas de ellas se demostrarán en las próximas unidades.

Tarea moral

  • Prueba que la primera y segunda definición de supremo e ínfimo son equivalentes.
  • Demuestra que el ínfimo de un conjunto es único.
    Sugerencia: La prueba es análoga a la dada para el supremo.
  • Para $A= \left\{\frac{1}{n}: n\in \mathbb{N}\setminus \left\{0\right\} \right\}$ prueba usando la definición que prefieras que $sup(A)=1$ e $inf(A)=0$.
  • Encontrar el supremo y el ínfimo del conjunto
    $$D= \left\{x: x^{2}+x-1 < 0 \right\}$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»