Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales no homogéneas de primer orden. Solución por factor integrante y por variación de parámetros

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio de las ecuaciones diferenciales lineales de primer orden. En particular, resolvimos el caso cuando la función $g(t)$ que aparece en la ecuación $a_{0}(t) \frac{dy}{dt}+a_{1}(t)y=g(t)$ es la función constante cero.

Ahora veremos el caso no homogéneo, es decir, cuando la función $g(t)$ no es cero. Resolveremos esta ecuación por dos vías distintas. El primer método es mediante la búsqueda de una función que dependa de la variable independiente $t$ que nos ayude a simplificar la ecuación. A esta función la llamaremos factor integrante. El segundo método, llamado variación de parámetros, utiliza la solución general a la ecuación homogénea asociada, para encontrar a su vez la solución general a la ecuación no homogénea.

¡Vamos a comenzar!

Solución a ecuación lineal no homogénea por factor integrante

En el primer video resolvemos la ecuación diferencial $a_{0}(t) \frac{dy}{dt}+a_{1}(t)y=g(t)$ como un caso general por el método de factor integrante. En el segundo video resolvemos algunas ecuaciones por el mismo método.

Solución a ecuación lineal no homogénea por variación de parámetros

En el primer video resolvemos de forma general la ecuación lineal no homogénea, ahora por el método de variación de parámetros. En el segundo video resolvemos dos ecuaciones por este método, una de ellas la resolvimos en la sección anterior por el método de factor integrante, esto para comprobar que los dos métodos llevan a la misma solución.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que la expresión de la solución general para la ecuación lineal homogénea es un caso particular de la solución general de la ecuación lineal no homogénea.
  • Resuelve las siguientes ecuaciones diferenciales por los métodos de factor integrante y variación de parámetros: $$\frac{dy}{dt}=y+t^{2}$$ $$\frac{dy}{dt}+y+t+t^{2}+t^{3}=0.$$
  • Intenta resolver la ecuación $t^{2}\frac{dy}{dt}+y=\frac{1}{t}$ con $t>0$, por el método de variación de parámetros. ¿Qué dificultades se presentan? Esto muestra que habrá ocasiones en que alguna ecuación diferencial no podrá ser resuelta por ciertos métodos.
  • Sean $y_{1}$ y $y_{2}$ soluciones a las ecuaciones diferenciales $\frac{dy}{dt}+p(t)y=q_{1}(t)$ y $\frac{dy}{dt}+p(t)y=q_{2}(t)$. Prueba que $c_{1}y_{1}+c_{2}y_{2}$ es solución a la ecuación $\frac{dy}{dt}+p(t)y=c_{1}q_{1}(t)+c_{2}q_{2}(t)$, donde $c_{1}$ y $c_{2}$ son constantes.
  • Cuando resolvimos la ecuación lineal no homogénea por variación de parámetros, encontramos una forma explícita para la suma de soluciones $y_{H}+y_{P}$ donde $y_{H}$ es solución general a la ecuación homogénea y $y_{P}$ es una solución particular a la ecuación no homogénea, y afirmamos que esta nueva solución es la misma que encontramos por el método del factor integrante. Ahora supongamos por un momento que no conocemos el método del factor integrante. Argumenta por qué $y_{H}+y_{P}$ es solución general a la ecuación no homogénea. (Hint: Utiliza el ejercicio anterior).
  • Resuelve la ecuación diferencial $\frac{dT}{dt}=-50(T(t)-30)$ con condición inicial $T(0)=75$.

Más adelante

Hasta el momento hemos estudiado diversos tipos de ecuaciones diferenciales desde un punto de vista cualitativo y también analítico. Sin embargo, muchos de los resultados a los que hemos llegado tienen una justificación que aún no hemos revisado a detalle. Dicha justificación está dada por el Teorema de existencia y unicidad.

En la siguiente entrada demostraremos una primera versión de este teorema, enfocado en ecuaciones lineales de primer orden, que son las ecuaciones que hemos estudiado en los últimos videos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Moderna I: Propiedades de grupos y Definición débil de grupo

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Cuando se estudian campos vectoriales u otras estructuras algebraicas primero se definen ciertas propiedades básicas y después, otras propiedades importantes que se desprenden de las primeras. Ahora, vamos a ver propiedades de los grupos. Dentro de los grupos mencionamos la existencia de un neutro, asociatividad e inversos. Pero de ahí se desprenden otras propiedades que vamos a usar como la cancelación, la unicidad del neutro, etc.

Propiedades de grupos

Propiedades. Sea $(G,*)$ un grupo. Entonces,

  1. Para cualesquiera $x, a, b \in G$, se tiene que $$x*a = x*b \Rightarrow a = b,$$ también se vale cancelar por la derecha, $$a*x = b*x \Rightarrow a = b.$$ Estas propiedades son conocidas como las leyes de cancelación.
  2. El neutro en $(G,*)$ es único.
  3. Cada $a \in G$ tiene un único inverso y se denota por $a^{-1}$.
  4. Para toda $a \in G$, $(a^{-1})^{-1} = a$.

Demostración.

1. Sean $x,a,b \in G$.
Supongamos que $x*b = x*b$. Sea $\tilde{x} \in G$ inverso de $x$. Tenemos que

\begin{align*}
\tilde{x} * (x * a) = \; & \tilde{x} * (x * b) & \text{ }\\
(\tilde{x} * x) * a = \; & (\tilde{x} * x) * b & \text{por la asociatividad}\\
e* a = \; & e * b & \text{por ser $\tilde{x}$ el inverso de $x$}\\
a = \;& b & \text{por ser $e$ el neutro.}
\end{align*}

La cancelación por la derecha es análoga y se deja como ejercicio.

2. Sean $e, e’ \in G$ neutros. Entonces,

\begin{align*}
e \;{=}\; & e * e’ & \text{ por ser $e’$ un neutro}\\
{=}\; & e’ & \text{ por ser $e$ un neutro.}\\
\end{align*}

Por lo tanto, $e= \; e’.$

3. Sea $a\in G$. Supongamos que $\hat{a}, \tilde{a} \in G$ son inversos de a, entonces:

\begin{align*}
\hat{a} \;{=}\; & e * \hat{a} & \text{ por ser $e$ el neutro}\\
= \; &(\tilde{a} * a)* \hat{a} & \text{ por ser $\tilde{a}$ un inverso de $a$}\\
=\; & \tilde{a} * (a * \hat{a}) & \text{ por la asociatividad}\\
=\; & \tilde{a} * e & \text{por ser $\hat{a}$ un inverso de $a$}\\
=\; &\tilde{a} & \text{ por ser $e$ el neutro.}
\end{align*}

Por lo tanto, $\hat{a} = \tilde{a}.$

4. Sea $a \in G$.
Como $(a^{-1})^{-1}$ es el inverso de $a^{-1}$ tenemos que

$$a^{-1} * (a^{-1})^{-1} = e.$$

Como $a^{-1}$ es el inverso de $a$ tenemos que

$$a^{-1} * a = e.$$

Así $a^{-1}*(a^{-1})^{-1} = a^{-1} *a$, entonces por la propiedad 1 podemos cancelar el elemento $a^{-1}$ por la izquierda y concluir que $(a^{-1})^{-1} = a$.

$\blacksquare$

Definición débil de grupo

Teorema. Sea $G$ un conjunto y $*$ una operación binaria en $G$. Supongamos que

  1. $*$ es asociativa,
  2. existe $e \in G$ tal que $e*a = a $ para toda $a \in G$ y
  3. $\forall a \in G$ existe $ \tilde{a} \in G$ tal que $\tilde{a}*a=e$.

Entonces $(G,*)$ es un grupo.

Nota: A partir de ahora, a las propiedades $2$ y $3$ de la definición débil de grupo las denotaremos como $2’$ y $3’$ respectivamente para dejar que los números $2$ y $3$ denoten las propiedades de la definición de grupo.

Demostración.
Supongamos que $(G,*)$ cumple $1, 2’$ y $3’$.
Sea $a \in G$. Por $3’$, existe $\tilde{a} \in G$ tal que $\tilde{a} * a = e$.
Tenemos que $\tilde{a}$ es un inverso izquierdo de $a$. Veamos primero que $\tilde{a}$ es también un inverso derecho de $a$, es decir que $a * \tilde{a} = e$.

\begin{align*}
\tilde{a} * (a * \tilde{a}) \;=\;& (\tilde{a} * a) * \tilde{a} & \text{por la asociatividad}\\
= \; & e * \tilde{a} & \text{por la propiedad }3’\\
= \;& \tilde{a} & \text{ por la propiedad } 2′.\\
\end{align*}

Entonces, $\tilde{a} * (a * \tilde{a}) = \tilde{a}$.

Por $3’$ existe $b \in G$ tal que $b*\tilde{a}=e$. Multiplicando $ \tilde{a} * (a * \tilde{a}) = \tilde{a}$ a la izquierda por $b$ tenemos que

\begin{align*}
b * (\tilde{a} * (a * \tilde{a})) =\;& b * \tilde{a} & \text{ }\\
(b * \tilde{a}) * (a * \tilde{a}) = \;& b * \tilde{a} & \text{por la asociatividad}\\
e * (a * \tilde{a}) =\;& e & \text{ya que $b$ es un inverso izquierdo de $\tilde{a}$}\\
a * \tilde{a}=\;& e &\text{ya que $e$ es un neutro izquierdo.}
\end{align*}

Así, $\tilde{a}$ es también un inverso derecho de $a$.

Por $2’$, $e*a=a$ para toda $a\in G$, es decir $e$ es un neutro izquierdo. Veamos ahora que $e$ también es un neutro derecho probando que $a * e = a$ para toda $a \in G$.

Sea $a \in G$. Por $3’$ existe $\tilde{a} \in G$ tal que $\tilde{a} * a=e$, y por lo que acabamos de probar $a * \tilde{a} = e$. Usando estas igualdades y la propiedad asociativa tenemos que

$$a * e = a * (\tilde{a} * a) = (a * \tilde{a}) * a = e * a,$$

y, como $e$ es un neutro por la izquierda, $e * a = a$. Así $a * e = a$.

Por lo tanto $(G, *)$ es un grupo.

$\blacksquare$

Tarea moral

  1. Usando la Definición débil de grupo, determina cuáles de estos conjuntos son un grupo.
    • $G = \r \setminus \{-1\}$, $a*b := a+b+ab$.
    • $G = \r^*$, $a*b = |a|b$.
    • $G = \{r \in \mathbb{Q} \;|\; r = \frac{p}{q} \text{ con } (p,q)= 1 \text{ y } q \text{ impar}\}$, $a*b = a+b$ (la adición usual).
    • Sea $X$ un conjunto. Considera $G = \mathcal{P}(X)$ el conjunto potencia de $X$ con la operación binaria $A \triangle B = (A \cup B)\setminus (A \cap B)$ para todo $A,B \in \mathcal{P}(X)$.
  2. Muestra que $G = \r^*$ con la operación $a * b = |a| b$, tiene un neutro izquierdo $e$ y para cada elemento $a$ existe $\tilde{a}$ tal que $a * \tilde{a} = e$ ¿qué puedes concluir con respecto a la definición débil de un grupo?
  3. Para el conjunto $\mathcal{S}:= \{\bigstar, \blacktriangledown, \blacklozenge, \clubsuit \}$, considera las operaciones que creaste en la tarea moral de una entrada anterior.
    • Si definiste una operación tal que $(\cS, *)$ es un grupo, comprueba las propiedades vistas en esta entrada y verifica la definición débil.
    • Si no, observa si alguna de las propiedades analizadas se cumplen con tu operación.
  4. Si quieres conocer el grupo de transformaciones lee la sección 3.1.1 del libro Introducción analítica a la geometría de Javier Bracho (página 112 a la 115).
  5. Si quieres conocer el grupo diédrico puedes ver el video Dihedral Group de Socratica. El video está en inglés. De todas maneras, después usaremos el grupo diédrico, así que lo definiremos más adelante.

Más adelante…

En la siguiente entrada generalizaremos la propiedad de la asociatividad porque hasta ahora sólo la manejamos con tres elementos. Además, seguiremos formalizando conceptos que ya conocemos intuitivamente: definiremos qué es una potencia, escribiremos las leyes de los exponentes y las demostraremos.

Entradas relacionadas

Álgebra Moderna I: Asociatividad Generalizada y Leyes de los Exponentes

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Una de las condiciones que pedimos para que un conjunto con una operación sea un grupo, es la asociatividad, la vimos en el caso de tres factores:

\begin{align*}
a * b * c &= (a * b) * c \\
& = a *(b * c).
\end{align*}

Intuitivamente sabemos que esto se vale para más factores. Por ejemplo, con cuatro factores podemos escribir las distintas maneras de asociar a los factores, algunas de las cuales se muestran a continuación:

\begin{align*}
a * b * c *d& = (a * (b * c)) * d \\
& = ((a * b) * c) * d \\
& = (a * b) * (c * d).
\end{align*}

Para más factores es un problema escribir todas las asociaciones posibles y justificar que el resultado de la operación no cambia sin importar la forma de asociar los factores. Para resolverlo, intuitivamente usaríamos inducción sobre el número de factores. Sin embargo, la inducción usual no nos ayuda ya que la forma de asociar no siempre consiste de algún factor que sea a su vez el producto de $n$ factores. Por ejemplo si queremos comparar el producto $a_1* (a_2* \cdots * a_n) * a_{n+1}$ con la expresión $(a_1 * (a_2 * \cdots * a_{n-1}))* (a_n * a_{n+1})$, en la primera expresión el segundo factor es el producto de $n$ factores pero en la segunda expresión no. Así, necesitamos usar la inducción modificada en la demostración.

Teorema de la Asociatividad Generalizada

Teorema. (Asociatividad Generalizada)
Sean $(G,*)$ en un grupo, $n \in \n$ con $3 \leq n$ y $a_1,…,a_n \in G$. Cualesquiera dos maneras de multiplicar estos elementos en dicho orden proporciona el mismo resultado (sin importar cómo se elijan factores adyacentes).

Demostración.
Por inducción modificada (se puede consultar aquí).

Caso base $n =3$. Se cumple por la asociatividad de $*$.

Sea $n\in \n$ con $3 < n$.
Hipótesis de Inducción (H.I.): Supongamos que para menos de $n$ factores, el resultado se cumple.

Consideremos $a_1 * a_2 * \cdots * a_n$. Al elegir dos elementos adyacentes y multiplicarlos se tiene un factor menos. Así con cada producto que se realice, el número de factores decrece en uno. Eventualmente quedarán sólo dos factores.

Sean

\begin{align*}
X &= (a_1 * \cdots * a_i) * (a_{i+1} * \cdots * a_n) \\
Y&=(a_1 * \cdots * a_j) * (a_{j+1} * \cdots * a_n)
\end{align*}

con $i,j \in \{1,\cdots,n\}$. Supongamos que $X$ y $Y$ son elementos de $G$ obtenidos por dos personas multiplicando las $a$’s (cada quien con sus propias elecciones). Sin pérdida de generalidad supongamos que $i<j$.

Por H.I. podemos asociar de la forma que queramos el segundo factor de $X$ y el primer factor de $Y$:

\begin{align*}
X &= (a_1 * \cdots * a_i) * \left[(a_{i+1} * \cdots * a_j) * (a_{j+1} * \cdots * a_n)\right] \\
Y &= \left[(a_1 * \cdots * a_i) * (a_{i+1} * \cdots * a_j)\right] * (a_{j+1} * \cdots * a_n).
\end{align*}

Denotaremos $A, B$ y $C$ de la siguiente manera:

\begin{align*}
A &= a_1 * \cdots * a_i \\
B &= a_{i+1} * \cdots * a_j \\
C &= a_{j+1} * \cdots * a_n.
\end{align*}

Por la H.I. $A, B$ y $C$ están bien definidos. Por lo que no tenemos que especificar cómo se asocian esos productos.

entonces,

\begin{align*}
X = A * [B * C]\\
Y = [A * B] * C
\end{align*}

con $A, B, C \in G$. Por el paso base (cuando $n=3$) obtenemos que $X = Y$.

$\blacksquare$

Notación. A partir de aquí simplificaremos la notación y escribiremos $ab$ en vez de $a*b$. Cuando el grupo es abeliano, escribiremos en ocasiones $a+b$ en vez de $a*b$. Si no hay confusión, pondremos $G$ en lugar de $(G,*)$.

Consecuencias del Teorema

Corolario. Sean $G$ un grupo y $a,b \in G$. Entonces,

$$(ab)^{-1} = b^{-1}a^{-1}.$$

Demostración.

Sean $a, b \in G$. Como el inverso de un elemento es único, y $(ab)^{-1}$ es el inverso de $ab$, resta demostrar que $b^{-1}a^{-1}$ también es el inverso de $ab$. Por lo tanto, debemos demostrar que $(ab)(b^{-1}a^{-1}) = e$. Entonces,

\begin{align*}
(ab)(b^{-1}a^{-1}) &= a (b b^{-1}) a^{-1} & \text{por la asociatividad generalizada} \\
& = a e a^{-1}\\
& = (ae)a^{-1}\\
& = a a^{-1} \\
& = e.
\end{align*}

Así $(ab)^{-1} = b^{-1}a^{-1}$.

$\blacksquare$

Definición de potencia

Ahora, daremos una definición que nos servirá para simplificar la notación en futuras entradas.

Definición. Sean $G$ un grupo y $a \in G$. Entonces,

  1. $a^0 = e$,
  2. $a^{n+1} = a a^n \qquad\text{ para toda } n \in \n$ y
  3. $a^{-n} = (a^{-1})^n \qquad\text{ para toda } n \in \n$.

Observación 1. Sean $G$ un grupo, $a \in G$ y $n \in \n$. Entonces,

\begin{align*}
a^n &= \underbrace{a\, a \cdots a}_{n \text{ veces}} & \text{ y }\\ \\
a^{-n} &= \underbrace{a^{-1} a^{-1} \cdots a^{-1}}_{n \text{ veces}}.
\end{align*}

Observación 2. Sean $G$ un grupo, $a \in G$ y $n \in \n$. Entonces $a^{-n} = (a^n)^{-1}$.

Leyes de los Exponentes

Proposición. (Leyes de los Exponentes)
Sean $G$ un grupo, $a,b \in G$ y $m,n \in \z$:

  1. Si $ab = ba$, entonces $(ab)^n = a^n b^n$. Si $a$ y $b$ no conmutan, esto no necesariamente se cumple.
  2. $a^n a^m = a^{n+m}$.
  3. $(a^n)^m = a^{n\,m}$.

Notación. Cuando la operación binaria esté denotada con $+$ la potencia $a^n$ se escribe como $na,$ mientras que las leyes de los exponentes se escriben de la siguiente manera:

  1. $n(a+b) = na + nb$.
  2. $na + ma = (n+m)a$.
  3. $m(na) = (mn) a$.

Tarea moral

  1. Demuestra las observaciones 1 y 2. (Sugerencia: Usa inducción para demostrar la observación 1).
  2. Busca un ejemplo de grupo en el que existan $a,b\in G$ y $n\in\mathbb{Z}$ de modo que $(ab)^n \neq a^n b^n$.
  3. Demuestra las leyes de los exponenetes para grupos.

Más adelante…

En la siguiente entrada nos fijaremos en un tipo de grupo especial: un grupo dentro de otro grupo. Es decir, comenzaremos a definir los subgrupos y a dar ejemplos de ellos.
Más adelante veremos que la notación de exponentes nos servirá, no sólo para expresar inversos sino para definir el orden de un elemento.

Entradas relacionadas

Cálculo Diferencial e Integral I: Teoremas sobre el límite de una función

Por Juan Manuel Naranjo Jurado

Introducción

Después de haber revisado algunos ejemplos de límite de funciones, estamos listos para conocer y demostrar algunas de las propiedades; para este fin, usaremos la relación existente entre el límite de una función y el de una sucesión demostrada en la entrada anterior.

Teoremas sobre el límite de una función

Considerando el criterio de sucesiones para límites visto anteriormente, es natural que haya una gran cantidad de propiedades que se hereden del límite de sucesiones. A continuación revisaremos algunas de ellas y podremos aprovechar la relación de ambos conceptos para hacer la demostración de las mismas.

Teorema. Sean $f: A \rightarrow \mathbb{R}$ y $g: A \rightarrow \mathbb{R}$ dos funciones y sea $c \in \mathbb{R}$. Si $$\lim_{x \to x_0} f(x) = L \quad \text{ y } \quad \lim_{x \to x_0} g(x) = M.$$
Entonces

  1. $$\lim_{x \to x_0} c \cdot f(x) = cL.$$
  2. $$\lim_{x \to x_0} (f+g)(x) = L+M.$$
  3. $$\lim_{x \to x_0} (f-g)(x) = L-M.$$
  4. $$\lim_{x \to x_0} (f \cdot g)(x) = L\cdot M.$$
  5. Si además $M \neq 0$, entonces $$\lim_{x \to x_0} \left( \frac{f}{g} \right) (x) = \frac{L}{M}.$$

Demostración

Daremos la demostración del inciso 4 y la demostración de los demás es análoga.

Sea $\{ a_n \}$ una sucesión en $A$ que converge a $x_0$ tal que $a_n \neq x_0$ para todo $n\in \mathbb{N}$, por el teorema anterior tenemos que
$$\lim_{n \to \infty} f(a_n) = L \quad \text{ y } \quad \lim_{n \to \infty} g(a_n) = M.$$

De esta forma podemos usar las propiedades de convergencia de una sucesión, así

$$\lim_{n \to \infty} (f \cdot g)(a_n) = \lim_{n \to \infty} \left( f(a_n) \cdot g(a_n) \right) = \lim_{n \to \infty} f(a_n) \cdot \lim_{n \to \infty} g(a_n) = L \cdot M.$$
Por el teorema revisado, podemos concluir que $$\lim_{x \to x_0} (f \cdot g)(x) = L \cdot M.$$

$\square$

Observación. Particularmente podemos generalizar los puntos 2 y 4, de tal forma que si $f_1, f_2, \dots, f_n$ son funciones definidas de $A$ a $\mathbb{R}$ cada una con límite $L_1, L_2, \dots L_n$ en $x_0$. Entonces

\begin{gather*}
\lim_{x \to x_0} (f_1 + f_2 + \ldots + f_n) (x) = L_1 + L_2 + \ldots + L_n \\
\text{ y } \\
\lim_{x \to x_0} (f_1 \cdot f_2 \cdot \ldots \cdot f_n)(x) = L_1 \cdot L_2 \cdot \ldots \cdot L_n.
\end{gather*}

Revisaremos un par de ejemplos donde aplicaremos las propiedades anteriores.

Ejemplo 1. Calcula $$\lim_{x \to 2} \frac{5x-12}{2x + 10}.$$
\begin{align*}
\lim_{x \to 2} \frac{5x-12}{2x + 10} =& \frac{ \lim_\limits{x \to 2} ( 5x-12 ) }{ \lim_\limits{x \to 2} (2x + 10) } \text{, por el punto 5 del teorema anterior} \\ \\
= & \frac{ \lim_\limits{x \to 2} 5x – \lim_\limits{x \to 2} 12 }{ \lim_\limits{x \to 2} 2x + \lim_\limits{x \to 2} 10 } \text{, por los puntos 2 y 3 del teorema anterior} \\ \\
= & \frac{10-12}{4+10} \\ \\
= & – \frac{1}{7}.
\end{align*}
$$\therefore \lim_{x \to 2} \frac{5x-12}{2x + 10} = – \frac{1}{7}.$$

Ejemplo 2. Calcula $$\lim_{x \to 5} \frac{x^3+3}{8x^2 + 7}.$$
\begin{align*}
\lim_{x \to 5} \frac{x^3+3}{8x^2 + 7} = & \frac{\lim_\limits{x \to 5} (x^3+3)}{ \lim_\limits{x \to 5} (8x^2 + 7)} \text{, por el punto 5 del teorema anterior} \\ \\
= & \frac{\lim_\limits{x \to 5} x^3+ \lim_\limits{x \to 5} 3}{ \lim_\limits{x \to 5} 8x^2 + \lim_\limits{x \to 5} 7} \text{, por el punto 2 del teorema anterior} \\ \\
= & \frac{125+ 3}{200 + 7} \\ \\
= & \frac{128}{207}.
\end{align*}
$$\therefore \lim_{x \to 5} \frac{x^3+3}{8x^2 + 7} = \frac{128}{207}.$$

En los ejemplos anteriores se hizo énfasis en las propiedades que nos permitieron calcular el límite con la finalidad de mostrar claramente cómo se emplean, sin embargo, esto no será necesario y, de hecho, no se hará tal hincapié de ahora en adelante.

A continuación probaremos el teorema del sándwich para el límite de una función.

Teorema. Sean $f$, $g$, $h : A \rightarrow \mathbb{R}$ y sea $x_0 \in A$. Si

$$f(x) \leq g(x) \leq h(x) \text{, para todo } x \in A, x \neq x_0,$$

y si $$\lim_{x \to x_0} f(x) = L \quad \text{ y } \quad \lim_{x \to x_0} h(x) = L.$$

Entonces

$$\lim_{x \to x_0} g(x) = L.$$
Demostración

Sea $\varepsilon > 0 $, como $f$ y $h$ tienen como límite a $L$ en $x_0$, entonces existen $\delta_1$, $\delta_2$ tales que

\begin{gather*}
0<|x-x_0|< \delta_1, \quad \text{entonces} \quad |f(x)-L|< \varepsilon \\
\text{ y } \\
0<|x-x_0|< \delta_2, \quad \text{entonces} \quad |h(x)-L| < \varepsilon.
\end{gather*}

Consideremos $\delta = min\{ \delta_1, \delta_2 \}$, si $0<|x-x_0|< \delta$, se cumple que

\begin{gather*}
-\varepsilon < f(x)-L < \varepsilon \quad \Leftrightarrow \quad L-\varepsilon < f(x) < L + \varepsilon \\
\text{ y } \\
-\varepsilon < h(x)-L < \varepsilon \quad \Leftrightarrow \quad L-\varepsilon < h(x) < L + \varepsilon.
\end{gather*}

Además, por hipótesis se tiene que $f(x) \leq g(x) \leq h(x)$, entonces

\begin{gather*}
L-\varepsilon < f(x) \leq g(x) \quad \text{ y } \quad g(x) \leq h(x) < L + \varepsilon.
\end{gather*}
Se sigue que
\begin{gather*}
L-\varepsilon < g(x) < L + \varepsilon. \\ \\
\Leftrightarrow -\varepsilon < g(x) – L< \varepsilon. \\ \\
\therefore |g(x) – L| < \varepsilon. \\ \\
\therefore \lim_{x \to x_0} g(x) = L.
\end{gather*}

$\square$

A continuación veremos un ejemplo donde podemos aplicar el teorema del sándwich.

Ejemplo 3. Encuentra el siguiente límite: $$\lim_{x_0 \to 0} x^2 e^{sen(\frac{1}{x})}.$$
Sabemos que

\begin{gather*}
– 1 \leq sen(\frac{1}{x}) \leq 1 \text{, para todo } x \neq 0.
\end{gather*}
Dado que la función exponencial no altera la relación de orden, entonces tenemos
\begin{gather*}
e^{- 1} \leq e^{sen(\frac{1}{x})} \leq e^{ 1}.
\end{gather*}
Se sigue que
\begin{gather*}
x^2 e^{- 1} \leq x^2 e^{sen(\frac{1}{x})} \leq x^2 e^{ 1}.
\end{gather*}

La función original $g(x) = x^2 e^{sen(\frac{1}{x})}$ está acotada por $f(x) = x^2 e^{- 1}$ y $h(x) = x^2 e^{1}$. Tal como se muestra en la siguiente gráfica:

Notemos que
$$\lim_{x \to 0} x^2 e^{- 1} = 0 \quad \text{ y } \quad \lim_{x \to 0} x^2 e^{1} = 0.$$
Por el teorema del sándwich podemos concluir que $$\lim_{x_0 \to 0} x^2 e^{sen(\frac{1}{x})} = 0.$$

En esta entrada revisamos algunas de las propiedades que tiene el límite de una función haciendo uso del límite de sucesiones, pero vale la pena destacar que también se pudo recorrer este tramo del camino usando la definición épsilon-delta y te invitamos a realizar el ejercicio de demostrar algunas de las propiedades haciendo uso de tal definición con la finalidad de tener un dominio mayor del concepto.

Más adelante…

Extenderemos la noción de límite de una función definiendo una nueva clase de límites: los límites laterales. Veremos la definición de límite por la derecha y límite por la izquierda que son definiciones menos exigentes y las cuales nos permiten tener un análisis más detallado para aquellas funciones donde el límite no existe.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que si $$\lim_{x \to x_0} f(x) = L \text{, entonces } \lim_{x \to x_0} |f(x)| = |L|.$$
  • Calcula el límite $$\lim_{x \to 0} \frac{(x+1)^2-1}{x}.$$
  • Calcula el límite $$\lim_{x \to 0} \frac{\sqrt{x}-1}{x-1}.$$
  • Calcula el límite $$\lim_{x \to 0} x^2 cos \left( \frac{1}{x^2} \right).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Probabilidad I: Propiedades de una Medida de Probabilidad, parte 2

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada vimos dos propiedades importantes de la probabilidad. La primera, la regla de complementación, establece la relación que existe entre la probabilidad de un evento con la de su complemento. La segunda, el principio de inclusión-exclusión, nos brinda una fórmula para el cálculo de la probabilidad de cualquier unión de eventos, sin importar si estos no son ajenos dos a dos.

En esta entrada veremos algunas propiedades más. Primero, veremos cómo interactúa una medida de probabilidad con la relación como subconjunto «$\subseteq$». Posteriormente, veremos dos propiedades que exhiben la relación que existe entre la probabilidad de la unión de cualquier familia a lo más numerable de eventos y la suma de sus probabilidades.

Interacción de la probabilidad con la relación como subconjunto

A lo largo de entra estada, consideraremos que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad. Una propiedad interesante surge al preguntarnos cómo interactúa la probabilidad con la relación como subconjunto. Esto es, dados $A$ y $B$ eventos tales que $B \subseteq A$, ¿cómo se comparan $\mathbb{P}(A)$ y $\mathbb{P}(B)$? La relación $\subseteq$ indica que todos los elementos de $B$ son también elementos de $A$, pero $A$ puede tener ciertos elementos que no están en $B$. Por ello, esperaríamos que la probabilidad de $B$ debería de ser menor o igual a la probabilidad de $A$. Resulta que sí, e incluso podemos ser más precisos con esta propiedad.


Proposición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Para cualesquiera $A$, $B \in \mathscr{F}$ eventos tales que $B \subseteq A$ se cumple que

\[ \mathbb{P}(A) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B). \]

En consecuencia, $\mathbb{P}(A \smallsetminus B) = \mathbb{P}(A) − \mathbb{P}(B)$, y además, como la probabilidad es no-negativa, $\mathbb{P}(A \smallsetminus B) \geq 0$, y así, $\mathbb{P}(B) \leq \mathbb{P}(A)$.


Demostración. Sean $A$, $B \in \mathscr{F}$ tales que $B \subseteq A$. Como $B \subseteq A$, es posible escribir a $A$ como $A = B \cup (A \smallsetminus B)$. Esto no es posible cuando $B$ no es subconjunto de $A$. Además, observa que $A \cap (A \smallsetminus B) = \emptyset$, así que por la aditividad finita de $\mathbb{P}$, se tiene que

\[ \mathbb{P}(A) = \mathbb{P}(B \cup (A \smallsetminus B)) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B), \]

es decir, $\mathbb{P}(A) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B)$, que es justamente lo que queríamos demostrar.

$\square$

Así, vemos que cuando $B \subseteq A$, la probabilidad de $A$ es igual a la probabilidad de $B$ más un valor no-negativo, por lo que $\mathbb{P}(B) \leq \mathbb{P}(A)$.

La subaditividad finita de una medida de probabilidad

Una de las propiedades que vimos en la entrada pasada fue el principio de inclusión-exclusión. Este principio da solución al problema de calcular la probabilidad de la unión de dos eventos cualesquiera. En particular, cuando tenemos dos eventos $A$ y $B$, se cumple que

\[ \mathbb{P}(A \cup B) + \mathbb{P}(A \cap B) = \mathbb{P}(A) + \mathbb{P}(B), \]

y como $\mathbb{P}$ es no-negativa, se cumple $\mathbb{P}(A \cap B) \geq 0$, por lo que $\mathbb{P}(A \cup B) \leq \mathbb{P}(A) + \mathbb{P}(B)$. En este caso es muy sencillo, pero puede no ser tan evidente para $3$ o más eventos. Para demostrar este hecho cuando se tienen $3$ o más eventos, hay que aplicar un truquito especial.

Sean $A_{1}$, $A_{2}$ y $A_{3}$ eventos cualesquiera. Primero, observa que $A_{1} \cup A_{2} = A_{1} \cup (A_{2} \smallsetminus A_{1})$. Ahora, hagamos lo mismo pero con $A_{1} \cup A_{2}$ y $A_{3}$. Esto es,

\[ (A_{1} \cup A_{2}) \cup A_{3} = (A_{1} \cup A_{2}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2})) = A_{1} \cup (A_{2} \smallsetminus A_{1}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2})). \]

Lo que estamos haciendo es que, conforme avanzamos en el subíndice, al siguiente elemento de la unión le quitamos todos los que ya incluimos. Lo que logramos con esto es que se trate de una unión de eventos ajenos dos a dos. Observa que

\begin{align*} A_{1} \cap (A_{2} \smallsetminus A_{1}) &= \emptyset, \\ A_{1} \cap (A_{3} \smallsetminus (A_{1} \cup A_{2})) &= \emptyset, \\ A_{2} \cap (A_{3} \smallsetminus (A_{1} \cup A_{2})) &= \emptyset, \end{align*}

por lo que $A_{1}$, $A_{2} \smallsetminus A_{1}$ y $A_{3} \smallsetminus (A_{1} \cup A_{2})$ son eventos ajenos dos a dos. En consecuencia, por la aditividad finita de $\mathbb{P}$, se tiene que

\[ \mathbb{P}(A_{1} \cup (A_{2} \smallsetminus A_{1}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2}))) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2} \smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})), \]

y por lo observado anteriormente, podemos concluir que

\[ \mathbb{P}(A_{1} \cup A_{2} \cup A_{3}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2} \smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})). \]

Luego, como $A_{1} \subseteq A_{1}$, $A_{2} \smallsetminus A_{1} \subseteq A_{2}$ y $A_{3} \smallsetminus A_{3} \smallsetminus (A_{1} \cup A_{2})$, por la proposición anterior se tiene que

\begin{align*} \mathbb{P}(A_{1}) &\leq \mathbb{P}(A_{1}), \\ \mathbb{P}(A_{2} \smallsetminus A_{1}) &\leq \mathbb{P}(A_{2}), \\ \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})) &\leq \mathbb{P}(A_{3}), \end{align*}

así que la suma de los $3$ de la izquierda será menor o igual a la suma de los $3$ de la derecha. Es decir,

\begin{align*} \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}\smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})) &\leq \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) + \mathbb{P}(A_{3}), \end{align*}

y por lo tanto,

\[ \mathbb{P}(A_{1} \cup A_{2} \cup A_{3}) \leq \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) + \mathbb{P}(A_{3}). \]

En conclusión, la probabilidad de la unión de $3$ eventos es menor o igual a la suma de sus probabilidades. Esto puede extenderse para familias de $n$ conjuntos, con $n \in \mathbb{N}^{+}$.


Proposición. Sea $(\Omega, \mathscr{P}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualquier $n \in \mathbb{N}^{+}$ se cumple que, para cualquier familia finita de eventos $A_{1}$, $A_{2}$, …, $A_{n} \in \mathscr{F}$ se tiene

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} A_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]


Demostración. Sea $n \in \mathbb{N}^{+}$ y sean $A_{1}$, $A_{2}$, …, $A_{n} \in \mathscr{F}$. Primero, observa que

\[ \bigcup_{k=1}^{n} A_{k} = \bigcup_{k=1}^{n} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)} \right]}, \]

donde consideramos a $\bigcup_{i = 1}^{0}A_{i} = \emptyset$. Esto es exactamente lo mismo que hicimos antes para $3$ eventos, pero extendiéndolo a los $n$ eventos de esta demostración. Ahora, vamos a ponerles nombre a los eventos que usaremos de manera auxiliar. Para cada $k \in \{1, \ldots, n\}$, se define $B_{k}$ como sigue

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)}. \]

Por construcción, $B_{1}$, $B_{2}$, …, $B_{n} \in \mathscr{F}$ es una familia de eventos ajenos dos a dos. Esto es, se cumple que

\[ \forall i, j \in \{1, \ldots, n \}\colon (i \neq j \implies B_{i} \cap B_{j} = \emptyset). \]

Esto puede verificarse tomando $i, j \in \{1,\ldots,n\}$ tales que $i \neq j$. Por la tricotomía en $\mathbb{N}$, hay dos casos: $i > j$ ó $i < j$. En cualquier caso, se puede concluir que $B_{i} \cap B_{j} = \emptyset$. Además, también por construcción de los $B_{k}$, se tiene que

\begin{equation} \label{subad1} \bigcup_{k=1}^{n} B_{k} = \bigcup_{k=1}^{n} A_{k}. \end{equation}

Ahora, como los $B_{k}$ son ajenos dos a dos, podemos aplicar la aditividad finita de $\mathbb{P}$. Esto es,

\begin{equation} \label{subad2} \mathbb{P}{\left( \bigcup_{k=1}^{n} B_{k} \right)} = \sum_{k=1}^{n} \mathbb{P}(B_{k}). \end{equation}

Ahora, observa que para cada $k \in \{1, \ldots, n\}$ se cumple que $B_{k} \subseteq A_{k}$, pues

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)} \subseteq A_{k}. \]

Por lo tanto, se tiene que

\[ \mathbb{P}(B_{k}) \leq \mathbb{P}(A_{k}), \]

y sumando sobre todos los $k \in \{1, \ldots, n\}$, se tiene que

\[ \sum_{k=1}^{n} \mathbb{P}(B_{k}) \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]

Así, por \eqref{subad2}, se tiene que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} B_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}), \]

y por \eqref{subad1}, podemos concluir que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} A_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}), \]

que es justamente lo que queríamos demostrar.

$\square$

Esta propiedad es conocida como la subaditividad finita de una medida de probabilidad. Lleva la connotación de finita porque, así como con la aditividad, también existe una propiedad llamada σ-subaditividad. Esta es la propiedad que veremos a continuación.

La σ-subaditividad de una medida de probabilidad

Para el caso en el que tenemos una familia numerable de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$, procederemos de la misma manera que hicimos en la última demostración.


Proposición. Sea $(\Omega, \mathscr{P}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualquier familia numerable de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ se cumple que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k}\right)} = \sum_{k=1}^{\infty} \mathbb{P}(A_{k}). \]


Demostración. Sean $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ una familia numerable de eventos. Observa que se cumple que

\[ \bigcup_{k=1}^{\infty} A_{k} = \bigcup_{k=1}^{\infty} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}\right]}. \]

Definamos una familia de conjuntos para auxiliarnos en esta demostración. Para cada $k \in \mathbb{N}^{+}$, definimos el evento $B_{k}$ como sigue:

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i}\right)}. \]

Nuevamente, consideramos que para $k=1$, $B_{1} = A_{1}$. Por la construcción de $B_{k}$, para cada $k \in \mathbb{N}^{+}$ se tiene que $B_{k} \subseteq A_{k}$, por lo que

\begin{align*} \mathbb{P}(B_{k}) \leq \mathbb{P}(A_{k}). \end{align*}

En consecuencia, se cumple la siguiente desigualdad de series:

\begin{equation} \label{sigmasubad1} \sum_{k=1}^{\infty} \mathbb{P}(B_{k}) \leq \sum_{k=1}^{\infty} \mathbb{P}(A_{k}), \end{equation}

pues la desigualdad se cumple término a término. Por otro lado, observa que los eventos de la familia $\{B_{k}\}_{k=1}^{\infty}$ son ajenos dos a dos (por la misma razón que en la demostración anterior). Por ello, podemos aplicar la σ-aditividad de $\mathbb{P}$, y así

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} B_{k} \right)} = \sum_{k=1}^{\infty} \mathbb{P}(B_{k}). \]

Además, recuerda que

\[ \bigcup_{k=1}^{\infty} A_{k} = \bigcup_{k=1}^{\infty} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}\right]} = \bigcup_{k=1}^{\infty} B_{k}, \]

por lo que

\begin{equation} \label{sigmasubad2} \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k} \right)} = \sum_{k=1}^{\infty} \mathbb{P}(B_{k}). \end{equation}

Por lo tanto, si sustituimos \eqref{sigmasubad2} en \eqref{sigmasubad1}, podemos concluir que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k} \right)} \leq \sum_{k=1}^{\infty} \mathbb{P}(A_{k}), \]

que es justamente lo que queríamos demostrar.

$\square$

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Demuestra que para cualesquiera eventos $A$, $B \in \mathscr{F}$ se cumple que \[ \mathbb{P}(A \smallsetminus B) = \mathbb{P}(A) − \mathbb{P}(A \cap B). \]Sugerencia: utiliza la primera proposición de esta entrada con los conjuntos $A \cap B$ y $A$.
  2. Demuestra que para cualesquiera eventos $A$, $B \in \mathscr{F}$ se cumple que \[ \mathbb{P}(A \triangle B) = \mathbb{P}(A) + \mathbb{P}(A) − 2\mathbb{P}(A \cap B).\]Sugerencia: recuerda que $A \triangle B = (A \smallsetminus B) \cup (B \smallsetminus A)$ y utiliza el resultado anterior.
  3. En las demostraciones de la segunda y tercera proposiciones de esta entrada tomamos familias arbitrarias de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ (en la segunda la tomamos finita). Luego, para cada $k \in \mathbb{N}^{+}$ definimos $B_{k}$ como \[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}, \] que es una familia de eventos auxiliares para la demostración. En particular, utilizamos que la familia de los $B_{k}$ son ajenos dos a dos. Demuestra que efectivamente es una familia de eventos ajenos dos a dos.

Más adelante…

Con esta entrada concluimos nuestro tratamiento de las propiedades que consideramos más importantes de una medida de probabilidad. Lo que haremos a continuación será presentar las primeras medidas de probabilidad concretas del curso: la probabilidad geométrica, la probabilidad frecuentista y la probabilidad clásica.

Entradas relacionadas