Archivo de la etiqueta: probabilidad

Probabilidad I: Interpretación de las Operaciones con Eventos

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior introdujimos finalmente lo que es una medida de probabilidad. Vimos las propiedades que determinan si una función dada es una medida de probabilidad. Sin embargo, antes de continuar con sus propiedades, hagamos una pausa. Para ser exactos, veamos la interpretación de las operaciones con conjuntos en este contexto.

Con frecuencia te enfrentarás con problemas concretos que requerirán que interpretes bien las operaciones entre eventos. En particular, los problemas de conteo son muy importantes en la probabilidad, y suelen requerir de estas habilidades. Por ello, es importante que tengas clara la interpretación de las operaciones con conjuntos.

Complementación

Para empezar, hay que saber interpretar la complementación. Para hacerlo, sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y $A$ un evento. Recuerda que el complemento de un conjunto $A$ con respecto a $\Omega$ son todos los elementos de $\Omega$ que no son elementos de $A$. Esto es,

\begin{align*}
A^{\mathsf{c}} = \{ \omega \in \Omega \mid \omega \notin A \}.
\end{align*}

Esta es la definición matemática del complemento. Sin embargo, ¿cómo la interpretamos en el contexto la probabilidad? Para hacerlo, recuerda que un evento $A$ es un subconjunto de $\Omega$. En consecuencia, $A$ tiene algunos de los elementos de $\Omega$. Es decir, los elementos de $A$ son algunos de los posibles resultados del fenómeno aleatorio.

Por ello, cuando obtenemos la probabilidad de $A$, esto es, $\mathbb{P}(A)$, este número indica «la probabilidad de que ocurra $A$». Por el contrario, el evento $A^{\mathsf{c}}$ incluye todos los elementos de $\Omega$ que no son elementos de $A$. En principio, podríamos decir que $\mathbb{P}(A^{\mathsf{c}})$ es «la probabilidad de que ocurra $A^{\mathsf{c}}$». Sin embargo, una interpretación útil en nuestro contexto es que $\mathbb{P}(A^{\mathsf{c}})$ expresa «la probabilidad de que no ocurra $A$».

Esta dualidad es muy importante, porque puedes encontrarte con problemas en los que te piden la probabilidad de que no ocurra algo. Ante esta situación, lo que debes de hacer es pensar en el complemento del evento en cuestión.

Ejemplo. Sea $\Omega = \{ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$ un σ-álgebra sobre $\Omega$; y supón que se eligirá uno de estos números al azar. Supongamos que nos interesa el evento en el que «el resultado no es un múltiplo de $3$». Primero, debemos de identificar el evento «el resultado es un múltiplo de $3$». Este sería el evento cuyos elementos son todos los resultados que son múltiplo de $3$. Sea $A$ ese evento. Entonces, matemáticamente, $A$ sería el conjunto

\[ A = \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 3k \}. \]

En particular, en este ejemplo basta con revisar los elementos de $\Omega$ que satisfacen esta propiedad. Más precisamente, $A$ sería el conjunto

\[ A = \{ 3, 6, 9 \}. \]

Ahora, el evento que nos interesa es que «el resultado no es un múltiplo de $3$», así que el evento que corresponde sería $A^{\mathsf{c}}$. Es decir, la solución a este ejemplo sería

\[ A^{\mathsf{c}} = \{ 1, 2, 4, 5, 7, 8, 10 \}, \]

el evento cuyos elementos son todos los resultados que no son múltiplos de $3$.


Unión de eventos

En ocasiones puede interesarnos el evento en el que el resultado entra en al menos una de varias posibilidades. Por ejemplo, si dados $A$, $B$ eventos, ¿cuál es el evento que concentra la posibilidad de que ocurra $A$ u ocurra $B$? Este sería $A \cup B$, pues recuerda que

\[ A \cup B = \{ \omega \in \Omega \mid \omega \in A \lor \omega \in B \}. \]

Como $A \cup B$ está definida por el conectivo lógico «ó», se entiende que los elementos de $A \cup B$ satisfacen al menos una de dos posibilidades: ser elemento de $A$, o ser elemento de $B$. Esto es importante, porque entonces, en el contexto de la probabilidad, $\mathbb{P}(A \cup B)$ expresa «la probabilidad de que ocurra $A$ u ocurra $B$». En otras palabras, «la probabilidad de que ocurra al menos uno de dos casos posibles: que ocurra $A$, o que ocurra $B$».

Es muy importante que recuerdes que el «ó» en lógica es inclusivo, es decir, que si el resultado es tal que $A$ y $B$ ocurren, se considera que ocurrió $A$ ó $B$. Además, esta misma interpretación se extiende a cuando tienes $n$ eventos, $\bigcup_{i = 1}^{n} A_{n}$ sería el evento en el que ocurre al menos uno de los $A_{i}$.

Ejemplo. Nuevamente, sea $\Omega = \{ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$ un σ-álgebra sobre $\Omega$; y supón que se eligirá uno de estos números al azar. Supongamos que nos interesa el evento «el resultado es un número par o el resultado es un múltiplo de $5$». Para verlo, tenemos que identificar los eventos que lo conforman. Estos son dos: «el resultado es un número par» y «el resultado es un múltiplo de $5$». Es decir, son dos eventos $A$, $B$, que expresados matemáticamente son

\begin{align*}
A &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k \}, \\
B &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 5k \}.
\end{align*}

Explícitamente, en este ejemplo, estos eventos son

\begin{align*}
A &= \{2,4,6,8,10\}, \\
B &= \{5,10\},
\end{align*}

por lo que el evento que buscamos en este ejemplo es $A \cup B$, que sería

\begin{align*}
A \cup B &= \{2,4,5,6,8,10\}.
\end{align*}

Ciertamente, los elementos de $A \cup B$ son todos los elementos de $\Omega$ que son pares o son múltiplos de $5$.


En ocasiones, es bueno que sepas partir de la definición matemática, seas capaz de interpretarla, y obtengas cuál es el resultado de una operación con conjuntos. Por ejemplo, sean

\begin{align*}
C &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k + 1 \}, \\
D &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 3k \}.
\end{align*}

La interpretación de $C$ es que es el evento en el que «el resultado es impar», y $D$ es el evento en el que «el resultado es múltiplo de $3$».

¿Qué interpretación tendría el evento $C \cup D$? Basta con conectar las expresiones que obtuvimos de interpretar a $C$ y a $D$. Así $C \cup D$ es el evento en el que «el resultado es impar o el resultado es múltiplo de $3$».


Intersección de eventos

También puede resultar interesante el evento en el que múltiples posibilidades se satisfacen a la vez. Por ejemplo, dados $A$, $B$ eventos, ¿cuál es el evento que representa que ocurran $A$ y $B$ a la vez? La respuesta es $A \cap B$. Recuerda que

\[ A \cap B = \{ \omega \in \Omega \mid \omega \in A \land \omega \in B \}. \]

En el caso de $A \cap B$, esta operación está definida por el conectivo lógico «y», así que los elementos de $A \cap B$ satisfacen dos condiciones: son elementos de $A$ y son elementos de $B$. Ambas deben de ser verdaderas para ser elemento de $A \cap B$. Por ello, en el contexto de la probabilidad, $\mathbb{P}(A \cap B)$ expresa «la probabilidad de que ocurra $A$ y ocurra $B$». En otras palabras, expresa «la probabilidad de que se satisfagan dos condiciones: que ocurra $A$ y que ocurra $B$».

Esta misma idea se extiende a más conjuntos. Por ejemplo, si tienes $n$ conjuntos, entonces $\bigcap_{i=1}^{n} A_{i}$ es el evento en el que ocurren todos los $A_{i}$.

Ejemplo. Veamos ahora un ejemplo menos formal. Con frecuencia te econtrarás con ejercicios de este tipo. Sea $P$ el conjunto cuyos elementos son los habitantes de la colonia donde vives. Supón que escogeremos dos personas distintas de $P$ al azar. Primero, observa que el espacio muestral de este fenómeno aleatorio sería

\[ \Omega = \{ (x,y) \in P\times P \mid x \neq y \}, \]

son todos los pares ordenados de elementos de $P$ en los que las coordenadas son distintas. Esto obedece a que el experimento aleatorio consiste en seleccionar dos personas distintas de $P$. Bien, ahora piensa en los siguientes eventos que nos podrían interesar:

  • $H$ es el evento en el que «las dos personas escogidas son hombres«.
  • $E$ es el evento en el que «las dos personas escogidas tienen la misma edad«.
  • $V$ es el evento en el que «las dos personas escogidas son vecinas«.

Aquí hicimos una elección conveniente de letras que ayudan a identificar lo que significa cada evento. Por ejemplo, utilizamos $H$ para el evento en el que ambas personas son hombres porque la primera letra de la palabra «hombres» es ‘h’.

Ahora, veamos algunas operaciones entre los eventos anteriores.

  • Primero, veamos qué evento es $H \cap E$. Este es el evento en el que se satisfacen $H$ y $E$ a la vez. Por ello, $H \cap E$ sería el evento en el que «las dos personas escogidas son hombres y tienen la misma edad«.
  • $H^{\mathsf{c}}$, el complemento de $H$, es aquel evento en donde $H$ no se cumple. Es decir, $H^{\mathsf{c}}$ es el evento en el que «las dos personas escogidas no son ambas hombres«. En otras palabras, es el evento en el que al menos una de las dos personas elegidas es mujer, porque esto asegura que no son ambas hombres.
  • $H^{\mathsf{c}} \cup V$ es el evento en el que ocurre al menos una de dos posibilidades: no ocurre $H$, u ocurre $V$. Es decir, es el evento en el que «las dos personas escogidas cumplen al menos una de dos condiciones: al menos una de ellas es mujer, o son vecinas«.
  • $H^{\mathsf{c}} \cap V^{\mathsf{c}}$ es el evento en el que cumple que no ocurre $H$ y no ocurre $V$. Esto es, sería el evento en el que «las dos personas escogidas satisfacen dos condiciones: al menos una de ellas es mujer, y no son vecinas«.
  • $E \cap H^{\mathsf{c}}$ es el evento en el que ocurre $E$, pero no ocurre $H$. Por tanto, sería el evento en el que «las dos personas escogidas tienen la misma edad y al menos una de ellas es mujer«.

Para acabar el contenido de esta entrada, presentaremos la interpretación de dos operaciones con eventos que son un poco más especializadas, pero que es bueno tenerlas en cuenta.

Diferencia de eventos

La diferencia de eventos es muy similar a la intersección de eventos, pero también entra en juego el complemento. Dados $A$ y $B$ eventos, puede interesarnos aquel evento en el que ocurre $A$ y no ocurre $B$. Es decir, sí tomamos en cuenta los elementos de $A$, pero queremos que no se tomen en cuenta los de $B$. Esto podemos hacerlo a través de una intersección:

\[ A \cap B^{\mathsf{c}} = \{ \omega \in \Omega \mid \omega \in A \land \omega \notin B \}. \]

Como suponemos que $A$ y $B$ son eventos de un cierto espacio muestral $\Omega$, se cumple que $A \subseteq \Omega$ y $B \subseteq \Omega$. Por ello, el complemento es relativo a $\Omega$, y se tiene que

\[ A \cap B^{\mathsf{c}} = A \smallsetminus B, \]

así que $A \smallsetminus B$ es precisamente aquel evento en el que ocurre $A$ y no ocurre $B$. En consecuencia, $\mathbb{P}(A \smallsetminus B)$ expresa «la probabilidad de que ocurra $A$ y no ocurra $B$».

Diferencia simétrica de eventos

Hay una última operación entre eventos que consideramos importante que sepas interpretar. Esta es la diferencia simétrica de dos eventos. Dados $A$ y $B$ eventos, nos podría interesar aquel evento en el que ocurre $A$ u ocurre $B$, pero no ocurren ambos a la vez. En otras palabras, podría interesarnos el evento en el que ocurre exclusivamente $A$, u ocurre exclusivamente $B$. Este evento sería la diferencia simétrica de $A$ y $B$:

\[ A \triangle B = \{ \omega \in \Omega \mid (\omega \in A \land \omega \notin B) \lor (\omega \in B \land \omega \notin A) \}. \]

Hay varias maneras de escribir a $A \triangle B$, las siguientes son las más tradicionales:

\begin{align*}
A \triangle B &= (A \cup B) \smallsetminus (A \cap B), \\
A \triangle B &= (A \smallsetminus B) \cup (A \smallsetminus B).
\end{align*}

Por si te interesa saber más al respecto, el conectivo lógico que determina a $A \triangle B$ es el «o exclusivo«, frecuentemente denotado por $\mathsf{XOR}$, que se deriva del término en inglés «exclusive or«. Así, $A \triangle B$ es el evento en el que «ocurre $A$ u ocurre $B$, pero no ocurren $A$ y $B$ a la vez». En consecuencia, $\mathbb{P}(A \triangle B)$ expresa «la probabilidad de que ocurra $A$ u ocurra $B$ pero no ocurran $A$ y $B$ a la vez».

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

Retomando el ejemplo en el que $P$ es el conjunto de habitantes de la colonia donde vives, y nuevamente suponiendo que se seleccionarán dos personas distintas al azar, con

\[ \Omega = \{ (x,y) \in P \times P \mid x \neq y \}, \]

considera los siguientes eventos:

  • $M$ el evento en el que las dos personas elegidas son mujeres.
  • $T$ el evento en el que las dos personas elegidas tienen trabajo.
  • $A$ el evento en el que las dos personas elegidas tienen al menos un automóvil.

Determina el significado de los siguientes eventos:

  • $M^{\mathsf{c}}$.
  • $M \cap T$.
  • $A \smallsetminus T$.
  • $M^{\mathsf{c}} \cap A^{\mathsf{c}}$.
  • $T \triangle M$.
  • $M \cap T \cap A$.
  • $A \cup (M^{\mathsf{c}} \triangle T)$.

Más adelante…

En la siguiente entrada retomaremos el rumbo que tomamos en la entrada anterior, ya que varias propiedades interesantes de una medida de probabilidad involucran operaciones con eventos. La interpretación de las operaciones con eventos es una herramienta muy útil que te ayudará en la resolución de problemas, pero no es estrictamente necesaria. La probabilidad de eventos que son el resultado de realizar operaciones con eventos puede obtenerse sin necesidad de estas interpretaciones. Sin embargo, sí resulta de utilidad para que puedas plantear correctamente ciertos problemas en los que los eventos no están definidos explícitamente.

Entradas relacionadas

Probabilidad I: Medida de Probabilidad

Por Octavio Daniel Ríos García

Introducción

En la última sesión demostramos un teorema de vital importancia que permite construir un σ-álgebra a partir de cualquier familia dada de conjuntos. Con esto, ya tenemos los objetos necesarios para empezar a tratar con el concepto de «medida». Anteriormente comentamos que un σ-álgebra es el conjunto cuyos elementos son a los que podremos «calificar», es decir, los que podremos medir. En esta sesión describiremos la noción de «medir» los elementos de un σ-álgebra dado.

Definición de Medida de Probabilidad

Dado un espacio muestral $\Omega$ y $\mathscr{F}$ un σ-álgebra sobre $\Omega$, pretendemos asignar a cada $A \in \mathscr{F}$ un valor numérico. Para ello, en matemáticas utilizamos funciones. En este caso, necesitaremos una función que exprese nuestra noción de «probabilidad de ocurrencia». A cada elemento $A \in \mathscr{F}$ se le asignará un valor $\mathbb{P}(A) \in \mathbb{R}$ que deberá estar en el intervalo $[0,1]$. Así, el $0$ representará lo menos probable posible, y el $1$ lo más probable posible. Esta discusión da lugar a la definición de medida de probabilidad.


Definición. Sea $\Omega$ un conjunto y $\mathscr{F}$ un σ-álgebra sobre $\Omega$. Diremos que una función $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad si cumple las siguientes propiedades:

  1. Para todo $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. Esto es, $\mathbb{P}$ es no-negativa.
  2. Si $\left\lbrace A_{n} \right\rbrace_{n=1}^{\infty}$ es una familia numerable de conjuntos ajenos dos a dos de $\mathscr{F}$, entonces
    \[ \mathbb{P}\left( \bigcup_{n=1}^{\infty} A_{n} \right) = \sum_{n=1}^{\infty} \mathbb{P}(A_{n}). \]Esta propiedad es conocida como σ-aditividad. Es decir, $\mathbb{P}$ es σ-aditiva.
  3. $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$.

Por familia numerable de conjuntos ajenos dos a dos, queremos decir que se cumple que

\[ \forall i, j \in \mathbb{N}^{+}\colon (i \neq j \implies A_{i} \cap A_{j} = \emptyset). \]

Es decir, que para cualesquiera índices $i$ y $j$, si $i$ es distinto de $j$, entonces los conjuntos $A_{i}$ y $A_{j}$ son ajenos.

En resumidas cuentas, una medida de probabilidad es cualquier función que satisface las tres propiedades de la definición anterior. Además, si $\Omega$ es un conjunto, $\mathscr{F}$ un σ-álgebra sobre $\Omega$, y $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad, la terna $(\Omega, \mathscr{F}, \mathbb{P})$ recibe el nombre de espacio de probabilidad. Es decir, a partir de ahora, cuando digamos que «$(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad», se entenderá que $\Omega$, $\mathscr{F}$ y $\mathbb{P}$ son los objetos que corresponden.

Juntando todas nuestras herramientas

Ya que tenemos los conceptos más fundamentales de la probabilidad, hay que ver cómo encajan juntos. Para empezar, recuerda que el espacio muestral de un fenómeno aleatorio es el conjunto $\Omega$. Los elementos de este conjunto son todos los resultados posibles del fenómeno. Luego, tomaremos a $\mathscr{F}$, que es un σ-álgebra sobre $\Omega$. Finalmente, sobre $\mathscr{F}$ se define la medida de probabilidad $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$.

Pero, ¿por qué se define la medida sobre el σ-álgebra? ¿Por qué no la definimos directamente sobre $\Omega$? Recuerda que los elementos de un σ-álgebra, a los cuales llamaremos eventos, son subconjuntos de $\Omega$. En la primera entrada de este curso justificamos las propiedades de un σ-álgebra. En particular, mencionamos que un evento $A \in \mathscr{F}$ burdamente cumple lo siguiente: Dado cualquier $\omega \in \Omega$ (es decir, dado cualquiera de los resultados posibles del fenómeno aleatorio), la pregunta «¿es cierto que $\omega \in A$» tiene respuesta. Por ello, cuando nuestra medida de probabilidad asigne el número $\mathbb{P}(A)$ al conjunto $A$, ese número expresa cuál es la probabilidad de que sea cierto que $\omega \in A$. En otras palabras, entre $0$ y $1$, ¿qué tan probable es que ocurra cualquiera de los resultados en $A$? La respuesta será $\mathbb{P}(A)$. Por este motivo, el número $\mathbb{P}(A)$ suele leerse como «la probabilidad del evento $A$», o simplemente, «la probabilidad de $A$».

Justificando las propiedades de una medida de probabilidad

Por otro lado, veamos un poco sobre la motivación de las propiedades de una medida de probabilidad. La no-negatividad surge muy naturalmente de nuestra restricción de la medida al intervalo $[0,1]$. Por otro lado, la σ-aditividad tiene dos razones de ser. Primero, observa que la σ-aditividad implica la aditividad finita. Si $A_{1}$, $A_{2}$, … , $A_{n} \in \mathscr{F}$ son $n$ eventos cualesquiera que son ajenos dos a dos, podemos definir la siguiente familia numerable de conjuntos:

\[ E_{1} = A_{1}, E_{2} = A_{2}, E_{3} = A_{3}, \ldots, E_{n} = A_{n}, E_{n+1} = \emptyset, E_{n+2} = \emptyset, \ldots, \]

Es decir, para cada $k \in \mathbb{N}$ tal que $k \geq n+1$, se define $E_{k} = \emptyset$. Esta es una familia numerable de eventos ajenos (observa que la intersección de cualesquiera dos eventos de la familia resulta ser vacía). Por lo tanto, podemos aplicar la σ-aditividad de $\mathbb{P}$. Esto es, se tiene que

\[ \mathbb{P}\left( \bigcup_{k=1}^{\infty} E_{k} \right) = \sum_{k=1}^{\infty} \mathbb{P}(E_{k}), \]

pero recuerda que para cada $k \geq n+1$, se tiene que $E_{k} = \emptyset$, y para cada $k \leq n$, se cumple que $E_{k} = A_{k}$. Por un lado, esto significa que

\[ \bigcup_{k=1}^{\infty} E_{k} = \left( \bigcup_{k=1}^{n} E_{k} \right) \cup \left( \bigcup_{k=n+1}^{\infty} E_{k} \right) = \left( \bigcup_{k=1}^{n} A_{k} \right) \cup (\emptyset) = \bigcup_{k=1}^{n} A_{k}. \]

Por otro lado, tenemos que

\begin{align*}
\sum_{k=1}^{\infty} \mathbb{P}(E_{k}) &= \sum_{k=1}^{n} \mathbb{P}(E_{k}) + \sum_{k=n+1}^{\infty} \mathbb{P}(E_{k}) \\&= \sum_{k=1}^{n} \mathbb{P}(A_{k}) + \sum_{n=3}^{\infty} \mathbb{P}(\emptyset) \\
&= \sum_{k=1}^{n} \mathbb{P}(A_{k}) + \sum_{n=1}^{\infty} 0 \\
&= \sum_{k=1}^{n} \mathbb{P}(A_{k})
\end{align*}

Esto nos permite concluir que

\[ \mathbb{P}\left(\bigcup_{k=1}^{n} A_{k}\right) = \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]

En conclusión, cualquier medida de probabilidad es finitamente aditiva. En particular, es finitamente aditiva para $n = 2$, por lo que si se tienen $A_{1}$, $A_{2} \in \mathscr{F}$ eventos ajenos, se sigue que $\mathbb{P}(A_{1} \cup A_{2}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2})$.

La σ-aditividad y, en consecuencia, la aditividad, obedecen a nuestra intuición de medir la probabilidad de dos o más eventos que no comparten elementos. Si $A$ y $B$ son eventos ajenos, cuando un $\omega$ es uno de los elementos de $A$, no puede ser un elemento de $B$. Por ello, como la probabilidad de que el resultado del fenómeno aleatorio sea alguno de los elementos de $A$ es $\mathbb{P}(A)$, este valor no expresa nada sobre la probabilidad de que el resultado del fenómeno sea un elemento de $B$. Análogamente, $\mathbb{P}(B)$ tampoco expresa nada sobre la probabilidad de que el resultado sea un elemento de $A$. Burdamente, cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A)$ y $\mathbb{P}(B)$ no expresan la probabilidad de algo en común.

Por lo tanto, sumar estos dos valores resulta en la probabilidad de que el resultado sea un elemento exclusivamente de $A$ o exclusivamente de de $B$. Pero al ser ajenos, esto es lo mismo que expresar la probabilidad de que el resultado sea un elemento de $A \cup B$. Esto motiva que cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A\cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Esta misma idea se extiende al caso de una familia numerable de eventos ajenos, y es la que motiva la σ-aditividad.

Finalmente, la última propiedad establece que $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$. ¿Por qué le pedimos a $\mathbb{P}$ que cumpla esto? Recordando que $0$ representa lo más improbable y $1$ lo más probable posible, que $\mathbb{P}(\emptyset) = 0$ expresa que la probabilidad de algo lógicamente imposible debe de ser $0$. Mucho cuidado, el evento $\emptyset$ no representa «que no ocurra nada», esa es una interpretación errónea de $\emptyset$ como evento. Por otro lado, $\mathbb{P}(\Omega) = 1$ se pide porque la probabilidad de que el resultado sea cualquiera de los resultados posibles debe de ser la más alta posible, pues siempre se obtiene alguno de los elementos de $\Omega$ como resultado.

Ejemplo básico de medida de probabilidad

Sean $\Omega = \{ 1, 2, 3 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por la siguiente regla de correspondencia: para cada $A \in \mathscr{F}$, definimos

\[ \mathbb{P}(A) = \frac{\left| A \right|}{\left| \Omega \right|}, \]

donde $\left| A \right|$ es la cardinalidad de $A$. Esto es, $|A|$ es el número de elementos que tiene $A$. Primero, tenemos que ver que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad. Ya sabemos que $\Omega$ es un conjunto y que $\mathscr{P}(\Omega)$ es un σ-álgebra sobre $\Omega$. Nos falta ver que $\mathbb{P}$ es una medida de probabilidad. Es decir, hay que ver que satisface las propiedades de una medida de probabilidad.

  1. Primero, hay que verificar que para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. En efecto, para cualquier conjunto finito $A$ se tiene que $\left| A \right| \in \mathbb{N}$. Además, $\Omega \neq \emptyset$, por lo que $|\Omega| \neq 0$. Por lo tanto, $\frac{|A|}{|\Omega|}$ está bien definido, y se cumple que $\frac{|A|}{|\Omega|} \geq 0$. En conclusión, para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$.
  2. Para ver la segunda propiedad, como $\Omega$ es finito, basta con ver que $\mathbb{P}$ es finitamente aditiva. Sean $A$, $B \in \mathscr{F}$ eventos cualesquiera tales que $A \cap B = \emptyset$. Debemos de demostrar que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Observa que como $A$ y $B$ son finitos y $A \cap B = \emptyset$, se tiene que $|A \cup B| = |A| + |B|$. Así, tenemos que
    \[ \frac{|A \cup B|}{|\Omega|} = \frac{|A|+|B|}{|\Omega|} = \frac{|A|}{|\Omega|} + \frac{|B|}{|\Omega|}, \]y por la definición de $\mathbb{P}$, podemos concluir que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$.
  3. Finalmente, como $|\emptyset| = 0$, se tiene que $\mathbb{P}(\emptyset) = 0$, y por la definición de $\mathbb{P}$, tenemos que $\mathbb{P}(\Omega) = \frac{|\Omega|}{|\Omega|} = 1$.

Bien, con esto hemos demostrado que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.

Ahora veamos algunos aspectos más prácticos de este ejemplo. Por ejemplo, ¿cuál será la probabilidad de que el resultado de este fenómeno sea $3$? Para obtenerla, hay que encontrar a qué evento nos referimos. En este caso, nos interesa que el resultado sea $3$. Así, el evento en cuestión sería aquel que tenga como único elemento a $3$, es decir, $\{ 3 \}$. Bien, entonces la probabilidad de que el resultado sea $3$ es $\mathbb{P}(\{3\})$. Utilicemos la definición de $\mathbb{P}$ para el cálculo:

\begin{align*}
\mathbb{P}(\{3\}) &= \frac{|\{3\}|}{|\Omega|} \\ &= \frac{|\{3\}|}{|\{1, 2, 3\}|} \\ &= \frac{1}{3},
\end{align*}

así, $\mathbb{P}(\{3\}) = \frac{1}{3}$, por lo que la probabilidad de que el resultado de este fenómeno sea $3$ es $\frac{1}{3}$, o $0.33333\ldots$ Hay quienes escriben la probabilidad de un evento de manera porcentual. De esta forma, la probabilidad de que el resultado sea $3$ es $33.333\ldots\%$.

Hagamos otra pregunta. ¿Cuál es la probabilidad de que el resultado de este fenómeno sea un número impar? Hay que encontrar primero el evento que contiene todos los resultados impares. Esto es, sería el siguiente conjunto

\[ B = \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k + 1 \}, \]

que para este $\Omega$ es muy sencillo: son $1$ y $3$. Así, $B = \{1,3\}$, y podemos calcular la probabilidad de $B$ usando la expresión que define a $\mathbb{P}$ como sigue.

\begin{align*}
\mathbb{P}(B) &= \mathbb{P}(\{1, 3\}) \\ &= \frac{|\{1,3\}|}{|\Omega|} \\ &= \frac{|{1,3}|}{|{1,2,3}|} \\ &= \frac{2}{3}.
\end{align*}

Por lo tanto, la probabilidad d e que el resultado de este fenómeno sea un número impar es $\frac{2}{3}$, o bien $0.6666\ldots$, o $66.666\ldots\%$.

Para terminar con este ejemplo, veamos algo relacionado con la aditividad de $\mathbb{P}$. Ya vimos que $\mathbb{P}$ es aditiva. ¿Qué pasa si sumamos las probabilidades de dos eventos que no son ajenos? Por ejemplo, sean $C_{1} = \{1,2\}$ y $C_{2} = \{2,3\}$. Primero, se tiene que

\begin{align*}
\mathbb{P}(C_{1}) = \mathbb{P}(\{1,2\}) = \frac{2}{3}, \\
\mathbb{P}(C_{1}) = \mathbb{P}(\{2,3\}) = \frac{2}{3},
\end{align*}

por lo que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2}) = \frac{4}{3}$, y $\frac{4}{3} > 1$. ¿Qué falló aquí? Llegamos a un número que es mayor a $1$, ¿no debería de pasar que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$ es la probabilidad de algún evento? El problema está en que $C_{1}$ y $C_{2}$ no son ajenos. Observa que $C_{1} \cap C_{2} = \{1,2\} \cap \{2,3\} = \{2\}$. Nota que $\mathbb{P}(C_{1})$ expresa «la probabilidad de que el resultado del experimento sea un elemento de $C_{1}$». En términos más amigables, $\mathbb{P}(C_{1})$ expresa la probabilidad de que el resultado sea $1$ o $2$. Es decir, en esta cantidad se incluye la posibilidad de que el resultado sea $2$. De manera similar, $\mathbb{P}(C_{2})$ expresa la probabilidad de que el resultado sea $2$ o $3$. Por ello, en el momento en el que sumamos $\mathbb{P}(C_{1})$ y $\mathbb{P}(C_{2})$, estamos contabilizando la probabilidad de que el resultado sea $2$ más de una vez, algo que no debemos de hacer.

Así, se confirma que cuando $C_{1}$ y $C_{2}$ son eventos que no son ajenos, la probabilidad de $\mathbb{P}(C_{1} \cup C_{2})$ no coincide con $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu manejo de los conceptos abordados en esta entrada.

  • Sean $\Omega = \{1,2,3,4\}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Definimos la siguiente función auxiliar $p\colon \Omega \rightarrow \mathbb{R}$ mediante las siguientes reglas de correspondencia:
    \begin{align*}
    p(1) = \frac{1}{4}, \quad p(2) = \frac{1}{4}, \quad p(3) = \frac{1}{8}, \quad p(4) = \frac{3}{8}.
    \end{align*} Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por: Para cada $A \in \mathscr{F}$, definimos
    \begin{align*}
    \mathbb{P}(A) = \sum_{k \in A} p(k).
    \end{align*} Por ejemplo, $\mathbb{P}(\{1,3\}) = p(1) + p(4) = \frac{1}{4} + \frac{3}{8}$. Adicionalmente, se define $\mathbb{P}(\emptyset) = 0$.
    • Demuestra que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.
    • ¿Cuál es la probabilidad de que el resultado del fenómeno en este ejercicio sea un número par?
    • ¿Cuál es la probabilidad de que el resultado sea un número impar?
  • Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sean $A$, $B \in \mathscr{F}$ tales que $A \cap B \neq \emptyset$. ¿Qué le sumarías (o restarías) a $\mathbb{P}(A) + \mathbb{P}(B)$ para obtener una expresión que sí sea igual a $\mathbb{P}(A) + \mathbb{P}(B)$? Daremos la respuesta a esta pregunta en la próxima sesión, pero comienza a pensarlo.
  • En la entrada mencionamos que el evento $\emptyset$ no representa «que no ocurra nada», y que debe de interpretarse como el evento «imposible». ¿Por qué? Por ejemplo, retomando cuando $\Omega = \{1,2,3\}$, es claro que $\{1 \} \cap \{3\} = \emptyset$. ¿Tiene sentido que su probabilidad sea $0$? ¿Existe algún resultado $\omega \in \Omega$ tal que $\omega \in \{1 \} \cap \{3 \}$?

Más adelante…

En esta sesión tocamos las propiedades que hacen que una función sea considerada una medida de probabilidad. Estas propiedades tienen consecuencias que abordaremos en una entrada posterior. Antes de hacerlo, en la siguiente entrada abordaremos ciertas minucias sobre la interpretación de las operaciones con eventos en el contexto de la probabilidad.

Entradas relacionadas

Probabilidad I: Construcción de σ-álgebras

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada dimos comienzo a la construcción de la teoría matemática de la probabilidad. Introdujimos los conceptos de espacio muestral y σ-álgebra. Estos dos son las piedras angulares de la probabilidad. En consecuencia, en esta sesión estudiaremos algunas propiedades importantes de los σ-álgebras. En particular, será de importancia la capacidad de construir σ-álgebras a partir de familias dadas de conjuntos. Esto es, veremos cómo, dada una colección de conjuntos $\mathscr{C}$, existe un σ-álgebra de tamaño mínimo que tiene como subconjunto a $\mathscr{C}$. Así, construiremos un σ-álgebra muy interesante en el contexto de la probabilidad.

Construir σ-álgebras a partir de familias de conjuntos

Mencionamos en la entrada anterior que un σ-álgebra es una familia de conjuntos a los cuales se les asignará una «calificación», llamada «probabilidad». Es decir, que dado $\Omega$ un espacio muestral y $\mathscr{F} \subset \mathscr{P}(\Omega)$ un σ-álgebra sobre $\Omega$, los elementos de $\mathscr{F}$ con los conjuntos que consideraremos como «calificables».

En consecuencia, resulta interesante plantear la siguiente situación. Supón que tenemos una familia de conjuntos $\mathscr{C} \subseteq \mathscr{P}(\Omega)$. Piensa que esta familia de subconjuntos de $\Omega$ es muy importante. Al ser muy importante, nos gustaría poder «calificar» a todos sus elementos. Sin embargo, no sabemos si $\mathscr{C}$ es un σ-álgebra. ¿Será posible construir un σ-álgebra $\mathscr{L}$ tal que $\mathscr{C} \subseteq \mathscr{L}$? La respuesta es sí, y está dada por el siguiente teorema.


Teorema. Dado $\Omega$ un conjunto y $\mathscr{C}$ una familia de subconjuntos de $\Omega$ ($\mathscr{C} \subseteq \mathscr{P}(\Omega)$), existe un único σ-álgebra sobre $\Omega$ de tamaño mínimo $\mathscr{L}$ tal que $\mathscr{C} \subseteq \mathscr{L}$.

Debido a la unicidad, este σ-álgebra es llamado el σ-álgebra generado por $\mathscr{C}$, y es denotado por $\sigma(\mathscr{C})$.


Demostración. Sea $\Gamma$ la familia de todos los σ-álgebras sobre $\Omega$ que contienen a $\mathscr{C}$. De manera un poco informal, es el siguiente conjunto:

\[ \Gamma = \left\lbrace \mathscr{F} \subseteq \mathscr{P}(\Omega) \mid \text{$\mathscr{F}$ es un $\sigma$-álgebra} \, \land \, \mathscr{C} \subseteq \mathscr{F} \right\rbrace \]

Observa que $\Gamma \neq \emptyset$, pues vimos en la sesión anterior que $\mathscr{P}(\Omega)$ es un σ-álgebra. Por lo tanto, $\mathscr{P}(\Omega) \in \Gamma$. Sea $\mathscr{L}$ la intersección de todos los elementos de $\Gamma$. Es decir,

\[ \mathscr{L} = \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}. \]

Esta intersección está bien definida pues $\Gamma \neq \emptyset$. Por construcción, $\mathscr{C} \subseteq \mathscr{L}$, pues $\mathscr{C}$ es subconjunto de todos los $\mathscr{F} \in \Gamma$, y $\mathscr{L}$ es la intersección de todos esos $\mathscr{F}$. De igual forma, para cualquier $\mathscr{F} \in \Gamma$ se cumple que $\mathscr{L} \subseteq \mathscr{F}$. Veamos que $\mathscr{L}$ es un σ-álgebra.

  1. Primero, veamos que $\Omega \in \mathscr{L}$. Sabemos que todos los elementos de $\Gamma$ son σ-álgebras sobre $\Omega$. En consecuencia, para cualquier $\mathscr{F} \in \Gamma$ se cumple que $\Omega \in \mathscr{F}$. Por lo tanto, $\Omega \in \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}$, que por la definición de $\mathscr{L}$ demuestra que $\Omega \in \mathscr{L}$.
  2. Veamos ahora que para cualquier $E \in \mathscr{L}$ se tiene que $E^{\mathsf{c}} \in \mathscr{L}$. Sea $E \in \mathscr{L}$. Por definición de $\mathscr{L}$, esto implica que $E \in \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}$. Es decir, para todo $\mathscr{F} \in \Gamma$, se cumple que $E \in \mathscr{F}$. Como cada uno de los $\mathscr{F}$ es σ-álgebra, se sigue que para todo $\mathscr{F} \in \Gamma$ se cumple que $E^{\mathsf{c}} \in \mathscr{F}$. Por consiguiente, $E^{\mathsf{c}} \in \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}$. Así, se concluye que $E^{\mathsf{c}} \in \mathscr{L}$.
  3. Finalmente, sea $\{ E_{n} \}_{n=1}^{\infty}$ tal que para todo $n \in \mathbb{N}^{+}$ se cumple que $E_{n} \in \mathscr{L}$. Debemos de demostrar que $\bigcup_{n=1}^{\infty}E_{n} \in \mathscr{L}$. Para ello, observa que si para todo $n \in \mathbb{N}^{+}$ se cumple que $E_{n} \in \mathscr{L}$, entonces también es cierto que para todo $n \in \mathbb{N}^{+}$ se cumple que $E_{n} \in \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}$, por la definición de $\mathscr{L}$. Ahora, esto significa que para cualquier $\mathscr{F} \in \Gamma$, todos los $E_{n}$ cumplen que $E_{n} \in \mathscr{F}$; y como los $\mathscr{F}$ son σ-álgebras, se sigue que $\bigcup_{n=1}^{\infty}E_{n} \in \mathscr{F}$. Por lo tanto, $\bigcup_{n=1}^{\infty}E_{n} \in \bigcap_{\mathscr{F} \in \Gamma} \mathscr{F}$, y así, queda demostrado que $\bigcup_{n=1}^{\infty}E_{n} \in \mathscr{L}$.

Estas tres propiedades demuestran que $\mathscr{L}$ es un σ-álgebra que contiene a $\mathscr{C}$. Además, por construcción, $\mathscr{L}$ es minimal en el sentido de que es subconjunto de cualquier otro σ-álgebra que contiene a $\mathscr{C}$.

Nos falta ver que $\mathscr{L}$ es único. Para hacerlo, supón que hay otro σ-álgebra $\mathscr{N}$ que satisface $\mathscr{C} \subseteq \mathscr{N}$ y que para todo σ-álgebra $\mathscr{F}$ tal que $\mathscr{C} \subseteq \mathscr{F}$, se tiene que $\mathscr{N} \subseteq \mathscr{F}$ (es decir, $\mathscr{N}$ es minimal). Como $\mathscr{N}$ es un σ-álgebra tal que $\mathscr{C} \subseteq \mathscr{N}$, se tiene que $\mathscr{N} \in \Gamma$. Más arriba comentamos que para cualquier $\mathscr{F} \in \Gamma$ se cumple que $\mathscr{L} \subseteq \mathscr{F}$. En particular, esto implica que $\mathscr{L} \subseteq \mathscr{N}$.

Por otro lado, supusimos que $\mathscr{N}$ es minimal, es decir, que si $\mathscr{F}$ es un σ-álgebra tal que $\mathscr{C} \subseteq \mathscr{F}$, se tiene que $\mathscr{N} \subseteq \mathscr{F}$. Ya vimos que $\mathscr{L}$ es un σ-álgebra que contiene a $\mathscr{C}$. En consecuencia, $\mathscr{N} \subseteq \mathscr{L}$.

Así, utilizando la igualdad por doble contención, queda demostrado que $\mathscr{N} = \mathscr{L}$. En conclusión, cualquier σ-álgebra que contiene a $\mathscr{C}$ y es minimal en el sentido de que es subconjunto de cualquier otro σ-álgebra que contiene a $\mathscr{C}$ resulta ser igual a $\mathscr{L}$.

$\Box$

¡Bien! Hay dos consecuencias importantes del teorema anterior. En primera, que podemos cronstruir σ-álgebras sobre cualquier conjunto. En segunda, y quizás no tan evidente, que existe una cantidad abundante de σ-álgebras.

Sin embargo, quizás ya notaste que la definición de σ-álgebra generado por una familia de conjuntos $\mathscr{C}$ es un poco intangible. Veamos algunos ejemplos para entender cómo es que funciona esta construcción.

Ejemplos. Sea $\Omega$ el siguiente conjunto:

\[ \Omega = \{ 1, 2, 3, 4, 5, 6 \}. \]

Sea $\mathscr{C} = \{ \{2\}, \{4\} \}$. Veamos qué conjunto es $\sigma(\mathscr{C})$. Primero, sabemos que $\sigma(\mathscr{C})$ debe de ser un σ-álgebra. Por ello, $\sigma(\mathscr{C})$ debe de satisfacer que $\Omega \in \sigma(\mathscr{C})$. Además, por definición de $\sigma(\mathscr{C})$, debe de cumplirse que $\mathscr{C} \subseteq \sigma(\mathscr{C})$. Es decir, se cumplen las siguientes dos pertenencias:

\begin{align}
\{2\} &\in \sigma(\mathscr{C}), \\
\{4\} &\in \sigma(\mathscr{C}).
\end{align}

Bien, entonces en principio $\sigma(\mathscr{C})$ se vería así:

\[ \sigma(\mathscr{C}) = \{ \{2\}, \{4\}, \{ 1, 2, 3, 4, 5, 6 \}, \ldots \}, \]

donde los puntos suspensivos representan los elementos de $\sigma(\mathscr{C})$ que todavía nos faltan. Ahora, sabemos que un σ-álgebra es cerrado bajo complementación. Por lo tanto, los complementos de cada uno de esos conjuntos deben de ser elementos de $\sigma(\mathscr{C})$. Es decir, se cumplen las siguientes pertenencias:

\begin{align}
\{2\}^{\mathsf{c}} = \{1,3,4,5,6 \} &\in \sigma(\mathscr{C}), \\
\{4\}^{\mathsf{c}} = \{1,2,3,5,6 \} &\in \sigma(\mathscr{C}), \\
\{1,2,3,4,5,6\}^{\mathsf{c}} = \emptyset &\in \sigma(\mathscr{C}).
\end{align}

Esto expande la cantidad de elementos en $\sigma(\mathscr{C})$, que va agarrando cada vez más forma:

\[ \sigma(\mathscr{C}) = \{ \emptyset, \{2\}, \{4\}, \{ 1, 3, 4, 5, 6 \}, \{ 1, 2, 3, 5, 6 \}, \{ 1, 2, 3, 4, 5, 6 \}, \ldots \}, \]

Finalmente, un σ-álgebra es cerrado bajo uniones numerables. En este ejemplo, $\Omega$ es finito, así que basta con que acompletemos a $\sigma(\mathscr{C})$ con todas las uniones finitas. Además, $\sigma(\mathscr{C})$ debe de ser cerrado bajo los complementos de las uniones resultantes. Sin embargo, observa que no es necesario meter esos complementos, y que basta con sacar las intersecciones de los conjuntos que ya tenemos. Esto gracias a las leyes de De Morgan: para cualesquiera $A$ y $B$ conjuntos se cumple que $(A \cup B)^{\mathsf{c}} = A^{\mathsf{c}} \cap B^{\mathsf{c}}$. Así, el siguiente paso es tomar todas las uniones e intersecciones posibles de los elementos de $\sigma(\mathscr{C})$ que tenemos.

Sin embargo, observa que algunas de las uniones e intersecciones de conjuntos que ya tenemos dan como resultado otros conjuntos que ya hemos incluido en $\sigma(\mathscr{C})$. Por ello, incluiré las uniones e intersecciones que resultan en conjuntos que todavía no están en $\sigma(\mathscr{C})$. Estas son:

\begin{align*} \{2\} \cup \{4\} = \{2,4\} &\in \sigma(\mathscr{C}), \\ \{1,3,4,5,6\} \cap \{1,2,3,5,6\} = \{1,3,5,6\} &\in \sigma(\mathscr{C}). \end{align*}

Nota que $\{2,4\}^{\mathsf{c}} = \{1,3,5,6\} = \{1,3,4,5,6\} \cap \{1,2,3,5,6\}$, que justo como mencionamos más arriba, cubre la cerradura bajo complementación para $\{2,4\}$. Así, queda completo $\sigma(\mathscr{C})$, que es el siguiente conjunto:

\[ \sigma(\mathscr{C}) = \{ \emptyset, \{2\}, \{4\}, \{2, 4\}, \{1,3,5,6\}, \{ 1, 3, 4, 5, 6 \}, \{ 1, 2, 3, 5, 6 \}, \{ 1, 2, 3, 4, 5, 6 \} \}. \]

Un buen ejercicio sería que verifiques que este conjunto que obtuvimos es, efectivamente, un σ-álgebra. En conclusión, en el caso del σ-álgebra generado por una familia finita de conjuntos, podemos seguir el siguiente método para su construcción.

  1. Dada $\mathscr{C}$ una familia finita de subconjuntos de $\Omega$, el primer paso es incluir a todos los elementos de $\mathscr{C}$ (ya que, por definición, $\mathscr{C} \subseteq \sigma(\mathscr{C})$). Además, por la primera propiedad de un σ-álgebra, también debe de cumplirse que $\Omega \in \sigma(\mathscr{C})$.
  2. Un σ-álgebra debe de ser cerrado bajo complementación. Por ello, el segundo paso es incluir a todos los complementos de los conjuntos incluidos en el paso anterior.
  3. Finalmente, tomar todas las uniones e intersecciones posibles de los conjuntos obtenidos en los dos pasos anteriores.

Un σ-álgebra de gran importancia

El ejemplo anterior exhibe una manera de construir el σ-álgebra generado por una familia finita de conjuntos. SIn embargo, esto se torna más abstracto cuando la familia no es finita. En particular, cuando $\Omega = \mathbb{R}$, sería interesante pensar en el σ-álgebra generado por la familia de intervalos de la siguiente forma:

\[ \mathscr{C}_{1} = \left\lbrace (-\infty, b] \mid b \in \mathbb{R} \right\rbrace. \]

Es decir, $\mathscr{C}_{1}$ es la familia de todos los intervalos no acotados por la izquierda, y cerrados por la derecha. En el contexto de la probabilidad es muy natural que, dado $b \in \mathbb{R}$, planteemos la siguiente situación. Si $x$ es el resultado de algún experimento donde el espacio muestral es $\mathbb{R}$ ¿es cierto que $x \leq b$? O dicho en otras palabras, ¿es cierto que $x \in (-\infty, b]$? Por ejemplo, «¿es cierto que el precio de un activo queda por debajo de algún valor fijo?» Esta es una pregunta que surgiría cuando entras en el contrato de un producto financiero derivado.

Observa que $\mathscr{C}_{1}$ no es un σ-álgebra, así que habría preguntas sobre $x$ que no podríamos contestar dentro de $\mathscr{C}_{1}$. Por ejemplo, $(-\infty, b]^{\mathsf{c}} = (b, \infty)$ no es un elemento de $\mathscr{C}_{1}$, por lo que la pregunta «¿es cierto que $x \in (b, \infty)$?» no tendría respuesta.

¡Ajá! Pero justamente, el teorema que vimos nos permite generar un σ-álgebra a partir de $\mathscr{C}_{1}$. Es decir, $\sigma(\mathscr{C}_{1})$ es el σ-álgebra más pequeño que contiene a todos los intervalos $(-\infty, b]$.

El σ-álgebra generado por esta última familia es muy importante, y es conocido como el σ-álgebra de Borel en $\mathbb{R}$, y es comúnmente denotado por $\mathscr{B}(\mathbb{R})$. Curiosamente, resulta que la manera en que obtuvimos a $\mathscr{B}(\mathbb{R})$ no es la única manera de hacerlo. Por ejemplo, sea $\mathscr{C}_{2}$ la siguiente familia de conjuntos:

\[ \mathscr{C}_{2} = {\left\lbrace (a, b] \mid a, b \in \mathbb{R} \land a < b \right\rbrace}. \]

¿Cuál será el σ-álgebra generado por $\mathscr{C}_{2}$? Veamos primero lo siguiente. Sean $a$, $b \in \mathbb{R}$ tales que $a < b$. Por la definición de $\mathscr{B}(\mathbb{R})$, se cumple que $(-\infty,a]$, $(-\infty,b] \in \mathscr{B}(\mathbb{R})$. Como $\mathscr{B}(\mathbb{R})$ es un σ-álgebra, $(-\infty,a]^{\mathsf{c}} = (a, \infty) \in \mathscr{B}(\mathbb{R})$. Por lo tanto, $(a, \infty) \cap (-\infty,b] = (a,b] \in \mathscr{B}(\mathbb{R})$. Esto es, para cualesquiera $a$, $b \in \mathbb{R}$ tales que $a < b$, se cumple que $(a,b] \in \mathscr{B}(\mathbb{R})$. Por lo tanto, se cumple que $\mathscr{C}_{2} \subseteq \mathscr{B}(\mathbb{R})$, y como $\mathscr{B}(\mathbb{R})$ es un σ-álgebra, se tiene que $\sigma(\mathscr{C}_{2}) \subseteq \mathscr{B}(\mathbb{R})$.

Ahora, sea $b \in \mathbb{R}$. Por la definición de $\sigma(\mathscr{C}_{2})$, para cualquier $n \in \mathbb{N}^{+}$ se cumple que $(b – n, b] \in \sigma(\mathscr{C}_{2})$. Esto pasa porque $b-n$ y $b$ son reales tales que $b – n < b$, por lo que $(b-n, b] \in \mathscr{C}_{2}$. Ahora, debido a que $\sigma(\mathscr{C}_{2})$ es un σ-álgebra, se cumple que

\[ \bigcup_{n=1}^{\infty} (b – n, b] \in \sigma(\mathscr{C}_{2}), \]

pues $\bigcup_{n=1}^{\infty} (b – n, b]$ es una unión numerable de elementos de $\sigma(\mathscr{C}_{2})$. Observa que

\[ \bigcup_{n=1}^{\infty} (b – n, b] = (-\infty, b], \]

ya que si $x$ es un número real tal que $x \in (-\infty,b]$, como consecuencia de la propiedad arquimediana en $\mathbb{R}$, existe $k \in \mathbb{Z}$ tal que $k < x \leq k + 1$. Como $k < x$ y $x \leq b$, se tiene que $k < b$. Luego, $b – (\lceil b \rceil – k) \leq b – (b – k) = k$, pues $b \leq \lceil b \rceil$. Además, como $k < b$ y $b \leq \lceil b \rceil$, se tiene que $\lceil b \rceil – k > 0$, y como $\lceil b \rceil$ y $k$ son enteros, $\lceil b \rceil – k$ también lo es. Esto es, $\lceil b \rceil – k \in \mathbb{N}^{+}$. Sea $n^{*} = \lceil b \rceil – k$. Observa que $b – n^{*} < k$, por lo que $b – n^{*} < x$, y como $x \leq b$, se tiene que

\[ x \in (b – n^{*}, b],\]

y como $\lceil b \rceil – k \in \mathbb{N}^{+}, podemos concluir que

\[ x \in \bigcup_{n=1}^{\infty} (b – n, b], \]

por lo que $(-\infty, b] \subseteq \bigcup_{n=1}^{\infty} (b – n, b]$. La otra contención es más sencilla de demostrar. Si $x$ es un real tal que $x \in \bigcup_{n=1}^{\infty} (b – n, b]$, entonces existe $m \in \mathbb{N}^{+}$ tal que $x \in (b – m, b]$. Esto asegura que $b- n < x \land x \leq b$. En particular, es cierto que $x \leq b$, por lo que $x \in (-\infty, b]$. Por lo tanto, $\bigcup_{n=1}^{\infty} (b – n, b] \subseteq (-\infty, b]$.

Esto demuestra que para cualquier $b \in \mathbb{R}$, el intervalo $(-\infty, b]$ es un elemento de $\sigma(\mathscr{C}_{2})$. Es decir, $\mathscr{C}_{1} \subseteq \sigma(\mathscr{C}_{2})$. Además, recuerda que $\mathscr{B}(\mathbb{R})$ es el σ-álgebra generado por $\mathscr{C}_{1}$, y que $\sigma(\mathscr{C}_{2})$ es un σ-álgebra. Esto implica que $\mathscr{B}(\mathbb{R}) \subseteq \sigma(\mathscr{C}_{2})$.

En conclusión, queda demostrado que $\mathscr{B}(\mathbb{R}) = \sigma(\mathscr{C}_{2})$. esto muestra que el σ-álgebra de Borel en $\mathbb{R}$ puede generarse a partir de $\mathscr{C}_{2}$.

Más aún, $\mathscr{B}(\mathbb{R})$ resulta ser el σ-álgebra generado por otras familias de intervalos muy parecidas. Las siguientes familias son algunas de ellas:

\begin{align*}
\mathscr{C}_{3} &= \left\lbrace [a, b) \mid a, b \in \mathbb{R} \land a < b\right\rbrace, \\
\mathscr{C}_{4} &= \left\lbrace (a, b) \mid a, b \in \mathbb{R} \land a < b \right\rbrace, \\
\mathscr{C}_{5} &= \left\lbrace [a, b] \mid a, b \in \mathbb{R} \land a < b \right\rbrace, \\
\mathscr{C}_{6} &= \left\lbrace (a, \infty) \mid a \in \mathbb{R} \right\rbrace, \\
\mathscr{C}_{7} &= \left\lbrace [a, \infty) \mid a \in \mathbb{R} \right\rbrace, \\
\mathscr{C}_{8} &= \left\lbrace (-\infty, b) \mid b \in \mathbb{R} \right\rbrace.
\end{align*}

Todas las familias anteriores generan el mismo σ-álgebra: $\mathscr{B}(\mathbb{R})$. La justificación de estos hechos es parecida a la que desarrollamos aquí, pero con algunos detalles distintos. Para pasar de un σ-álgebra a otro, se utilizan otras uniones o intersecciones numerables más mañosas. Por ejemplo, si tomas conjuntos en $\mathscr{C}_{4}$, digamos, con $a$, $b \in \mathbb{R}$ tales que $a < b$, y para cada $n \in \mathbb{N}^{+}$ tomas los conjuntos $(a, b + \frac{1}{n})$, al obtener la intersección de esta familia:

\[ \bigcap_{n=1}^{\infty} \left(a, b+\frac{1}{n} \right), \]

el intervalo resultante es el intervalo $(a, b]$. Es decir, haciendo una intersección numerable de elementos de $\mathscr{C}_{4}$, llegas a uno de $\mathscr{C}_{2}$. Algo parecido puede hacerse para pasar de $\mathscr{C}_{2}$ a $\mathscr{C}_{4}$, pero se haría con uniones numerables.

Finalmente, ¿recuerdas el álgebra de la entrada pasada? ¿El de las uniones disjuntas finitas de intervalos? Bueno, resulta que el σ-álgebra generado por ese álgebra es también $\mathscr{B}(\mathbb{R})$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu manejo de los conceptos abordados en esta entrada.

  • Retomando el ejemplo donde $\Omega = \{ 1, 2, 3, 4, 5, 6 \}$ y $\mathscr{C} = \{ \{2\}, \{4\}\}$, verifica que el conjunto
    \[\sigma(\mathscr{C}) = \{ \emptyset, \{2\}, \{4\}, \{2, 4\}, \{1,3,5,6\}, \{ 1, 3, 4, 5, 6 \}, \{ 1, 2, 3, 5, 6 \}, \{ 1, 2, 3, 4, 5, 6 \} \}\]es un σ-álgebra.
  • Sea $\Omega = \{ 1, 2, 3, 4, 5, 6 \}$.
    • Sea $\mathscr{C}_a = \{ \{1\}, \{3,5\}\}$. Determina $\sigma(\mathscr{C}_a)$.
    • Sea $\mathscr{C}_b = \{ \{1\}, \{2\}, \{3,4\}\}$. Determina $\sigma(\mathscr{C}_b)$.
  • Retomando el σ-álgebra de Borel en $\mathbb{R}$, $\mathscr{B}(\mathbb{R})$, demuestra que
    • El σ-álgebra generado por $\mathscr{C}_{4}$ es $\mathscr{B}(\mathbb{R})$ (puedes demostrar que $\sigma(\mathscr{C}_{4}) = \sigma(\mathscr{C}_{1})$ usando el bosquejo que propusimos).
    • El σ-álgebra generado por $\mathscr{C}_{5}$ es $\mathscr{B}(\mathbb{R})$ (puedes demostrar que $\sigma(\mathscr{C}_{5}) = \sigma(\mathscr{C}_{4})$).

Más adelante…

Esta entrada concluye nuestro estudio enfocado en los σ-álgebras. El σ-álgebra de Borel será necesario mucho más adelante cuando definamos lo que son las variables aleatorias continuas con valores en $\mathbb{R}$. Además, si decides cursar la materia de Teoría de la Medida, te encontrarás con el σ-álgebra de Borel y lo estudiarás con más profundidad. En particular, es de mucha importancia que $\mathscr{B}(\mathbb{R})$ pueda ser generado a partir de un álgebra de conjuntos. Esto pues hay un teorema muy importante (el Teorema de Extensión de Carathéodory) que permite extender la medida sobre el álgebra que asigna a cada intervalo su longitud (donde la longitud de $(a,b]$ es $b – a$) de manera única a $\mathscr{B}(\mathbb{R})$.

En la siguiente entrada abordaremos el concepto de medida de probabilidad, que será nuestra manera de asignar una «calificación» a los elementos de un σ-álgebra dado.

Entradas relacionadas

Probabilidad I: Introducción al Curso, Espacio Muestral y σ-álgebras

Por Octavio Daniel Ríos García

Introducción

Esta es la primera entrada de las notas de curso correspondientes a la materia de Probabilidad I. En esta sesión, platicaremos primero un poco sobre el objeto de estudio de la probabilidad. Después, un poco sobre su filosofía. Es decir, las ideas que sigue. Finalmente, presentaremos algunos de los conceptos matemáticos más fundamentales en esta teoría.

Antes de dar comienzo a nuestro tratamiento de la probabilidad, considero prudente incluir los conocimientos previos recomendables para este curso.

Sobre los prerrequisitos

Primeramente, debes de tener bien claros los contenidos de un curso de Álgebra Superior I. Pon especial atención a los temas de lógica, de teoría de conjuntos, y de funciones.

Por otro lado, te recomiendo que tengas bien claros los temas de un curso de Cálculo Diferencial e Integral II. En este curso es donde se abordan los temas de integración de funciones (de acuerdo con la teoría de integración de Riemann).

Por último, es deseable que tengas una buena noción de los temas de un curso de Cálculo Diferencial e Integral I. En particular, es importante que tengas claros los temas de sucesiones y de diferenciación.

A lo largo de estas notas supondré que manejas bien estos temas. Sin embargo, si necesitas revisarlos, puedes recurrir a nuestras notas de curso para Álgebra Superior I, Cálculo Diferencial e Integral I y Cálculo Diferencial e Integral II.

Fenómenos Aleatorios

En la teoría de la probabilidad nos interesa describir matemáticamente los fenómenos aleatorios. Aquí nos topamos con una primera pregunta: ¿qué es un fenómeno aleatorio? A grandes rasgos, un fenómeno aleatorio es todo aquel fenómeno cuyo resultado se conoce únicamente hasta que este ha concluido.

Por ejemplo, si tomas una moneda y la lanzas al aire, ¿puedes saber con anterioridad cuál de sus caras caerá arriba? A menos que seas clarividente, la respuesta es no. Así, el lanzamiento de una moneda puede pensarse como un fenómeno aleatorio. Conocerás su resultado únicamente hasta que el lanzamiento haya concluido. Otro ejemplo, de naturaleza más trágica, son los terremotos. La fecha exacta del siguiente terremoto se sabrá hasta que este ocurra. En consecuencia, la ocurrencia de un terremoto es un fenómeno aleatorio.

Un Poco de la Filosofía de la Probabilidad

Seguramente conoces ramas de la matemática que se esfuerzan por describir el comportamiento de los fenómenos de la naturaleza de la manera más precisa posible. Sin embargo, tal no es el caso de la probabilidad. En nuestro caso, orientaremos nuestros esfuerzos en describir cómo se acomodan (o se distribuyen) los resultados de un fenómeno aleatorio.

De lo anterior probablemente te surgen dos interrogantes. En primera instancia, ¿A qué te refieres por «cómo se acomodan»? Y en segunda, ¿cómo que la probabilidad no se esfuerza por describir el comportamiento de la naturaleza? Para contestar a la primera pregunta, toma una moneda. Lánzala 10 veces al aire, y registra los resultados. Hice este ejercicio por mi cuenta, y la siguiente tabla ilustra cuáles lanzamientos salieron «águila» (A) y cuáles «sol» (S):

12345678910
ASSSAASSSA

Estos resultados pueden acomodarse también en una gráfica como la siguiente:

Donde la altura de cada barra representa la frecuencia del resultado correspondiente. De mis 10 realizaciones del lanzamiento, 4 salieron «águila» y 6 salieron «sol». Esta gráfica exhibe cómo se distribuyeron los resultados de mis 10 lanzamientos de moneda. Puedes replicar esta gráfica con los resultados de tus 10 lanzamientos. Con ello, te darás una idea de cómo se distribuyen sus resultados.

En el siguiente vídeo se observa otro ejemplo de la distribución que siguen los resultados de un fenómeno aleatorio:

El juguete ilustrado en el vídeo es conocido como Máquina de Galton. En inglés, Galton Board. Se dejan caer muchas pelotitas desde el compartimiento de arriba. Estas rebotan aleatoriamente de izquierda a derecha hasta que caen en alguno de los compartimientos de abajo. Así, las barras resultantes representan cómo se distribuyen los resultados de dejar caer las pelotitas.

Burdamente, la «manera en la que se distribuyen» los resultados de un fenómeno aleatorio se refiere a la frecuencia con la que estos ocurren en varias realizaciones del fenómeno.

Justificando la Filosofía de la Probabilidad

Ahora, vamos a abordar un poco del aspecto filosófico de la probabilidad. Anteriormente, te mencioné que la probabilidad no se enfoca en modelar matemáticamente el funcionamiento de los fenómenos de la naturaleza. Para entender esto, quiero que pienses en lo siguiente:

Si yo te preguntara «¿cómo le hiciste para que tu lanzamiento saliera «águila»? ¿Y para que saliera «sol»?», ¿serías capaz de dar respuesta a alguna de las dos preguntas? Piénsalo bien. Al realizar los lanzamientos, seguramente acomodaste la mano a una cierta altura, y en alguna posición. Después, acomodaste la moneda en tu mano. Acto seguido, la lanzaste (con un cierto ángulo), y finalmente la moneda cayó sobre alguna de sus caras. Toda esta información es relevante para determinar el resultado de un lanzamiento. ¿Serías capaz de decirme la información de los lanzamientos donde salió «águila»? ¿Y de los que salió «sol»? Incluso si tuviéramos el equipo tecnológico para capturar esa información, ¿hace diferencia?

La respuesta es que no. Si ya capturaste estos valores, es porque el experimento ya está ocurriendo. Más aún, quizás ya hasta concluyó. Así, incluso si tuvieras un modelo matemático muy preciso para describir el lanzamiento de una moneda, no resulta útil para predecir su resultado.

Esta discusión puede extenderse a otros fenómenos aleatorios, y justifica el objeto de estudio de la probabilidad: describir matemáticamente el comportamiento de los resultados de un fenómeno aleatorio.

Describiendo Matemáticamente los Fenómenos Aleatorios

Ya quedó clara nuestra intención de centrar nuestra atención en los resultados de un experimento aleatorio. A partir de aquí, empieza la labor matemática. Para comenzar, partiremos de un conjunto cuyos elementos son todos los posibles resultados de un fenómeno aleatorio.


Definición. Dado un fenómeno o experimento aleatorio, el espacio muestral de dicho fenómeno es el conjunto cuyos elementos son todos los posibles resultados del fenómeno, y será denotado por $\Omega$ (Omega).


Ejemplos. El espacio muestral del lanzamiento de una moneda podría ser

$$\Omega = \left\lbrace \text{águila}, \text{sol} \right\rbrace,$$

o alternativamente, podemos hacer uso de números para representar estos resultados

$$\Omega = \left\lbrace 0, 1\right\rbrace,$$

y puedes escoger cuál es cuál (por ejemplo, que $0$ es águila y $1$ es sol).

En el caso del lanzamiento de un dado, podemos considerar el espacio muestral

$$\Omega = \left\lbrace 1, 2, 3, 4, 5, 6 \right\rbrace.$$

Si lanzamos dos dados simultáneamente, podemos considerar que el espacio muestral de ese experimento es

$$\Omega = \left\lbrace 1, 2, 3, 4, 5, 6 \right\rbrace \times \left\lbrace 1, 2, 3, 4, 5, 6 \right\rbrace,$$

pues nos interesan todas las combinaciones de valores que puede tomar cada dado. Por ejemplo, $(1,3)$ representa al resultado en el que el primer dado cae $1$, y el segundo, $2$.


Nuestra intención será cuantificar qué tan probable es que ocurra uno o más de estos resultados. Esto lo haremos asignando una «calificación» entre 0 y 1 a ciertos subconjuntos importantes de $\Omega$. Así, la «calificación» será 0 para lo más improbable, y 1 para lo más probable. Pero, ¿a qué me refiero por subconjuntos importantes? Veámoslo.

Álgebras

Nuestra intención es «calificar» qué tan probable es alguno de los resultados de nuestro fenómeno aleatorio. Es decir, queremos medir la probabilidad de ocurrencia de los resultados. Como queremos realizar una asignación, será necesaria una función, digamos, $\mathbb{P}$. Esta función asignará el número $\mathbb{P}(A)$ a cada conjunto $A$ de una cierta familia de conjuntos. Debido a esto, la familia sobre la que se define a $\mathbb{P}$ debe de tener una cierta estructura. Para motivar el tipo de estructura que impondremos, podemos valernos de ciertas consideraciones de la probabilidad.

Si $\Omega$ es el espacio muestral de un fenómeno aleatorio, dado $A \subseteq \Omega$, y dado $\omega \in \Omega$, es natural preguntar «¿es cierto que $\omega \in A$?» y encontrar si la respuesta es sí o no una vez que $\omega$ ha sido observado. Ahora, si pudimos responder la pregunta anterior, podemos responder si «¿es cierto que $\omega \in A^{\textsf{c}}$?» Más aún, si dado $n \in \mathbb{N}^{+}$ (el conjunto de los números naturales sin el $0$), para cada $i \in \{1, \ldots, n\}$ podemos determinar la veracidad de $\omega \in A_{i}$, deberíamos de poder determinar si $\omega \in \bigcup_{i=1}^{n}A_{i}$ y $\omega \in \bigcap_{i=1}^{n}A_{i}$.

Por lo tanto, un primer requisito estructural para la familia sobre la que definiremos a $\mathbb{P}$ es que sea cerrada bajo complementación, unión finita e intersección finita.

Además, como la respuesta a la pregunta «¿es cierto que $\omega \in \Omega$?» es siempre «sí», el espacio muestral mismo debería de ser un elemento de la familia. Así, esta discusión da lugar a la siguiente definición.


Definición. Sea $\mathscr{F}$ una colección de subconjuntos de un conjunto $\Omega$ (i.e. $\mathscr{F} \subseteq \mathscr{P}(\Omega)$). Diremos que $\mathscr{F}$ es un álgebra sobre $\Omega$ si cumple las siguientes propiedades:

  1. $\Omega \in \mathscr{F}$.
  2. Si $A \in \mathscr{F}$, entonces $A^{\mathsf{c}} \in \mathscr{F}$.
  3. Si $A_{1}, A_{2}, \ldots, A_{n} \in \mathscr{F}$, entonces $\bigcup_{i=1}^{n} A_{i} \in \mathscr{F}$.

$A^{\mathsf{c}}$ es el complemento de $A$ respecto a $\Omega$, pues $A \subseteq \Omega$.


La propiedad 2 es conocida como cerradura bajo complementación, y la propiedad 3 como cerradura bajo uniones finitas. De la definición de álgebra es posible deducir que un álgebra es también cerrado bajo intersecciones finitas (véase la tarea moral al final de esta entrada).

σ-álgebras

Hay una propiedad un poco más exigente que no es tan sencilla de justificar. En la definición de un álgebra, ¿deberíamos de pedir en la propiedad 3 que sea cerrada bajo uniones numerables? El argumento más convincente para hacerlo es que la teoría matemática resultante es más vasta. Así, obtenemos la siguiente definición.


Definición. Sea $\mathscr{F}$ una colección de subconjuntos de un conjunto $\Omega$ (es decir, $\mathscr{F} \subseteq \mathscr{P}(\Omega)$). Diremos que $\mathscr{F}$ es un σálgebra sobre $\Omega$ (se lee «sigma-álgebra sobre omega», su plural es «sigma-álgebras») si cumple las siguientes propiedades:

  1. $\Omega \in \mathscr{F}$.
  2. Si $A \in \mathscr{F}$, entonces $A^{\mathsf{c}} \in \mathscr{F}$.
  3. Si $A_{1}, A_{2}, \ldots \in \mathscr{F}$, entonces $\bigcup_{i=1}^{\infty} A_{i} \in \mathscr{F}$.

$A^{\mathsf{c}}$ es el complemento de $A$ respecto a $\Omega$, pues $A \subseteq \Omega$.

En el contexto de la probabilidad, los elementos de un σ-álgebra son llamados eventos.


La propiedad 3 es conocida como cerradura bajo uniones numerables. Del mismo modo que con un álgebra, es posible deducir que un σ-álgebra es cerrado bajo intersecciones numerables.

Ejemplos. Dado $\Omega$ un conjunto cualquiera, su conjunto potencia $\mathscr{P}(\Omega)$ es un σ-álgebra sobre $\Omega$. Recordemos que

$$\mathscr{P}(\Omega) = \left\lbrace x \mid x \subseteq \Omega \right\rbrace.$$

Así, para ver que $\mathscr{P}(\Omega)$ es un σ-álgebra, debemos de verificar que cumple las tres propiedades de un σ-álgebra.

  1. Sabiendo que $\Omega \subseteq \Omega$, queda demostrado que $\Omega \in \mathscr{P}(\Omega)$.
  2. Sea $A \in \mathscr{P}(\Omega)$. Queremos demostrar que $A^{\mathsf{c}} \in \mathscr{P}(\Omega)$. Debido a que $A \in \mathscr{P}(\Omega)$, se sigue que $A \subseteq \Omega$. Debido a que $A^{\mathsf{c}}$ es el complemento de $A$ respecto a $\Omega$, este complemento está bien definido, y por lo tanto, $A^{\mathsf{c}} = \Omega \smallsetminus A$. Como $\Omega \smallsetminus A \subseteq \Omega$, se sigue que $A^{\mathsf{c}} \subseteq \Omega$. Es decir, $A^{\mathsf{c}} \in \mathscr{P}(\Omega)$.
  3. Sean $A_{1}, A_{2}, \ldots \in \mathscr{P}(\Omega)$. Debemos demostrar que $\bigcup_{i=1}^{\infty} A_{i} \in \mathscr{P}(\Omega)$. Sabiendo que $A_{1}, A_{2}, \ldots \in \mathscr{P}(\Omega)$, podemos ver que

    $$\forall i \in \mathbb{N}^{+}: A_{i} \subseteq \Omega.$$ Sea $a \in \bigcup_{i=1}^{\infty} A_{i}$. Esto implica que existe $n \in \mathbb{N}^{+}$ tal que $a \in A_{n}$. Por lo anterior, sabemos que $A_{n} \subseteq \Omega$, y en consecuencia, $a \in \Omega$. Como la elección de $a$ fue arbitraria, queda demostrado que $\bigcup_{i=1}^{\infty} A_{i} \subseteq \Omega$, y por lo tanto, $\bigcup_{i=1}^{\infty} A_{i} \in \mathscr{P}(\Omega)$.

Considerando nuevamente a $\Omega$ un conjunto cualquiera, el conjunto $\mathscr{F} = \{ \emptyset, \Omega \}$ es un σ-álgebra. La demostración de este hecho es muy sencilla, y se deja como tarea moral.

Para un ejemplo más explícito, considera a $\Omega$ como el siguiente conjunto.

\[ \Omega = \{ 1, 2, 3, 4, 5, 6 \}. \]

Sea $\mathscr{F}$ el siguiente conjunto:

\[ \mathscr{F} = \{ \emptyset, \{1, 3, 5\}, \{2, 4, 6\}, \{ 1, 2, 3, 4, 5, 6 \} \}. \]

Podemos ver que $\mathscr{F}$ es un σ-álgebra. Observa que $\{ 1, 2, 3, 4, 5, 6 \}$ es uno de los elementos de $\mathscr{F}$, así que cumple la primera propiedad. Después, para ver que cumple la segunda propiedad, hay que ver que para cada $A \in \mathscr{F}$ se cumple que $A^{\mathsf{c}} \in \mathscr{F}$. Para verlo, hay que revisar que se cumple para cada elemento de $\mathscr{F}$ satisface esa propiedad.

  1. Para $\emptyset$, $\emptyset^{\mathsf{c}} = \Omega$, el cual ya vimos que es un elemento de $\mathscr{F}$.
  2. Para $\{1, 3, 5\}$, observa que $\{1, 3, 5\}^{\mathsf{c}} = \{2, 4, 6\}$, el cual vemos que es uno de los elementos de $\mathscr{F}$.
  3. Similarmente, también se cumple para $\{2, 4, 6\}$, pues $\{2, 4, 6\}^{\mathsf{c}} = \{1, 3, 5\}$, que efectivamente es uno de los elementos de $\mathscr{F}$.
  4. Finalmente, para $\Omega$, se tiene que $\Omega^{\mathsf{c}} = \emptyset$, que también es uno de los elementos de $\mathscr{F}$.

Así, vemos que $\mathscr{F}$ satisface la segunda propiedad de un σ-álgebra. Finalmente, observa que $\mathscr{F}$ es un conjunto finito. En consecuencia, no podemos escoger una familia infinita numerable de elementos de $\mathscr{F}$. Así, para demostrar la tercera propiedad de un σ-álgebra en una familia finita de conjuntos, basta demostrar que se cumple la cerradura bajo uniones de dos conjuntos.

Esto lo podemos hacer porque si demostramos que es cerrada para uniones de dos conjuntos, digamos, que para cualesquiera $A, B \in \mathscr{F}$ se cumple $A \cup B \in \mathscr{F}$, entonces si $A$, $B$ y $C$ son conjuntos tales que $A \cup B, C \in \mathscr{F}$, entonces $(A \cup B) \cup C \in \mathscr{F}$. Es decir, la cerradura bajo uniones de dos conjuntos implica la cerradura bajo uniones de tres conjuntos. Similarmente, esta última implica la cerradura bajo uniones de cuatro, y esta la cerradura bajo uniones de cinco… Y así sucesivamente.

Bien, entonces veamos que se cumple la cerradura de uniones de cualesquiera dos conjuntos de $\mathscr{F}$.

  • Las uniones de cualquier elemento de $\mathscr{F}$ con $\emptyset$ son nuevamente un elemento de $\mathscr{F}$, pues si $A \in \mathscr{F}$, entonces $A \cup \emptyset = \emptyset \cup A = A \in \mathscr{F}$.
  • Veamos los casos para $\{ 1, 3, 5 \}$:
    • $\{1, 3, 5\} \cup \{ 2, 4, 6 \} = \{1, 2, 3, 4, 5, 6 \} \in \mathscr{F}$, así que se cumple la cerradura.
    • $\{1, 3, 5\} \cup \{ 1, 2, 3, 4, 5, 6 \} = \{1, 2, 3, 4, 5, 6\} \in \mathscr{F}$, también se cumple la cerradura.
  • Ahora, los casos para $\{ 2, 4, 6 \}$:
    • $\{2, 4, 6\} \cup \{1,3,5\} = \{1, 2, 3, 4, 5, 6\} \in \mathscr{F}$, se cumple la cerradura.
    • $\{2, 4, 6\} \cup \{1, 2, 3, 4, 5, 6\} = \{1, 2, 3, 4, 5, 6\} \in \mathscr{F}$, también se cumple.
  • El caso para $\{1, 2, 3, 4, 5, 6 \}$ es parecido al de $\emptyset$, pues para cualquier $A \in \mathscr{F}$ se cumple que $A \cup \{1, 2, 3, 4, 5, 6 \} = \{1, 2, 3, 4, 5, 6\} \cup A = \{1, 2, 3, 4, 5, 6\} \in \mathscr{F}$, ya que todos los elementos de $\mathscr{F}$ son subconjuntos de $\Omega$.

Un último ejemplo más interesante

Sea $\Omega = \mathbb{R}$, el conjunto de los números reales. Considera a los siguientes conjuntos:

\begin{align*}
J_{1} &= \left\lbrace (a,b] \mid a \in \mathbb{R} \land b \in \mathbb{R} \land a < b \right\rbrace, \\
J_{2} &= \left\lbrace (-\infty,a] \mid a \in \mathbb{R} \right\rbrace, \\
J_{3} &= \left\lbrace (a, \infty) \mid a \in \mathbb{R} \right\rbrace.
\end{align*}

Es decir, $J_{1}$ es el conjunto cuyos elementos son todos los intervalos acotados, semi-cerrados por la derecha. Por otro lado, $J_{2}$ es el conjunto de intervalos cerrados por la derecha, y sin cota inferior. Finalmente, $J_{3}$ es el conjunto que tiene por elementos a todos los intervalos abiertos por la izquierda, y sin cota superior.

A partir de $J_{1}$, $J_{2}$ y $J_{3}$, definamos el siguiente conjunto:

\[ J = J_{1} \cup J_{2} \cup J_{3}. \]

El conjunto $J$ simplemente junta a todos los tipos de intervalos descritos más arriba. Después, para cada $n \in \mathbb{N}$, definamos los siguientes conjuntos auxiliares:

\[ B_{n} = \left\lbrace \bigcup_{i=1}^{n} A_{i} \; \middle| \; \forall i,j \in \left\lbrace 1, \ldots, n \right\rbrace : (A_{i} \in J \land (i \neq j \implies A_{i} \cap A_{j} = \emptyset)) \right\rbrace. \]

Esto es, para cada $n \in \mathbb{N}$, $B_{n}$ es el conjunto cuyos elementos son subconjuntos de $\mathbb{R}$ tales que son el resultado de hacer la unión de exactamente $n$ intervalos ajenos de $J$. Por ejemplo, $B_{1}$ son los subconjuntos de $\mathbb{R}$ que resultan de unir exactamente $1$ intervalo de $J$. Es decir, es el mismo $J$. $B_{2}$ son los subconjuntos de $\mathbb{R}$ que resultan al unir exactamente $2$ intervalos ajenos de $J$. Y así, sucesivamente. Como convención, $B_{0} = \{ \emptyset \}$, pues $\emptyset$ es el único subconjunto de $\mathbb{R}$ que resulta de unir $0$ intervalos.

Ahora, considera el siguiente conjunto $\mathscr{F}$:

\[ \mathscr{F} = \bigcup_{n=0}^{\infty} B_{n}. \]

Así, $\mathscr{F}$ es el conjunto cuyos elementos son todas las uniones finitas de intervalos ajenos en $J$. Es posible (e interesante) demostrar que $\mathscr{F}$ es un álgebra de subconjuntos de $\mathbb{R}$. Sin embargo, $\mathscr{F}$ no es un σ-álgebra. Por ejemplo, si para cada $n \in \mathbb{N}^{+}$ tomamos los conjuntos $E_{n} = (0, 1 – (1/n)]$, vemos que en $E_{1}, E_{2}, \ldots \in \mathscr{F}$, pero $\bigcup_{n=1}^{\infty} E_{n} = (0,1) \notin \mathscr{F}$.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu manejo de los conceptos abordados en esta entrada.

  1. Sea $\Omega = \{ 1, 2, 3, 4, 5, 6 \}$. Determina si las siguientes familias de subconjuntos de $\Omega$ son σ-álgebras.
    • $\mathscr{F}_{1} = \{ \emptyset, \{ 1, 2 \}, \{3, 4\}, \{3, 4, 5, 6\}, \{1, 2, 5, 6 \}, \{1, 2, 3, 4, 5, 6 \} \}$.
    • $\mathscr{F}_{2} = \{ \emptyset, \{1\}, \{3\}, \{1,3\}, \{2,3,4,5,6\}, \{1,2,4,5,6\}, \{2,4,5,6\}, \{1,2,3,4,5,6\}\}.$
  2. A partir de la definición de álgebra, demuestra que si $\mathscr{F}$ es un álgebra sobre $\Omega$, entonces también cumple las siguientes propiedades:
    • $\emptyset \in \mathscr{F}$.
    • Si $A_{1}, A_{2}, \ldots A_{n} \in \mathscr{F}$, entonces $\bigcap_{i=1}^{n} A_{i} \in \mathscr{F}$ (sugerencia: aprovecha las propiedades 2 y 3 de un álgebra, y recurre a las leyes de De Morgan).
    • Si $A, B \in \mathscr{F}$, entonces:
      • $B \smallsetminus A \in \mathscr{F}$.
      • $A \triangle B \in \mathscr{F}$.
  3. A partir de la definición σ-álgebra, demuestra que si $\mathscr{F}$ es un σ-álgebra sobre $\Omega$, entonces también cumple las siguientes propiedades:
    • $\mathscr{F}$ es un álgebra.
    • Si $A_{1}, A_{2}, \ldots \in \mathscr{F}$, entonces $\bigcap_{i=1}^{\infty} A_{i} \in \mathscr{F}$ (sugerencia: aprovecha las propiedades 2 y 3 de un σ-álgebra, y recurre a las leyes de De Morgan).
  4. Demuestra que dado $\Omega$ un conjunto cualquiera, el conjunto $\mathscr{F} = \{ \emptyset, \Omega \}$ es un σ-álgebra sobre $\Omega$.
  5. Si $\Omega$ es un conjunto finito, ¿es posible construir un álgebra que no sea σ-álgebra?

Más adelante…

En esta entrada definimos dos de las piedras angulares de la teoría de la probabilidad, el espacio muestral y los σ-álgebras. Por un lado, el espacio muestral deja claro cuáles son los posibles resultados de un experimento aleatorio. Por otra parte, un σ-álgebra del espacio muestral es el que determina los conjuntos que podremos medir. En la siguiente entrada abordaremos la construcción de σ-álgebras a partir de una colección dada de subconjuntos de $\Omega$. Con ello, veremos un σ-álgebra muy importante que puede ser construido de distintas maneras. En particular, puede hacerse utilizando el álgebra de nuestro último ejemplo.

Entradas relacionadas

Un problema de probabilidad y escuchar música

Por Leonardo Ignacio Martínez Sandoval

El problema

Les comparto un problema que se me ocurrió en las (muchas) horas que he pasado en el carro escuchando música, cuando vivía en la Ciudad de México. El estéreo del carro ordena las canciones alfabéticamente. Tiene un botón que permite «avanzar una canción». Pero a veces tarda mucho: si estoy escuchando «Adele – Hello», hay que apretar el botón muchas veces para llegar a «Shakira – Dónde están los ladrones».

En esas épocas descubrí una estrategia «intuitiva» para llegar más rápido a la canción. La idea es la siguiente: pasar temporalmente al modo de «canción aleatoria», apretar el botón unas cuantas veces para acercarme a la canción que quiero (en el ejemplo anterior, digamos que después de dos o tres veces el botón me lleva a «Paquita la del Barrio – Rata de dos Patas»), y de ahí quitar el aleatorio y avanzar normal. Eso, intuitivamente, siempre me ahorró muchos pasos. El problema consiste en encontrar la estrategia óptima, en donde se permiten mezclar pasos normales y aleatorios.

Para eso, voy a plantear un problema muy concreto. De aquí en adelante supondré que el lector sabe un poco de probabilidad. Pensemos que hay $2n$ canciones, numeradas de $1$ a $2n$. Estoy en la canción $n$ y quiero llegar a la canción $2n$. Pensemos que el estéreo tiene exactamente dos botones, el $A$ que avanza $1$ (y de $2n$ lleva a $1$), y el $B$ que lleva a una canción aleatoria (cualquiera de las canciones, incluida la actual, tiene probabilidad $1/2n$ de ser elegida). En cada paso se permite ver en qué canción estoy, y de ahí decidir apretar $A$ o $B$. ¿Cuál es la estrategia que en valor esperado tiene menos pasos? ¿Cuál es ese valor esperado?

En la imagen de aquí abajo se muestra un ejemplo de una forma de apretar los botones para $n=5$, con $2n=10$ canciones. Las flechas rojas corresponden a avanzar $1$ apretando el botón $A$. Las flechas azules corresponden a ir a un lugar aleatorio apretando el botón $B$. Se apretaron los botones en el orden $ABBAA$, de modo que se hicieron $5$ pasos.

Ejemplo de estrategia ABBAA
Un ejemplo en el que se usa la estrategia ABBAA. La canción 1 es de ABBA. Es Dancing Queen. «Feel the beat form the tambourine… Oh yeah…».

Ese es el enunciado del problema. De aquí en adelante empiezo a hablar de ideas para resolverlo, así que si quieres intentarlo, este es el momento correcto.

Primeras ideas

Notemos que la estrategia «siempre $A$, hasta llegar a $2n$» toma exactamente $n$ pasos siempre. La estrategia «siempre $B$» es para intentar atinarle, y en cada paso tiene probabilidad de éxito $1/2n$. Entonces, en esta segunda estrategia la cantidad de pasos requeridos es una variable aleatoria con distribución geométrica de parámetro $p=1/2n$, de modo que el número esperado de pasos es $1/p=2n$.

Sin embargo, suena a que la estrategia esbozada al inicio de esta entrada es intuitivamente mejor: usar el $B$ para acercarse y luego el $A$ para llegar.

La solución

Vamos a mostrar que la mejor estrategia en valor esperado es la siguiente: «apretar el botón $B$ hasta llegar aproximadamente al intervalo $[n-2\sqrt{n}, n]$, y de ahí apretar el botón $A$» hasta llegar a $n$.

El primer argumento es que en cada paso, lo que hace la estrategia sólo depende de en qué canción estamos. En efecto, el paso $A$ es determinista y el $B$ es una variable uniforme independiente de todo lo demás.

El segundo argumento es que, si en algún momento de la estrategia usamos el botón $A$, entonces después de ello nunca nos conviene usar el botón $B$. Lo probamos por contradicción: supongamos que por cualquier razón en la estrategia óptima tenemos que hacer un $AB$. El paso $A$ es determinista, y sabíamos exactamente a qué canción nos iba a llevar (a la siguiente). Pero hacer el paso $B$ en cualquier lugar que estemos es simétrico, pues nos lleva a una canción aleatoria. Si a priori sabíamos que íbamos a hacer un paso $B$, lo mejor es hacerlo lo antes posible. Así, la estrategia que substituye esos pasos $AB$ por $B$ se ahorra un paso, y no es óptima. Contradicción.

Ahora, afirmo lo siguiente. Si la estrategia óptima es apretar $A$ cuando estamos en la canción $j$, entonces también va a ser apretar $A$ cuando estemos en cualquier canción $k$ con $j\leq k < 2n$. Esto es debido al argumento anterior: al apretar $A$ llegamos a $j+1$, que por el párrafo de arriba, no le puede tocar $B$. Entonces le toca $A$. De ahí llegamos a $j+2$, que de nuevo no le puede tocar $B$. Y así sucesivamente (inductivamente), hasta llegar a $2n-1$.

Lo que acabamos de probar es que la estrategia óptima se ve de la siguiente manera para algún entero $k$: «Apretar $B$ hasta que lleguemos a alguno de los últimos $k$ elementos. De ahí, apretar $A$ hasta llegar a $2n$.» Nos falta determinar cuál es la mejor $k$ que podemos usar.

A estas alturas ya podemos calcular explícitamente el valor esperado de pasos en esta estrategia. El evento «llegar a alguno de los últimos $k$ elementos» tiene probabilidad $k/2n$ de ocurrir cada que se aprieta el botón $B$, así que la cantidad de veces que hay que apretar $B$ para ello es una variable aleatoria geométrica de valor esperado $2n/k$. Una vez que llegamos a los últimos $k$ elementos, caemos a cualquier elemento del intervalo $\{2n-k+1, 2n-k+2,\ldots,2n\}$ con la misma probabilidad, y respectivamente nos tomará $\{k-1, k-2,\ldots, 0\}$ pasos en llegar a $2n$, es decir, la cantidad de pasos que hacemos es una variable aleatoria uniforme discreta de media $(k-1)/2$.

Así, en total usamos $(2n/k) + (k-1)/2$ pasos para llegar. Queremos lograr que esta expresión sea lo más pequeña posible. Usando la desigualdad entre la media geométrica y la aritmética, notamos que $$\frac{2n}{k}+\frac{k-1}{2}=\frac{2n}{k}+\frac{k}{2}-\frac{1}{2} \geq 2\sqrt{n} – \frac{1}{2},$$ y que la igualdad se da si y sólo si $\frac{2n}{k}=\frac{k}{2}$, es decir, si y sólo si $k=2\sqrt{n}$. En este caso, la cantidad media de pasos que usamos es $2\sqrt{n}-\frac{1}{2}$.

Aquí arriba hicimos un poquito de trampa. En realidad $k=2\sqrt{n}$ tiene sentido para la estrategia sólo cuando $\sqrt{n}$ es un número entero. Sin embargo, por la convexidad de la función $
\frac{2n}{k}+\frac{k}{2}$ tenemos la garantía de que o bien $\lfloor
2\sqrt{n} \rfloor$ o bien $\lceil 2\sqrt{n} \rceil$ dan el máximo.

Conclusión y otros problemas

Está cool que hayamos bajado la cantidad de pasos que se necesitan de valor esperado de algo que era $n$ a algo que es del tamaño $2\sqrt{n}$. Para hacerse una idea de los pasos que se pueden ahorrar, toma una colección de $800$ canciones. Originalmente se necesitaban $400$ pasos $+1$ para ir de la mitad al final. Con la nueva estrategia se requieren como $40$.

Hacer esta estrategia en la vida real es un poco complicado pues los estéreos no muestran el número exacto de la canción en la que se está, además de que es difícil memorizar a qué canción le toca qué número. Pero a veces sí muestran el nombre de la canción y más o menos «se le puede aproximar».

Hay un par de variantes interesantes. Una es ¿qué sucede si además de tener botón $+1$ y aleatorio, también tenemos botón $-1$?. En esta variante la solución no cambia mucho, pero es bueno intentarla para repasar las ideas de la prueba.

La otra variante es la siguiente. La estrategia óptima, como está descrita arriba, tiene un problema: es posible que nunca termine, o que tome muchísimos pasos en terminar (esto será muy improbable y por eso el valor medio se compensa). Así, imaginemos que queremos la restricción adicional de que la estrategia que usemos nunca use más de, digamos, 4n pasos. En esta variante: ¿cuál es la estrategia óptima? ¿cuántos pasos toma?

¿Ahora qué?

Si te gustó esta entrada, puedes compartirla o revisar otras relacionadas con matemáticas a nivel universitario: