Archivo del Autor: Octavio Daniel Ríos García

Probabilidad I: La Probabilidad Geométrica

Introducción

En la entrada pasada concluimos el estudio de algunas propiedades básicas de una medida de probabilidad. A partir de estas propiedades serás capaz de demostrar muchísimas otras más, que probablemente te encontrarás en tareas, exámenes o en las secciones de ejercicios de tus libros. Por el momento, sigamos con el contenido del curso.

Lo que sigue en el curso es ver tres enfoques de la probabilidad: la probabilidad geométrica, el enfoque frecuentista, y la definición clásica de la probabilidad. Así pues, en esta entrada veremos lo que corresponde a la probabilidad geométrica. Algunos aspectos para tratar con total formalidad este tema son más avanzados. Por ello, veremos este tema «por encima», omitiendo algunas formalidades.

Hay una sección en esta entrada cuyo título lleva un asterisco (*). Cuando las leas, no te preocupes si no entiendes las formalidades, lo importante es que entiendas los resultados.

Motivación de la probabilidad geométrica

Seguramente te ha tocado jugar o espectar algún juego de lanzar cosas. Por ejemplo, el lanzamiento de dardos, o el tiro con arco. La puntuación que obtienes en un juego de este tipo se basa en tu precisión. Es decir, tú arrojas o disparas un objeto hacia una superficie, y obtienes puntos basado en la región de esa superficie a la que le atinaste. Como ejemplo, está la diana de un juego de tiro con arco:

Figura. Diana del juego de tiro con arco. La puntuación que otorga cada región de la diana está indicada por un número dentro de dicha región.

Evidentemente, cuando estás jugando a los dardos o al tiro con arco, usas tu habilidad para intentar juntar la mayor puntuación posible. Sin embargo, podemos volverlo un tema probabilista. ¿Qué pasa si decidimos arrojar un dardo, o disparar una flecha al azar? En otras palabras, que dentro de la superficie dada, escojamos un punto al azar. ¿Cómo determinamos la probabilidad de que el punto elegido caiga dentro de una región dada?

Un primer modelo para acercarnos a este problema es trabajar en $\RR^{2}$, el plano euclidiano. Luego, tomar una región acotada de $\RR^{2}$, digamos, $\Omega$. Además, supondremos que el punto se elige de manera «uniforme» sobre la región $\Omega$. Es decir, que la probabilidad de cualquier subconjunto de $\Omega$ es proporcional a su «área». Por ejemplo, para modelar una diana, podemos tomar a $\Omega$ como un círculo.

Un poco sobre la medida y el σ-álgebra que se utiliza*

Por motivos de tiempo y prerrequisitos, no es posible tratar con mucho detalle la medida ni el σ-álgebra que usaríamos en $\RR^{2}$. Por ello, recomendamos que de esta sección extraigas las ideas y resultados, y que no hagas un esfuerzo excesivo por entender la formalidad. Lo que haremos es partir de los rectángulos en $2$ dimensiones, pues es fácil definir su área.


Definición 1.12. Un rectángulo bidimensional cerrado es un subconjunto $R \subseteq \RR^{2}$ de la forma

\[ R = [a_{1}, b_{1}] \times [a_{2}, b_{2}], \]

donde $a_{1}$, $b_{1}$, $a_{2}$ y $b_{2} \in \RR$. En consecuencia, el área de $R$ es

\[ \mu(R) = (b_{1} − a_{1})(b_{2} − a_{2}). \]


Consideraremos a $\emptyset$ como un rectángulo con $\mu(\emptyset) = 0$. Denotaremos al conjunto de todos los rectángulos bidimensionales cerrados por $\mathscr{R}(\RR^{2})$. Veremos muy por encima la manera en que se construye matemáticamente la noción de «área». Lo que haremos será aproximar el área de cualquier subconjunto $E$ de $\RR^{2}$ por afuera, a través del área de familias de rectángulos que contengan a $E$.


Definición 1.13. La medida exterior de Lebesgue $\mu^{*}(E)$ de un subconjunto $E \subseteq \RR^{2}$, es

\[ \mu^{*}(E) = \inf{\left\lbrace \sum_{k=1}^{\infty} \mu(R_{k}) \; \middle| \; E \subseteq \bigcup_{k=1}^{\infty}R_{k}, R_{k} \in \mathscr{R}(\RR^{2}) \right\rbrace}, \]

donde el ínfimo se toma sobre las familias numerables de rectángulos cuya unión contiene a $E$. La función $\mu^{*}\colon \mathscr{P}(\RR^{2} \longrightarrow [0, \infty]$ es llamada la medida exterior de Lebesgue.


Varios conceptos en la teoría de la medida reciben su nombre en honor a Henri Lebesgue, un importantísimo matemático francés que desarrolló toda una teoría de integración de funciones.

En la definición anterior, se admite que $\mu^{*}(E)$ valga $\infty$. Esto es algo que no nos preocupará mucho en la probabilidad geométrica, pero es importante tenerlo en cuenta. Así, la función $\mu^{*}$ nos da el área de cualquier región «agradable» de $\RR^{n}$, y la obtiene aproximando por afuera con rectángulos.

Figura. Representación visual de lo que hace $\mu^{*}$. Al ser el ínfimo, nos interesa la aproximación del área de la región más refinada posible a partir de rectángulos. Haz click aquí para ir a la fuente original de esta imagen.

Ahora, lo que nos interesa es conseguir un σ-álgebra sobre la que la medida exterior de Lebesgue sea, efectivamente, una medida. La siguiente es la definición de Carathéodory (pues fue formulada por el matemático griego Constantin Carathéodory) de medibilidad. Esto es, los conjuntos que satisfacen este criterio son a los que se les podrá medir su «área».


Definición 1.14. Un subconjunto $A \subseteq \RR^{2}$ es Lebesgue-medible si para cualquier subconjunto $E \subseteq \RR^{2}$ se cumple que

\[ \mu^{*}(E) = \mu^{*}(E \cap A) + \mu^{*}(E \cap A^{\mathsf{c}}). \]


Denotaremos al conjunto de todos los conjuntos Lebesgue-medibles en $\RR^{2}$ por $\mathcal{L}(\RR^{2})$. Esta condición puede interpretarse como que un conjunto es medible si divide a otros conjuntos de «buena» manera. Resulta que $\mathcal{L}(\RR^{2})$ es un σ-álgebra. Además, también se tiene que $\mu^{*}$ restringida a $\mathcal{L}(\RR^{2})$ es una medida (no de probabilidad, simplemente medida. Es lo mismo pero sin pedir que la medida de $\RR^{2}$ sea $1$). Así, se llega a la siguiente definición.


Definición 1.15. La función $\lambda\colon \mathcal{L}(\RR^{2}) \longrightarrow [0, \infty]$ definida como

\[ \lambda = \left.\mu^{*}\right|_{\mathcal{L}(\RR^{2})},\]

la restricción de $\mu^{*}$ a $\mathcal{L}(\RR^{2})$, es llamada la medida bidimensional de Lebesgue en $\RR^{2}$.


La medida de Lebesgue asigna a cada región $E \subseteq \mathcal{L}(\RR^{2})$ (las cuales son regiones «bonitas», a las que se les puede asignar un área, en el sentido de la definición 1.14) el valor $\lambda(E)$, que corresponde a su área.

Definición de la probabilidad geométrica

Así, si ahora tomamos alguna región de $\RR^{2}$ para la cual su área está bien definida, podemos construir una medida de probabilidad en la que la probabilidad de cada sub-región es proporcional a su área. Si $\Omega$ es un subconjunto acotado de $\RR^{2}$ que es Lebesgue-medible, entonces su área es finita. Más aún, podemos considerar a

\[ \mathcal{L}(\Omega) = \mathscr{P}(\Omega) \cap \mathcal{L}(\RR^{2}), \]

el conjunto de todos los subconjuntos de $\Omega$ que son Lebesgue-medibles, este es un σ-álgebra sobre $\Omega$. En consecuencia, podemos definir una medida, y dar lugar a un espacio de probabilidad.


Definición 1.16. Sea $\Omega \subseteq \RR^{2}$ un conjunto acotado y con área bien definida mayor a $0$. Sea $\mathcal{L}(\Omega)$ el conjunto de todos los subconjuntos de $\Omega$ con área bien definida. Se define la probabilidad geométrica $\mathbb{P}\colon \mathcal{L}(\Omega) \longrightarrow \RR$ como sigue. Para cada $A \in \mathcal{L}(\Omega)$, se define $\Prob{A}$ como

\[ \Prob{A} = \frac{\text{Area}(A)}{\text{Area}(\Omega)}.\]


En la definición anterior, el «área» de $A$, que denotamos por $\text{Area}(A)$, es precisamente $\lambda(A)$, la medida bidimensional de Lebesgue. No centres mucho tu atención en el uso de los conjuntos Lebesgue-medibles ni en la medida de Lebesgue. Nuestra intención es exhibir que la noción de «área» puede ser formalizada matemáticamente, y despertar tu interés por estudiar estos temas con más profundidad. Lo importante con lo que te debes de quedar es que, a cada subconjunto de $\Omega$ con área bien definida, se le asigna una probabilidad que es la proporción entre su área y el área de $\Omega$.

Esta medida de probabilidad asume que se cumple una propiedad llamada equiprobabilidad. Esto es, para cada $A \in \mathcal{L}(\Omega)$, no importa cuáles sean los elementos de $A$, lo único que importa para determinar su probabilidad es su área.

Un primer ejemplo de probabilidad geométrica

Ejemplo. Imagina que vas a tomar un autobús en una parada. Supongamos que tú y el autobús llegarán en tiempos aleatorios a la parada, entre las 12pm y la 1pm. Es decir, los tiempos de llegada tuyo y del autobús son valores $x$, $y \in [0,60]$, pues el tiempo (en minutos) entre las 12pm y la 1pm es de $60$ minutos. Además, supongamos que cuando el autobús llega, permanece en la parada $5$ minutos antes de irse; y cuando tú llegas, esperas $20$ minutos antes de irte si el autobús no llega. ¿Cuál es la probabilidad de que tomes el autobús?

Para resolver este problema, observa que $\Omega$ en este puede considerarse como

\[ \Omega = [0,60] \times [0,60] = \{ (x,y) \in \RR^{2} \mid x \in [0,60] \land y \in [0,60] \}, \]

y que dado un par ordenado $(x,y)$, $x$ es tu tiempo de llegada y $y$ es el tiempo de llegada del autobús. Gráficamente, todos los posibles resultados están dentro de un cuadrado:

Figura. Nuestro espacio muestral $\Omega = [0,60]\times [0,60]$.

Luego, tenemos que encontrar las regiones que corresponden al evento en el que tú y el autobús coinciden. Primero, sabemos que el autobús espera $5$ minutos después de llegar, por lo que tú debes de llegar dentro de esos $5$ minutos que espera. Es decir, $x$, tu tiempo de llegada, debe de ser menor o igual a $y + 5$. Así, $x \leq y + 5$, o equivalentemente, $y \geq x – 5$. Este sería un evento $A$, dado como sigue:

\[ A = \{ (x,y) \in \Omega \mid y \geq x – 5 \}. \]

Figura. El evento $A$ de todos los pares ordenados $(x,y)$ \in \Omega$ tales que $y \geq x – 5$.

Por otro lado, tú esperas el autobús por $20$ minutos, por lo que no puedes llegar más de $20$ minutos antes que el autobús. Es decir, $x$ debe de ser mayor o igual a $y − 20$. Así, $x \geq y − 20$, o equivalentemente, $y \leq x + 20$. Por ello, el evento $B$ que representa a esta situación es

\[ B = \{ (x,y) \in \Omega \mid y \leq x + 20 \}. \]

Figura. El evento $B$ de todos los pares ordenados $(x,y) \in \Omega$ tales que $y \leq x + 20$.

Intersecando ambas regiones obtenemos la región en donde tú y el autobús coinciden.

Figura. En todos los pares $(x,y) \in A \cap B$, el resultado es que tomas el autobús.

Y podemos utilizar la probabilidad geométrica para dar solución a este problema: la probabilidad de que tomes el autobús es el área de esta última región dividida entre el área total. Podemos utilizar la regla de complementación para facilitar el cálculo, pues las regiones en donde no tomas el autobús son triángulos y es más fácil calcular su área.

Figura. El área correspondiente a $(A \cap B)^\mathsf{c}$. Su área es más fácil de calcular que el área de $A \cap B$.

La región de arriba es un triángulo rectángulo cuyos catetos miden $40$, así que su área es $\frac{40^{2}}{2}$. De igual forma, la región de abajo es un triángulo rectángulo cuyos catetos miden $55$, por lo que su área es $\frac{55^{2}}{2}$. Por otro lado, el área de $\Omega$ es $60^2$, pues es un cuadrado cuyos lados miden $60$. Así, tenemos que

\begin{align*} \Prob{(A \cap B)^{\mathsf{c}}} &= \frac{\frac{40^{2}}{2} + \frac{55^{2}}{2}}{60^2} \\ &= \frac{40^{2} + 55^{2}}{(2)(60)^{2}} \\ &= \frac{1600 + 3025}{7200} \\ &= \frac{4625}{7200}. \end{align*}

Y como $\Prob{A \cap B} = 1 − \Prob{(A \cap B)^{\mathsf{c}}}$, tenemos que

\[ \Prob{A \cap B} = 1 − \frac{4625}{7200} = \frac{7200 + 4625}{7200} = \frac{2575}{7200} = \frac{103}{288} \approx 0.35764. \]

En conclusión, la probabilidad de que tomes el autobús es aproximadamente $0.35764$, o alternativamente, es aproximadamente un $35.764\%$.

El problema de la aguja de Buffon

En el siglo XVIII, el naturalista francés Georges-Louis Leclerc formuló un problema con un resultado muy interesante.

Supón que tenemos un piso hecho de bandas de madera, todas con la misma anchura, y dejamos caer una aguja al azar sobre el piso. ¿Cuál es la probabilidad de que la aguja caiga sobre la línea entre dos bandas?

Este problema es conocido como la aguja de Buffon en honor a su creador: Georges-Louis Leclerc, conde de Buffon. Una solución utilizando algunos hechos geométricos fue publicada por Joseph-Émile Barbier en 1860 para el caso en el que la longitud de la aguja es menor a la anchura de las tablas de madera. Para resolver este problema, sea $l$ la longitud de la aguja y sea $D$ el ancho de cada banda de madera. Asumiremos que $0 < l < D$.

Figura. Ilustración de las primeras variables en el problema. $l$ es la longitud de la aguja, y $D$ es la anchura de cada banda de madera. Las bandas se ilustran con colores alternados.

Ahora, sea $\theta$ el ángulo agudo que forma la aguja con el eje horizontal, y sea $x$ la distancia entre el centro de la aguja y la línea entre dos bandas más cercana.

Figura. Visualización de los valores $x$ y $\theta$. $\theta$ se toma siempre como el ángulo agudo que forma la aguja con el eje horizontal. Marcamos con rojo el centro de una aguja que no está sobre la línea entre dos bandas, y con verde el centro de una aguja que sí está sobre una línea.

Observa que la aguja cae sobre la línea entre dos bandas si y sólamente si $x \leq \frac{l \cos{\theta}}{2}$. Esto pasa porque $l \cos{\theta}$ es la distancia horizontal de la aguja, así que $\frac{l \cos{\theta}}{2}$ es la distancia entre el centro de la aguja y la proyección sobre el eje horizontal de sus extremos. Por lo tanto, si la distancia entre el centro de la aguja y la línea entre dos bandas más cercana es menor o igual a $\frac{l \cos{\theta}}{2}$, la aguja atraviesa esta línea.

Figura. Comparación de $x$ con $l \cos{\theta}$. Observa cómo en la aguja de la izquierda, $x > \frac{l \cos{\theta}}{2}$, mientras que en la de la derecha, $x \leq \frac{l \cos{\theta}}{2}$.

Ahora, asumimos que los valores de $x$ y $\theta$ son aleatorios. Además, se debe de cumplir que $0 < x < \frac{D}{2}$, pues $0 < l < D$ (así que la distancia a la línea entre bandas más cercana es menor a $\frac{D}{2}$); y además $0 < \theta < \frac{\pi}{2}$. Por lo tanto, el espacio muestral de este fenómeno puede verse como

\[ \Omega = {\left\lbrace (\theta, x) \in \RR^{2} \; \middle| \; 0 < \theta < \frac{\pi}{2} \land 0 < x < \frac{D}{2} \right\rbrace} = {\left(0, \frac{\pi}{2}\right)} \times {\left(0, \frac{D}{2}\right)} . \]

Y vimos que la aguja cae sobre la línea entre dos bandas si y sólamente si $x \leq \frac{l \cos{\theta}}{2}$, por lo que el evento $A$ que nos interesa es

\[ A = \left\lbrace (\theta,x) \in \Omega \; \middle| \; x \leq \frac{l \cos{\theta}}{2} \right\rbrace. \]

Observa que el área de $A$ se ve como en la siguiente figura:

Figura. Representación gráfica de $\Omega$ y del evento que nos interesa, $A$.

Así, el área de $A$ la podemos calcular integrando la función $\frac{l \cos{\theta}}{2}$ de $0$ a $\frac{\pi}{2}$. Así,

\begin{align*} \text{Area}(A) &= \int_{0}^{\frac{\pi}{2}} \frac{l}{2}\cos{\theta} \, \text{d}\theta \\ &= \frac{l}{2}\left[\sin{\frac{\pi}{2}} − \sin{0}\right] \\ &= \frac{l}{2}. \end{align*}

Por otro lado, el área de todo $\Omega$ es

\[ \text{Area}(\Omega) = \left(\frac{D}{2}\right)\left(\frac{\pi}{2} \right) = \frac{\pi D}{4}. \]

Así, se tiene que la probabilidad geométrica de $A$, $\Prob{A}$, es

\[ \Prob{A} = \frac{\text{Area}(A)}{\text{Area}(\Omega)} = \frac{\frac{l}{2}}{\frac{\pi D}{4}} = \frac{l}{2} \frac{4}{\pi D} = \frac{2l}{\pi D}. \]

Una consecuencia interesante de la solución a este problema es que la probabilidad resultante involucra a $\pi$, una constante matemática muy importante. Mucho más adelante veremos una forma curiosa de aproximar el valor de $\pi$ repitiendo el experimento de la aguja de Buffon muchas veces.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $\Omega \subseteq \RR^{2}$ un conjunto acotado y con área bien definida. Sea $\mathcal{L}(\Omega)$ el conjunto de todos los subconjuntos de $\Omega$ que son Lebesgue-medibles, y sea $\mathbb{P}\colon \mathcal{L}(\Omega) \longrightarrow \RR$ la probabilidad geométrica. Es decir, para cada $A \in \mathcal{L}(\Omega)$, se define $\Prob{A}$ como \[ \Prob{A} = \frac{\text{Area}(A)}{\text{Area}(\Omega)}.\]Explica por qué $(\Omega, \mathcal{L}(\Omega), \mathbb{P})$ es un espacio de probabilidad. En particular, como ya acordamos que $\mathcal{L}(\Omega)$ es un σ-álgebra, basta con que expliques por qué la probabilidad geométrica es una medida de probabilidad.
  2. Vuelve a hacer el ejercicio del autobús pero ahora supón que tú esperas al autobús durante $15$ minutos, y el autobús espera $7$ minutos.
  3. En el problema de la aguja de Buffon, explica por qué si $l < D$ (esto es, la longitud de la aguja es menor que la anchura de las bandas), podemos concluir que $x$ (la distancia entre el centro de la aguja y la línea entre dos bandas más cercana) es menor a $\frac{D}{2}$.
  4. Explica por qué si la longitud de la aguja $l$ es mayor a $D$ no podemos solucionar el problema de la forma en que lo hicimos.

Más adelante…

La probabilidad geométrica presenta una herramienta muy útil para dar solución a problemas con una interpretación espacial directa, como es el caso del problema de la aguja de Buffon. Además, resulta útil como una herramienta auxiliar para resolver ejercicios que no necesariamente tienen una interpretación visual directa, como el ejemplo del autobús. En conclusión, es una herramienta útil, pero que debes de tener cuidado con sus hipótesis: supone equiprobabilidad sobre el espacio muestral $\Omega$.

En la materia de Probabilidad II estudiarás a fondo la aleatoriedad en varias variables. Esto te dará herramientas más poderosas para describir la aleatoriedad sobre $\RR^2$ (y más allá) sin suponer que el espacio muestral es equiprobable.

Por lo pronto, en la siguiente entrada veremos un enfoque distinto de la probabilidad: la probabilidad frecuentista.

Entradas relacionadas

Probabilidad I: Propiedades de una Medida de Probabilidad, parte 2

Introducción

En la entrada pasada vimos dos propiedades importantes de la probabilidad. La primera, la regla de complementación, establece la relación que existe entre la probabilidad de un evento con la de su complemento. La segunda, el principio de inclusión-exclusión, nos brinda una fórmula para el cálculo de la probabilidad de cualquier unión de eventos, sin importar si estos no son ajenos dos a dos.

En esta entrada veremos algunas propiedades más. Primero, veremos cómo interactúa una medida de probabilidad con la relación como subconjunto «$\subseteq$». Posteriormente, veremos dos propiedades que exhiben la relación que existe entre la probabilidad de la unión de cualquier familia a lo más numerable de eventos y la suma de sus probabilidades.

Interacción de la probabilidad con la relación como subconjunto

A lo largo de entra estada, consideraremos que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad. Una propiedad interesante surge al preguntarnos cómo interactúa la probabilidad con la relación como subconjunto. Esto es, dados $A$ y $B$ eventos tales que $B \subseteq A$, ¿cómo se comparan $\mathbb{P}(A)$ y $\mathbb{P}(B)$? La relación $\subseteq$ indica que todos los elementos de $B$ son también elementos de $A$, pero $A$ puede tener ciertos elementos que no están en $B$. Por ello, esperaríamos que la probabilidad de $B$ debería de ser menor o igual a la probabilidad de $A$. Resulta que sí, e incluso podemos ser más precisos con esta propiedad.


Proposición 1.9. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Para cualesquiera $A$, $B \in \mathscr{F}$ eventos tales que $B \subseteq A$ se cumple que

\[ \mathbb{P}(A) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B). \]

En consecuencia, $\mathbb{P}(A \smallsetminus B) = \mathbb{P}(A) − \mathbb{P}(B)$, y además, como la probabilidad es no-negativa, $\mathbb{P}(A \smallsetminus B) \geq 0$, y así, $\mathbb{P}(B) \leq \mathbb{P}(A)$.


Demostración. Sean $A$, $B \in \mathscr{F}$ tales que $B \subseteq A$. Como $B \subseteq A$, es posible escribir a $A$ como $A = B \cup (A \smallsetminus B)$. Esto no es posible cuando $B$ no es subconjunto de $A$. Además, observa que $A \cap (A \smallsetminus B) = \emptyset$, así que por la aditividad finita de $\mathbb{P}$, se tiene que

\[ \mathbb{P}(A) = \mathbb{P}(B \cup (A \smallsetminus B)) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B), \]

es decir, $\mathbb{P}(A) = \mathbb{P}(B) + \mathbb{P}(A \smallsetminus B)$, que es justamente lo que queríamos demostrar.

$\square$

Así, vemos que cuando $B \subseteq A$, la probabilidad de $A$ es igual a la probabilidad de $B$ más un valor no-negativo, por lo que $\mathbb{P}(B) \leq \mathbb{P}(A)$.

La subaditividad finita de una medida de probabilidad

Una de las propiedades que vimos en la entrada pasada fue el principio de inclusión-exclusión. Este principio da solución al problema de calcular la probabilidad de la unión de dos eventos cualesquiera. En particular, cuando tenemos dos eventos $A$ y $B$, se cumple que

\[ \mathbb{P}(A \cup B) + \mathbb{P}(A \cap B) = \mathbb{P}(A) + \mathbb{P}(B), \]

y como $\mathbb{P}$ es no-negativa, se cumple $\mathbb{P}(A \cap B) \geq 0$, por lo que $\mathbb{P}(A \cup B) \leq \mathbb{P}(A) + \mathbb{P}(B)$. En este caso es muy sencillo, pero puede no ser tan evidente para $3$ o más eventos. Para demostrar este hecho cuando se tienen $3$ o más eventos, hay que aplicar un truquito especial.

Sean $A_{1}$, $A_{2}$ y $A_{3}$ eventos cualesquiera. Primero, observa que $A_{1} \cup A_{2} = A_{1} \cup (A_{2} \smallsetminus A_{1})$. Ahora, hagamos lo mismo pero con $A_{1} \cup A_{2}$ y $A_{3}$. Esto es,

\[ (A_{1} \cup A_{2}) \cup A_{3} = (A_{1} \cup A_{2}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2})) = A_{1} \cup (A_{2} \smallsetminus A_{1}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2})). \]

Lo que estamos haciendo es que, conforme avanzamos en el subíndice, al siguiente elemento de la unión le quitamos todos los que ya incluimos. Lo que logramos con esto es que se trate de una unión de eventos ajenos dos a dos. Observa que

\begin{align*} A_{1} \cap (A_{2} \smallsetminus A_{1}) &= \emptyset, \\ A_{1} \cap (A_{3} \smallsetminus (A_{1} \cup A_{2})) &= \emptyset, \\ A_{2} \cap (A_{3} \smallsetminus (A_{1} \cup A_{2})) &= \emptyset, \end{align*}

por lo que $A_{1}$, $A_{2} \smallsetminus A_{1}$ y $A_{3} \smallsetminus (A_{1} \cup A_{2})$ son eventos ajenos dos a dos. En consecuencia, por la aditividad finita de $\mathbb{P}$, se tiene que

\[ \mathbb{P}(A_{1} \cup (A_{2} \smallsetminus A_{1}) \cup (A_{3} \smallsetminus (A_{1} \cup A_{2}))) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2} \smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})), \]

y por lo observado anteriormente, podemos concluir que

\[ \mathbb{P}(A_{1} \cup A_{2} \cup A_{3}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2} \smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})). \]

Luego, como $A_{1} \subseteq A_{1}$, $A_{2} \smallsetminus A_{1} \subseteq A_{2}$ y $A_{3} \smallsetminus A_{3} \smallsetminus (A_{1} \cup A_{2})$, por la proposición 1.9. se tiene que

\begin{align*} \mathbb{P}(A_{1}) &\leq \mathbb{P}(A_{1}), \\ \mathbb{P}(A_{2} \smallsetminus A_{1}) &\leq \mathbb{P}(A_{2}), \\ \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})) &\leq \mathbb{P}(A_{3}), \end{align*}

así que la suma de los $3$ de la izquierda será menor o igual a la suma de los $3$ de la derecha. Es decir,

\begin{align*} \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}\smallsetminus A_{1}) + \mathbb{P}(A_{3} \smallsetminus (A_{1} \cup A_{2})) &\leq \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) + \mathbb{P}(A_{3}), \end{align*}

y por lo tanto,

\[ \mathbb{P}(A_{1} \cup A_{2} \cup A_{3}) \leq \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) + \mathbb{P}(A_{3}). \]

En conclusión, la probabilidad de la unión de $3$ eventos es menor o igual a la suma de sus probabilidades. Esto puede extenderse para familias de $n$ conjuntos, con $n \in \mathbb{N}^{+}$.


Proposición 1.10. Sea $(\Omega, \mathscr{P}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualquier $n \in \mathbb{N}^{+}$ se cumple que, para cualquier familia finita de eventos $A_{1}$, $A_{2}$, …, $A_{n} \in \mathscr{F}$ se tiene

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} A_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]


Demostración. Sea $n \in \mathbb{N}^{+}$ y sean $A_{1}$, $A_{2}$, …, $A_{n} \in \mathscr{F}$. Primero, observa que

\[ \bigcup_{k=1}^{n} A_{k} = \bigcup_{k=1}^{n} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)} \right]}, \]

donde consideramos a $\bigcup_{i = 1}^{0}A_{i} = \emptyset$. Esto es exactamente lo mismo que hicimos antes para $3$ eventos, pero extendiéndolo a los $n$ eventos de esta demostración. Ahora, vamos a ponerles nombre a los eventos que usaremos de manera auxiliar. Para cada $k \in \{1, \ldots, n\}$, se define $B_{k}$ como sigue

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)}. \]

Por construcción, $B_{1}$, $B_{2}$, …, $B_{n} \in \mathscr{F}$ es una familia de eventos ajenos dos a dos. Esto es, se cumple que

\[ \forall i, j \in \{1, \ldots, n \}\colon (i \neq j \implies B_{i} \cap B_{j} = \emptyset). \]

Esto puede verificarse tomando $i, j \in \{1,\ldots,n\}$ tales que $i \neq j$. Por la tricotomía en $\mathbb{N}$, hay dos casos: $i > j$ ó $i < j$. En cualquier caso, se puede concluir que $B_{i} \cap B_{j} = \emptyset$. Además, también por construcción de los $B_{k}$, se tiene que

\begin{equation} \label{subad1} \bigcup_{k=1}^{n} B_{k} = \bigcup_{k=1}^{n} A_{k}. \end{equation}

Ahora, como los $B_{k}$ son ajenos dos a dos, podemos aplicar la aditividad finita de $\mathbb{P}$. Esto es,

\begin{equation} \label{subad2} \mathbb{P}{\left( \bigcup_{k=1}^{n} B_{k} \right)} = \sum_{k=1}^{n} \mathbb{P}(B_{k}). \end{equation}

Ahora, observa que para cada $k \in \{1, \ldots, n\}$ se cumple que $B_{k} \subseteq A_{k}$, pues

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i = 1}^{k-1}A_{i} \right)} \subseteq A_{k}. \]

Por lo tanto, se tiene que

\[ \mathbb{P}(B_{k}) \leq \mathbb{P}(A_{k}), \]

y sumando sobre todos los $k \in \{1, \ldots, n\}$, se tiene que

\[ \sum_{k=1}^{n} \mathbb{P}(B_{k}) \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]

Así, por \eqref{subad2}, se tiene que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} B_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}), \]

y por \eqref{subad1}, podemos concluir que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{n} A_{k} \right)} \leq \sum_{k=1}^{n} \mathbb{P}(A_{k}), \]

que es justamente lo que queríamos demostrar.

$\square$

Esta propiedad es conocida como la subaditividad finita de una medida de probabilidad. Lleva la connotación de finita porque, así como con la aditividad, también existe una propiedad llamada σ-subaditividad. Esta es la propiedad que veremos a continuación.

La σ-subaditividad de una medida de probabilidad

Para el caso en el que tenemos una familia numerable de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$, procederemos de la misma manera que hicimos en la última demostración.


Proposición 1.11. Sea $(\Omega, \mathscr{P}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualquier familia numerable de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ se cumple que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k}\right)} = \sum_{k=1}^{\infty} \mathbb{P}(A_{k}). \]


Demostración. Sean $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ una familia numerable de eventos. Observa que se cumple que

\[ \bigcup_{k=1}^{\infty} A_{k} = \bigcup_{k=1}^{\infty} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}\right]}. \]

Definamos una familia de conjuntos para auxiliarnos en esta demostración. Para cada $k \in \mathbb{N}^{+}$, definimos el evento $B_{k}$ como sigue:

\[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i}\right)}. \]

Nuevamente, consideramos que para $k=1$, $B_{1} = A_{1}$. Por la construcción de $B_{k}$, para cada $k \in \mathbb{N}^{+}$ se tiene que $B_{k} \subseteq A_{k}$, por lo que

\begin{align*} \mathbb{P}(B_{k}) \leq \mathbb{P}(A_{k}). \end{align*}

En consecuencia, se cumple la siguiente desigualdad de series:

\begin{equation} \label{sigmasubad1} \sum_{k=1}^{\infty} \mathbb{P}(B_{k}) \leq \sum_{k=1}^{\infty} \mathbb{P}(A_{k}), \end{equation}

pues la desigualdad se cumple término a término. Por otro lado, observa que los eventos de la familia $\{B_{k}\}_{k=1}^{\infty}$ son ajenos dos a dos (por la misma razón que en la demostración anterior). Por ello, podemos aplicar la σ-aditividad de $\mathbb{P}$, y así

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} B_{k} \right)} = \sum_{k=1}^{\infty} \mathbb{P}(B_{k}). \]

Además, recuerda que

\[ \bigcup_{k=1}^{\infty} A_{k} = \bigcup_{k=1}^{\infty} {\left[ A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}\right]} = \bigcup_{k=1}^{\infty} B_{k}, \]

por lo que

\begin{equation} \label{sigmasubad2} \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k} \right)} = \sum_{k=1}^{\infty} \mathbb{P}(B_{k}). \end{equation}

Por lo tanto, si sustituimos \eqref{sigmasubad2} en \eqref{sigmasubad1}, podemos concluir que

\[ \mathbb{P}{\left( \bigcup_{k=1}^{\infty} A_{k} \right)} \leq \sum_{k=1}^{\infty} \mathbb{P}(A_{k}), \]

que es justamente lo que queríamos demostrar.

$\square$

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Demuestra que para cualesquiera eventos $A$, $B \in \mathscr{F}$ se cumple que \[ \mathbb{P}(A \smallsetminus B) = \mathbb{P}(A) − \mathbb{P}(A \cap B). \]Sugerencia: utiliza la proposición 1.9 con los conjuntos $A \cap B$ y $A$.
  2. Demuestra que para cualesquiera eventos $A$, $B \in \mathscr{F}$ se cumple que \[ \mathbb{P}(A \triangle B) = \mathbb{P}(A) + \mathbb{P}(A) − 2\mathbb{P}(A \cap B).\]Sugerencia: recuerda que $A \triangle B = (A \smallsetminus B) \cup (B \smallsetminus A)$ y utiliza el resultado anterior.
  3. En las demostraciones de las proposiciones 1.10 y 1.11 tomamos familias arbitrarias de eventos $A_{1}$, $A_{2}$, … $\in \mathscr{F}$ (en la 1.10 la tomamos finita). Luego, para cada $k \in \mathbb{N}^{+}$ definimos $B_{k}$ como \[ B_{k} = A_{k} \smallsetminus {\left( \bigcup_{i=1}^{k-1} A_{i} \right)}, \] que es una familia de eventos auxiliares para la demostración. En particular, utilizamos que la familia de los $B_{k}$ son ajenos dos a dos. Demuestra que efectivamente es una familia de eventos ajenos dos a dos.

Más adelante…

Con esta entrada concluimos nuestro tratamiento de las propiedades que consideramos más importantes de una medida de probabilidad. Lo que haremos a continuación será presentar las primeras medidas de probabilidad concretas del curso: la probabilidad geométrica, la probabilidad frecuentista y la probabilidad clásica.

Entradas relacionadas

Probabilidad I: Propiedades de una Medida de Probabilidad

Introducción

En la entrada antepasada definimos lo que es una medida de probabilidad. Esto es, dimos una lista de propiedades que debe de cumplir una función para llamarla «medida de probabilidad». Como en toda teoría matemática, esto da lugar a más propiedades. Por ello, en esta entrada veremos varios resultados que se desprenden de la definición de medida de probabilidad.

Regla de complementación

Dado $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, puede pasarnos que obtener la probabilidad de un evento es muy difícil. Sin embargo, quizás calcular la probabilidad de su complemento sea más fácil. Por ello, veamos primero una propiedad que relaciona la probabilidad de un evento con la de su complemento.


Proposición 1.6. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Para cualquier evento $A \in \mathscr{F}$ se cumple que

\[ \mathbb{P}(A^{\mathsf{c}}) = 1 − \mathbb{P}(A). \]


Demostración. Sea $A \in \mathscr{F}$ un evento. Nuestro objetivo es demostrar que $\mathbb{P}(A^{\mathsf{c}}) = 1 − \mathbb{P}(A)$. Para hacerlo, recuerda que en la entrada antepasada vimos que una medida de probabilidad es finitamente aditiva. Además, nota que $A \cap A^{\mathsf{c}} = \emptyset$; es decir, $A$ y $A^{\mathsf{c}}$ son ajenos. En consecuencia, se cumple que

\[ \mathbb{P}(A \cup A^{\mathsf{c}}) = \mathbb{P}(A) + \mathbb{P}(A^{\mathsf{c}}). \]

Por otro lado, por la definición del complemento relativo se tiene que $A \cup A^{\mathsf{c}} = \Omega$, con lo que $\mathbb{P}(A \cup A^{\mathsf{c}}) = \mathbb{P}(\Omega) = 1$. Por lo tanto, se sigue que

\[ \mathbb{P}(A) + \mathbb{P}(A^{\mathsf{c}}) = 1. \]

Finalmente, despejando a $\mathbb{P}(A^{\mathsf{c}})$, obtenemos que $\mathbb{P}(A^{\mathsf{c}}) = 1 − \mathbb{P}(A)$, que es justamente lo que queríamos demostrar.

$\square$

Esta propiedad será útil en numerosos ejemplos de conteo que veremos más adelante.

¿Qué pasa con la probabilidad de la unión de dos eventos?

En la entrada antepasada nos encontramos con un problema. Al momento de obtener la suma de las probabilidades de dos eventos $A$ y $B$ que no son ajenos, podía salirnos más de $1$. Sin embargo, había una pista de qué podíamos hacer al respecto. Notamos que contábamos algo más de una vez. Más precisamente, contamos $A \cap B$ más de una vez. Además, en la tarea moral te sugerimos que pensaras qué hacerle a $\mathbb{P}(A) + \mathbb{P}(B)$ para que coincida con $\mathbb{P}(A\cup B)$. La siguiente proposición nos da la respuesta.


Proposición 1.7. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sean $A$, $B \in \mathscr{F}$ eventos cualesquiera. Entonces se cumple que

\[ \mathbb{P}(A \cup B) + \mathbb{P}(A \cap B) = \mathbb{P}(A) + \mathbb{P}(B). \]


Demostración. Sean $A$, $B \in \mathscr{F}$ eventos. Primero, aplicando algunas propiedades de las operaciones de conjuntos, podemos ver lo siguiente:

\begin{align*}
A &= A \cap \Omega \\
&= A \cap (B \cup B^{\mathsf{c}}) \\ &= (A \cap B) \cup (A \cap B^{\mathsf{c}}) \\ &= (A \cap B) \cup (A \smallsetminus B).
\end{align*}

Además, observa que $(A \cap B) \cap (A \smallsetminus B) = \emptyset$. De manera similar, se tiene que

\[ B = (A \cap B) \cup (B \smallsetminus A), \]

y además, $(A \cap B) \cap (B \smallsetminus A) = \emptyset$. En consecuencia, por la aditividad finita de $\mathbb{P}$, podemos ver que

\begin{align*}
\mathbb{P}(A) &= \mathbb{P}(A \cap B) + \mathbb{P}(A \smallsetminus B), \\
\mathbb{P}(B) &= \mathbb{P}(A \cap B) + \mathbb{P}(B \smallsetminus A),
\end{align*}

Sumando estas dos expresiones obtenemos que

\begin{equation}
\label{sum}
\mathbb{P}(A) + \mathbb{P}(B) = \mathbb{P}(A \cap B) + \mathbb{P}(A \smallsetminus B) + \mathbb{P}(A \cap B) + \mathbb{P}(B \smallsetminus A).
\end{equation}

Ahora, observa que $A \cup B = (A \smallsetminus B) \cup (A \cap B) \cup (B \smallsetminus A)$, y que los tres conjuntos en esta unión son ajenos entre sí. Por la aditividad finita de $\mathbb{P}$, esto implica que

\begin{equation}
\label{partition}
\mathbb{P}((A \smallsetminus B) \cup (A \cap B) \cup (B \smallsetminus A)) = \mathbb{P}(A \smallsetminus B) + \mathbb{P}(A \cap B) + \mathbb{P}(B \smallsetminus A).
\end{equation}

Luego, sustituyendo \eqref{sum} en \eqref{partition} y utilizando que $A \cup B = (A \smallsetminus B) \cup (A \cap B) \cup (B \smallsetminus A)$,

\begin{align*}
\mathbb{P}(A) + \mathbb{P}(B) &= \mathbb{P}(A \cap B) + \mathbb{P}((A \smallsetminus B) \cup (A \cap B) \cup (B \smallsetminus A)) \\ &= \mathbb{P}(A \cap B) + \mathbb{P}(A \cup B).
\end{align*}

En conclusión, hemos llegado a que

\begin{align*}
\mathbb{P}(A) + \mathbb{P}(B) &= \mathbb{P}(A \cap B) + \mathbb{P}(A \cup B),
\end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Alternativamente, la expresión que obtuvimos en esta proposición puede escribirse como sigue.

\[ \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B) − \mathbb{P}(A \cap B), \]

que corresponde a «quitar» la parte que contamos más de una vez en la probabilidad de $A \cup B$. En resumen, la Proposición 1.7. nos da una expresión para calcular la probabilidad de cualquier unión de dos eventos sin necesidad de que estos sean ajenos. Esta propiedad es conocida como el principio de inclusión-exclusión para $2$ eventos.

Interpretación visual del principio de inclusión-exclusión

En el caso para $2$ eventos, podemos representar visualmente los eventos $A$ y $B$ mediante un diagrama de Venn-Euler. En la siguiente figura están representados $A$ y $B$.

Figura. Animación de lo que ocurre al obtener $\mathbb{P}(A) + \mathbb{P}(B)$. Observa que $A \cap B$ se ve más oscuro porque lo contamos $2$ veces.

Al colorearlos, estamos pensando que lo coloreado de color rojo representa a $\mathbb{P}(A)$, y lo de color verde representa a $\mathbb{P}(B)$. Además, los coloreamos con una opacidad baja para que se note que la parte en donde se traslapan, que es $A \cap B$, se colorea dos veces cuando sumamos las áreas sombreadas por separado: esto lo comentamos previamente, en $\mathbb{P}(A) + \mathbb{P}(B)$ se cuenta $2$ veces a $A \cap B$. Por ello, para obtener $\mathbb{P}(A \cup B)$ se le resta $\mathbb{P}(A \cap B)$ a $\mathbb{P}(A) + \mathbb{P}(B)$.

Figura. $\mathbb{P}(A \cup B)$ sería el valor representado por colorear a todo $A \cup B$, sin que haya porciones más oscuras.

En la figura anterior resaltamos con la misma opacidad a todo $A \cup B$ con azul. Al restarle $\mathbb{P}(A \cap B)$ a $\mathbb{P}(A) + \mathbb{P}(B)$ aseguramos que $A \cap B$ no se contabiliza $2$ veces.

Principio de inclusión-exclusión para más eventos

El principio de inclusión-exclusión aplica para cualquier familia finita de eventos. Por ejemplo, sean $A_{1}$, $A_{2}$ y $A_{3}$ eventos. Podemos aplicar el principio de inclusión-exclusión (al cual abreviaremos P.I.E. por ahora) para $2$ eventos a $A_{1} \cup A_{2}$ y $A_{3}$. Es decir, se tiene que

\[ \mathbb{P}((A_{1} \cup A_{2}) \cup A_{3}) = \mathbb{P}(A_{1} \cup A_{2}) + \mathbb{P}(A_{3}) − \mathbb{P}((A_{1} \cup A_{2}) \cap A_{3}). \]

Aplicamos nuevamente el P.I.E. para $2$ eventos para optener $\mathbb{P}(A_{1} \cup A_{2})$, por lo que nos queda

\begin{equation}
\label{pie0}
\mathbb{P}((A_{1} \cup A_{2}) \cup A_{3}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) − \mathbb{P}(A_{1} \cap A_{2}) + \mathbb{P}(A_{3}) − \mathbb{P}((A_{1} \cup A_{2}) \cap A_{3}).
\end{equation}

Luego, podemos aplicar la distributividad a $(A_{1} \cup A_{2}) \cap A_{3}$ y obtener que

\[(A_{1} \cup A_{2}) \cap A_{3} = (A_{1}\cap A_{3}) \cup (A_{2} \cap A_{3})). \]

Aplicando nuevamente el P.I.E. para $2$ eventos obtenemos $\mathbb{P}((A_{1}\cap A_{3}) \cup (A_{2} \cap A_{3}))$. Esto es,

\begin{equation}
\label{pie1}
\mathbb{P}((A_{1}\cap A_{3}) \cup (A_{2} \cap A_{3})) = \mathbb{P}(A_{1} \cap A_{3}) + \mathbb{P}(A_{2} \cap A_{3}) − \mathbb{P}((A_{1}\cap A_{3}) \cap (A_{2} \cap A_{3})),
\end{equation}

y recordando que la intersección de conjuntos es conmutativa y asociativa, podemos reacomodar el último término de \eqref{pie1} como

\begin{align*}
(A_{1}\cap A_{3}) \cap (A_{2} \cap A_{3}) &= A_{1} \cap (A_{3} \cap A_{2} \cap A_{3}) \\
&= A_{1} \cap (A_{2} \cap A_{3} \cap A_{3}) \\ &= A_{1} \cap (A_{2} \cap A_{3}) \\ &= A_{1} \cap A_{2} \cap A_{3},
\end{align*}

y así, la igualdad \eqref{pie1} puede reescribirse como

\begin{equation}
\label{pie2}
\mathbb{P}((A_{1}\cap A_{3}) \cup (A_{2} \cap A_{3})) = \mathbb{P}(A_{1} \cap A_{3}) + \mathbb{P}(A_{2} \cap A_{3}) − \mathbb{P}(A_{1} \cap A_{2} \cap A_{3}).
\end{equation}

Finalmente, sustituimos \eqref{pie2} en \eqref{pie0} para obtener

\begin{align*}
\mathbb{P}((A_{1} \cup A_{2}) \cup A_{3}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) − \mathbb{P}(A_{1} \cap A_{2}) + \mathbb{P}(A_{3}) − (\mathbb{P}(A_{1} \cap A_{3}) + \mathbb{P}(A_{2} \cap A_{3}) − \mathbb{P}(A_{1} \cap A_{2} \cap A_{3})),
\end{align*}

que puede reescribirse como

\begin{align*} \mathbb{P}(A_{1} \cup A_{2} \cup A_{3}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2}) + \mathbb{P}(A_{3}) − \mathbb{P}(A_{1} \cap A_{2}) − \mathbb{P}(A_{1} \cap A_{3}) − \mathbb{P}(A_{2} \cap A_{3}) + \mathbb{P}(A_{1} \cap A_{2} \cap A_{3}).
\end{align*}

En conclusión, obtuvimos una fórmula para el cálculo de la probabilidad de la unión de cualesquiera $3$ eventos.

Interpetación visual del P.I.E. para tres eventos

Nuevamente podemos auxiliarnos de un diagrama de Venn-Euler para representar visualmente a los $3$ eventos.

Figura. Animación que muestra $3$ conjuntos. Se sombrea primero cada uno individualmente, luego dos a dos, y luego los tres, para exhibir los pedazos que se contabilizan más de una vez.

Con rojo representamos a $\mathbb{P}(A)$, con verde a $\mathbb{P}(B)$ y con ámbar a $\mathbb{P}(C)$. En la animación anterior se muestra cada una de las regiones por separado, luego dos a dos, y luego las tres juntas. Así, se exhibe que estamos contabilizando más de una vez algunas de las regiones del diagrama, y pone en evidencia cuáles son las que deberíamos de quitar.

Figura. $\mathbb{P}(A \cup B \cup C)$ sería el valor representado por el área coloreada de morado, sin que haya áreas más opacas que otras.

En esta última figura, representamos el valor $\mathbb{P}(A \cup B \cup C)$ con el área de color morado. Aquí pasan más cosas que en el caso de $2$ eventos. Recuerda que la expresión que obtuvimos para $\mathbb{P}(A \cup B \cup C)$ es

\begin{align*}
\mathbb{P}(A \cup B \cup C) = \mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C) − \mathbb{P}(A \cap B) − \mathbb{P}(A \cap C) − \mathbb{P}(B \cap C) + \mathbb{P}(A \cap B \cap C).
\end{align*}

Al sumar $\mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C)$, las intersecciones dos a dos de los eventos se contabilizan una vez más de lo que deberían, es lo mismo lo que nos pasó con el caso para $2$ eventos. Por ello, restamos la probabilidad de cada intersección dos a dos. Sin embargo, observa que esto provoca un daño colateral: quitamos $3$ veces a $\mathbb{P}(A \cap B \cap C)$, porque $A \cap B$, $A \cap C$ y $B \cap C$ contienen a $A \cap B \cap C$. Pero en $\mathbb{P}(A) + \mathbb{P}(B) + \mathbb{P}(C)$ también lo contabilizamos $3$ veces. Así que estamos omitiendo $\mathbb{P}(A \cap B \cap C)$, razón por la que se le suma $\mathbb{P}(A \cap B \cap C)$ a la expresión.

Generalización del P.I.E.

El principio de inclusión-exclusión puede generalizarse para cuando se tienen $n \in \mathbb{N}^{+}$ eventos. Esto lo pondremos como un teorema, aunque omitiremos su demostración.


Teorema 1.8. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualquier $n \in \mathbb{N}^{+}$ y cualesquiera eventos $A_{1}$, $A_{2}$, …, $A_{n} \in \mathscr{F}$, se cumple que

\begin{align*}
\mathbb{P}{\left( \bigcup_{i=1}^{n} A_{i} \right)} = \sum_{i=1}^{n}\mathbb{P}(A_{i}) − \sum_{i < j} \mathbb{P}(A_{i} \cap A_{j}) + \sum_{i < j < k} \mathbb{P}(A_{i} \cap A_{j} \cap A_{k}) + \cdots + (-1)^{n+1} \mathbb{P}{\left( \bigcap_{i=1}^{n} A_{i} \right)},
\end{align*}

que puede escribirse de forma cerrada como sigue:

\begin{align*}
\mathbb{P}{\left( \bigcup_{i=1}^{n} A_{i} \right)} = \sum_{k=1}^{n}{\left[ (-1)^{k+1} \sum_{\substack{I \subseteq \{1, \ldots, n\} \\ |I| = k}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \right]}.
\end{align*}


La segunda fórmula se ve un poco fea, pero en realidad no es tan horrible. Observa que se trata de una «suma de sumas». Es decir, para cada $k \in \{1, \ldots, n\}$, el $k$-ésimo término de esa suma es una suma. Lo más complicado está en cada una de estas sumas: están indicadas por $I$, que se refiere a que el índice es un subconjunto de $\{1, \ldots, n\}$. Lo importante de este índice es que $|I| = k$, es decir, hay un término por cada subconjunto de $\{1, \ldots, n\}$ de cardinalidad $k$. Además, cada uno de estos términos es la probabilidad de la intersección sobre todos los $A_{j}$ para los cuales $j \in I$.

Ejemplo. Obtengamos la expresión para $3$ eventos a partir de la segunda fórmula. Sean $A_{1}$, $A_{2}$ y $A_{3}$ eventos. Entonces

\begin{align*}
\mathbb{P}{\left( \bigcup_{i=1}^{3} A_{i} \right)} = \sum_{k=1}^{3}{\left[ (-1)^{k+1} \sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = k}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \right]}.
\end{align*}

La suma de afuera cuenta con $3$ términos, porque es la suma de $1$ a $3$. Cada uno de sus términos es una suma, en la que hay que sustituir los respectivos valores de $k$. Así que nos queda:

\begin{align*} \sum_{k=1}^{3}\left[ (-1)^{k+1} \sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = k}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \right] =&\, (-1)^{1+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 1}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \\ & + (-1)^{2+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 2}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \\ & + (-1)^{3+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 3}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)}. \end{align*}

Veamos el primer término. Este corresponde a la suma sobre todos los $I \subseteq \{1,2,3\}$ tales que $|I| = 1$. Los subconjuntos de cardinalidad $1$ de $\{1,2,3\}$ son $3$: $\{1\}$, $\{2\}$ y $\{3\}$, por lo que hay un término en esa suma por cada uno de ellos. Es decir,

\[ (-1)^{1+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 1}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} = (-1)^{2} {\left[ \mathbb{P}{\left( \bigcap_{j \in \{1\}} A_{j} \right)} + \mathbb{P}{\left( \bigcap_{j \in \{2\}} A_{j} \right)} + \mathbb{P}{\left( \bigcap_{j \in \{3\}} A_{j} \right)} \right]}, \]

y observa que las intersecciones en cada término son simplemente $A_{1}$, $A_{2}$ y $A_{3}$, porque la intersección es únicamente sobre $\{1\}$, $\{2\}$ y $\{3\}$, respectivamente. Así,

\[ (-1)^{1+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 1}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} = (-1)^{2} {\left[ \mathbb{P}\left(A_{1}\right) + \mathbb{P}{\left(A_{2} \right)} + \mathbb{P}{\left(A_{3} \right)} \right]} = \mathbb{P}\left(A_{1}\right) + \mathbb{P}{\left(A_{2} \right)} + \mathbb{P}{\left(A_{3} \right)}. \]

Para el segundo término, el índice $I$ son todos los subconjuntos de $\{ 1, 2, 3\}$ de cardinalidad $2$, que nuevamente son $3$: $\{ 1, 2 \}$, $\{1,3\}$ y $\{2,3\}$. Por lo tanto,

\[ (-1)^{2+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 2}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} = (-1)^{3} {\left[ \mathbb{P}{\left( \bigcap_{j \in \{1,2\}} A_{j} \right)} + \mathbb{P}{\left( \bigcap_{j \in \{1,3\}} A_{j} \right)} + \mathbb{P}{\left( \bigcap_{j \in \{2,3\}} A_{j} \right)} \right]}. \]

Ahora, cada una de las intersecciones en la expresión anterior queda como sigue:

\begin{align*} \bigcap_{j \in \{1,2\}} A_{j} &= A_{1} \cap A_{2}, \\ \bigcap_{j \in \{1,3\}} A_{j} &= A_{1} \cap A_{3}, \\ \bigcap_{j \in \{2,3\}} A_{j} &= A_{2} \cap A_{3}, \end{align*}

por lo que

\begin{align*} (-1)^{2+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 2}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} &= (-1)^{3} {\left[ \mathbb{P}{\left(A_{1} \cap A_{2}\right)} + \mathbb{P}{\left(A_{1} \cap A_{3}\right)} + \mathbb{P}{\left(A_{2} \cap A_{3}\right)} \right]} \\ &= − {\left[ \mathbb{P}{\left(A_{1} \cap A_{2}\right)} + \mathbb{P}{\left(A_{1} \cap A_{3}\right)} + \mathbb{P}{\left(A_{2} \cap A_{3}\right)} \right]}. \end{align*}

Finalmente, para el último término, el índice corre por todos los subconjuntos de $\{1,2,3\}$ de cardinalidad $3$, y sólamente hay uno de estos: $\{1,2,3\}$. Por ello, se tiene que

\begin{align*} (-1)^{3+1}\sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = 3}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} &= (-1)^{4}{\left[ \mathbb{P}{\left( \bigcap_{j \in \{1,2,3\}} A_{j}\right)} \right]} \\ &= \mathbb{P}{\left(A_{1} \cap A_{2} \cap A_{3}\right)}, \end{align*}

por lo que podemos concluir que

\begin{align*} \sum_{k=1}^{3}\left[ (-1)^{k+1} \sum_{\substack{I \subseteq \{1, \ldots, 3\} \\ |I| = k}} \mathbb{P}{\left( \bigcap_{j \in I} A_{j} \right)} \right] =&\, \mathbb{P}\left(A_{1}\right) + \mathbb{P}{\left(A_{2} \right)} + \mathbb{P}{\left(A_{3} \right)} \\ &\, − {\left[ \mathbb{P}{\left(A_{1} \cap A_{2}\right)} + \mathbb{P}{\left(A_{1} \cap A_{3}\right)} + \mathbb{P}{\left(A_{2} \cap A_{3}\right)} \right]} \\ &\, + \mathbb{P}{\left(A_{1} \cap A_{2} \cap A_{3}\right)}, \end{align*}

que es justamente la expresión que habíamos obtenido previamente.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  • Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sean $A$, $B$, $C$ y $D$ eventos. Obtén una fórmula para obtener $\mathbb{P}(A \cup B \cup C \cup D)$. Para ello, te proponemos dos caminos:
    • Sugerencia 1. Sigue un camino similar al que seguimos para obtener el P.I.E. para $3$ eventos. Es decir, aplica los P.I.E. que ya tienes (para $2$ y para $3$ eventos) de manera conveniente. Como pista, aplica el P.I.E. para $3$ eventos a $(A \cup B)$, $C$ y $D$.
    • Sugerencia 2. Utiliza cualquiera de las fórmulas del Teorema 1.8. para $n = 4$ y haz el desarrollo correctamente.
  • Intenta demostrar el Teorema 1.8. Esto puede hacerse por inducción sobre $n$, el número de elementos en la familia finita de eventos.
    • Sugerencia: Utiliza inducción fuerte. Es decir, primero observa que la igualdad es cierta para $1$. Luego, demuestra que para cualquier $n$, si la igualdad es verdadera para cada $k \in \{1,\ldots, n\}$, entonces es cierta para $n+1$. En este paso será necesario que uses la de $2$ eventos y la de $n$ eventos para proceder.

Más adelante…

En esta entrada vimos dos propiedades muy importantes de una medida de probabilidad: la regla de complementación y el principio de inclusión-exclusión. La primera será de mucha utilidad cuando veamos algunos ejercicios de conteo, en donde buscaremos calcular la probabilidad de eventos que parecen muy complicados en principio, pero que esta regla facilitará el cálculo. Por otro lado, el principio de inclusión-exclusión es una herramienta un poco complicada, pero que permite el cálculo de la probabilidad de la unión de cualesquiera $n$ eventos, sin importar si son ajenos o no.

En la siguiente entrada veremos algunas propiedades más de una medida de probabilidad. Una vez que terminemos con las propiedades que tiene cualquier medida de probabilidad, centraremos nuestra atención en nuestros primeros ejemplos concretos de medida de probabilidad, cuya relevancia histórica los hace destacables.

Entradas relacionadas

Probabilidad I: Interpretación de las Operaciones con Eventos

Introducción

En la entrada anterior introdujimos finalmente lo que es una medida de probabilidad. Vimos las propiedades que determinan si una función dada es una medida de probabilidad. Sin embargo, antes de continuar con sus propiedades, hagamos una pausa. Para ser exactos, veamos la interpretación de las operaciones con conjuntos en este contexto.

Con frecuencia te enfrentarás con problemas concretos que requerirán que interpretes bien las operaciones entre eventos. En particular, los problemas de conteo son muy importantes en la probabilidad, y suelen requerir de estas habilidades. Por ello, es importante que tengas clara la interpretación de las operaciones con conjuntos.

Complementación

Para empezar, hay que saber interpretar la complementación. Para hacerlo, sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y $A$ un evento. Recuerda que el complemento de un conjunto $A$ con respecto a $\Omega$ son todos los elementos de $\Omega$ que no son elementos de $A$. Esto es,

\begin{align*}
A^{\mathsf{c}} = \{ \omega \in \Omega \mid \omega \notin A \}.
\end{align*}

Esta es la definición matemática del complemento. Sin embargo, ¿cómo la interpretamos en el contexto la probabilidad? Para hacerlo, recuerda que un evento $A$ es un subconjunto de $\Omega$. En consecuencia, $A$ tiene algunos de los elementos de $\Omega$. Es decir, $A$ tiene como elementos algunos de los posibles resultados del fenómeno aleatorio.

Por ello, cuando obtenemos la probabilidad de $A$, esto es, $\mathbb{P}(A)$, este número indica «la probabilidad de que ocurra $A$». Por el contrario, el evento $A^{\mathsf{c}}$ incluye todos los elementos de $\Omega$ que no son elementos de $A$. En principio, podríamos decir que $\mathbb{P}(A^{\mathsf{c}})$ es «la probabilidad de que ocurra $A^{\mathsf{c}}$». Sin embargo, una interpretación útil en nuestro contexto es que $\mathbb{P}(A^{\mathsf{c}})$ expresa «la probabilidad de que no ocurra $A$».

Esta dualidad es muy importante, porque puedes encontrarte con problemas en los que te piden la probabilidad de que no ocurra algo. Ante esta situación, lo que debes de hacer es pensar en el complemento del evento en cuestión.

Ejemplo. Sea $\Omega = \{ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$ un σ-álgebra sobre $\Omega$; y supón que se eligirá uno de estos números al azar. Supongamos que nos interesa el evento en el que «el resultado no es un múltiplo de $3$». Primero, debemos de identificar el evento «el resultado es un múltiplo de $3$». Este sería el evento cuyos elementos son todos los resultados que son múltiplo de $3$. Sea $A$ ese evento. Entonces, matemáticamente, $A$ sería el conjunto

\[ A = \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 3k \}. \]

En particular, en este ejemplo basta con revisar los elementos de $\Omega$ que satisfacen esta propiedad. Más precisamente, $A$ sería el conjunto

\[ A = \{ 3, 6, 9 \}. \]

Ahora, el evento que nos interesa es que «el resultado no es un múltiplo de $3$», así que el evento que corresponde sería $A^{\mathsf{c}}$. Es decir, la solución a este ejemplo sería

\[ A^{\mathsf{c}} = \{ 1, 2, 4, 5, 7, 8, 10 \}, \]

el evento cuyos elementos son todos los resultados que no son múltiplos de $3$.


Unión de eventos

En ocasiones puede interesarnos el evento en el que el resultado entra en al menos una de varias posibilidades. Por ejemplo, si dados $A$, $B$ eventos, ¿cuál es el evento que concentra la posibilidad de que ocurra $A$ u ocurra $B$? Este sería $A \cup B$, pues recuerda que

\[ A \cup B = \{ \omega \in \Omega \mid \omega \in A \lor \omega \in B \}. \]

Como $A \cup B$ está definida por el conectivo lógico «ó», se entiende que los elementos de $A \cup B$ satisfacen al menos una de dos posibilidades: ser elemento de $A$, o ser elemento de $B$. Esto es importante, porque entonces, en el contexto de la probabilidad, $\mathbb{P}(A \cup B)$ expresa «la probabilidad de que ocurra $A$ u ocurra $B$». En otras palabras, «la probabilidad de que ocurra al menos uno de dos casos posibles: que ocurra $A$, o que ocurra $B$».

Es muy importante que recuerdes que el «ó» en lógica es inclusivo, es decir, que si el resultado es tal que $A$ y $B$ ocurren, se considera que ocurrió $A$ ó $B$. Además, esta misma interpretación se extiende a cuando tienes $n$ eventos, $\bigcup_{i = 1}^{n} A_{n}$ sería el evento en el que ocurre al menos uno de los $A_{i}$.

Ejemplo. Nuevamente, sea $\Omega = \{ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$ un σ-álgebra sobre $\Omega$; y supón que se eligirá uno de estos números al azar. Supongamos que nos interesa el evento «el resultado es un número par o el resultado es un múltiplo de $5$». Para verlo, tenemos que identificar los eventos que lo conforman. Estos son dos: «el resultado es un número par» y «el resultado es un múltiplo de $5$». Es decir, son dos eventos $A$, $B$, que expresados matemáticamente son

\begin{align*}
A &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k \}, \\
B &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 5k \}.
\end{align*}

Explícitamente, en este ejemplo, estos eventos son

\begin{align*}
A &= \{2,4,6,8,10\}, \\
B &= \{5,10\},
\end{align*}

por lo que el evento que buscamos en este ejemplo es $A \cup B$, que sería

\begin{align*}
A \cup B &= \{2,4,5,6,8,10\}.
\end{align*}

Ciertamente, los elementos de $A \cup B$ son todos los elementos de $\Omega$ que son pares o son múltiplos de $5$.


En ocasiones, es bueno que sepas partir de la definición matemática, seas capaz de interpretarla, y obtengas cuál es el resultado de una operación con conjuntos. Por ejemplo, sean

\begin{align*}
C &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k + 1 \}, \\
D &= \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 3k \}.
\end{align*}

La interpretación de $C$ es que es el evento en el que «el resultado es impar», y $D$ es el evento en el que «el resultado es múltiplo de $3$».

¿Qué interpretación tendría el evento $C \cup D$? Basta con conectar las expresiones que obtuvimos de interpretar a $C$ y a $D$. Así $C \cup D$ es el evento en el que «el resultado es impar o el resultado es múltiplo de $3$».


Intersección de eventos

También puede resultar interesante el evento en el que múltiples posibilidades se satisfacen a la vez. Por ejemplo, dados $A$, $B$ eventos, ¿cuál es el evento que representa que ocurran $A$ y $B$ a la vez? La respuesta es $A \cap B$. Recuerda que

\[ A \cap B = \{ \omega \in \Omega \mid \omega \in A \land \omega \in B \}. \]

En el caso de $A \cap B$, esta operación está definida por el conectivo lógico «y», así que los elementos de $A \cap B$ satisfacen dos condiciones: son elementos de $A$ y son elementos de $B$. Ambas deben de ser verdaderas para ser elemento de $A \cap B$. Por ello, en el contexto de la probabilidad, $\mathbb{P}(A \cap B)$ expresa «la probabilidad de que ocurra $A$ y ocurra $B$». En otras palabras, expresa «la probabilidad de que se satisfagan dos condiciones: que ocurra $A$ y que ocurra $B$».

Esta misma idea se extiende a más conjuntos. Por ejemplo, si tienes $n$ conjuntos, entonces $\bigcap_{i=1}^{n} A_{i}$ es el evento en el que ocurren todos los $A_{i}$.

Ejemplo. Veamos ahora un ejemplo menos formal. Con frecuencia te econtrarás con ejercicios de este tipo. Sea $P$ el conjunto cuyos elementos son los habitantes de la colonia donde vives. Supón que escogeremos dos personas distintas de $P$ al azar. Primero, observa que el espacio muestral de este fenómeno aleatorio sería

\[ \Omega = \{ (x,y) \in P\times P \mid x \neq y \}, \]

son todos los pares ordenados de elementos de $P$ en los que las coordenadas son distintas. Esto obedece a que el experimento aleatorio consiste en seleccionar dos personas distintas de $P$. Bien, ahora piensa en los siguientes eventos que nos podrían interesar:

  • $H$ es el evento en el que «las dos personas escogidas son hombres«.
  • $E$ es el evento en el que «las dos personas escogidas tienen la misma edad«.
  • $V$ es el evento en el que «las dos personas escogidas son vecinas«.

Aquí hicimos una elección conveniente de letras que ayudan a identificar lo que significa cada evento. Por ejemplo, utilizamos $H$ para el evento en el que ambas personas son hombres porque la primera letra de la palabra «hombres» es ‘h’.

Ahora, veamos algunas operaciones entre los eventos anteriores.

  • Primero, veamos qué evento es $H \cap E$. Este es el evento en el que se satisfacen $H$ y $E$ a la vez. Por ello, $H \cap E$ sería el evento en el que «las dos personas escogidas son hombres y tienen la misma edad«.
  • $H^{\mathsf{c}}$, el complemento de $H$, es aquel evento en donde $H$ no se cumple. Es decir, $H^{\mathsf{c}}$ es el evento en el que «las dos personas escogidas no son ambas hombres«. En otras palabras, es el evento en el que al menos una de las dos personas elegidas es mujer, porque esto asegura que no son ambas hombres.
  • $H^{\mathsf{c}} \cup V$ es el evento en el que ocurre al menos una de dos posibilidades: no ocurre $H$, u ocurre $V$. Es decir, es el evento en el que «las dos personas escogidas cumplen al menos una de dos condiciones: al menos una de ellas es mujer, o son vecinas«.
  • $H^{\mathsf{c}} \cap V^{\mathsf{c}}$ es el evento en el que cumple que no ocurre $H$ y no ocurre $V$. Esto es, sería el evento en el que «las dos personas escogidas satisfacen dos condiciones: al menos una de ellas es mujer, y no son vecinas«.
  • $E \cap H^{\mathsf{c}}$ es el evento en el que ocurre $E$, pero no ocurre $H$. Por tanto, sería el evento en el que «las dos personas escogidas tienen la misma edad y al menos una de ellas es mujer«.

Para acabar el contenido de esta entrada, presentaremos la interpretación de dos operaciones con eventos que son un poco más especializadas, pero que es bueno tenerlas en cuenta.

Diferencia de eventos

La diferencia de eventos es muy similar a la intersección de eventos, pero también entra en juego el complemento. Dados $A$ y $B$ eventos, puede interesarnos aquel evento en el que ocurre $A$ y no ocurre $B$. Es decir, sí tomamos en cuenta los elementos de $A$, pero queremos que no se tomen en cuenta los de $B$. Esto podemos hacerlo a través de una intersección:

\[ A \cap B^{\mathsf{c}} = \{ \omega \in \Omega \mid \omega \in A \land \omega \notin B \}. \]

Como suponemos que $A$ y $B$ son eventos de un cierto espacio muestral $\Omega$, se cumple que $A \subseteq \Omega$ y $B \subseteq \Omega$. Por ello, el complemento es relativo a $\Omega$, y se tiene que

\[ A \cap B^{\mathsf{c}} = A \smallsetminus B, \]

así que $A \smallsetminus B$ es precisamente aquel evento en el que ocurre $A$ y no ocurre $B$. En consecuencia, $\mathbb{P}(A \smallsetminus B)$ expresa «la probabilidad de que ocurra $A$ y no ocurra $B$».

Diferencia simétrica de eventos

Hay una última operación entre eventos que consideramos importante que sepas interpretar. Esta es la diferencia simétrica de dos eventos. Dados $A$ y $B$ eventos, nos podría interesar aquel evento en el que ocurre $A$ u ocurre $B$, pero no ocurren ambos a la vez. En otras palabras, podría interesarnos el evento en el que ocurre exclusivamente $A$, u ocurre exclusivamente $B$. Este evento sería la diferencia simétrica de $A$ y $B$:

\[ A \triangle B = \{ \omega \in \Omega \mid (\omega \in A \land \omega \notin B) \lor (\omega \in B \land \omega \notin A) \}. \]

Hay varias maneras de escribir a $A \triangle B$, las siguientes son las más tradicionales:

\begin{align*}
A \triangle B &= (A \cup B) \smallsetminus (A \cap B), \\
A \triangle B &= (A \smallsetminus B) \cup (A \smallsetminus B).
\end{align*}

Por si te interesa saber más al respecto, el conectivo lógico que determina a $A \triangle B$ es el «o exclusivo«, frecuentemente denotado por $\mathsf{XOR}$, que se deriva del término en inglés «exclusive or«. Así, $A \triangle B$ es el evento en el que «ocurre $A$ u ocurre $B$, pero no ocurren $A$ y $B$ a la vez». En consecuencia, $\mathbb{P}(A \triangle B)$ expresa «la probabilidad de que ocurra $A$ u ocurra $B$ pero no ocurran $A$ y $B$ a la vez».

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

Retomando el ejemplo en el que $P$ es el conjunto de habitantes de la colonia donde vives, y nuevamente suponiendo que se seleccionarán dos personas distintas al azar, con

\[ \Omega = \{ (x,y) \in P \times P \mid x \neq y \}, \]

considera los siguientes eventos:

  • $M$ el evento en el que las dos personas elegidas son mujeres.
  • $T$ el evento en el que las dos personas elegidas tienen trabajo.
  • $A$ el evento en el que las dos personas elegidas tienen al menos un automóvil.

Determina el significado de los siguientes eventos:

  • $M^{\mathsf{c}}$.
  • $M \cap T$.
  • $A \smallsetminus T$.
  • $M^{\mathsf{c}} \cap A^{\mathsf{c}}$.
  • $T \triangle M$.
  • $M \cap T \cap A$.
  • $A \cup (M^{\mathsf{c}} \triangle T)$.

Más adelante…

En la siguiente entrada retomaremos el rumbo que tomamos en la entrada anterior, ya que varias propiedades interesantes de una medida de probabilidad involucran operaciones con eventos. La interpretación de las operaciones con eventos es una herramienta muy útil que te ayudará en la resolución de problemas, pero no es estrictamente necesaria. La probabilidad de eventos que son el resultado de realizar operaciones con eventos puede obtenerse sin necesidad de estas interpretaciones. Sin embargo, sí resulta de utilidad para que puedas plantear correctamente ciertos problemas en los que los eventos no están definidos explícitamente.

Entradas relacionadas

Probabilidad I: Medida de Probabilidad

Introducción

En la última sesión demostramos un teorema de vital importancia que permite construir un σ-álgebra a partir de cualquier familia dada de conjuntos. Con esto, ya tenemos los objetos necesarios para empezar a tratar con el concepto de «medida». Anteriormente comentamos que un σ-álgebra es el conjunto cuyos elementos son a los que podremos «calificar», es decir, los que podremos medir. En esta sesión describiremos la noción de «medir» los elementos de un σ-álgebra dado.

Definición de Medida de Probabilidad

Dado un espacio muestral $\Omega$ y $\mathscr{F}$ un σ-álgebra sobre $\Omega$, pretendemos asignar a cada $A \in \mathscr{F}$ un valor numérico. Para ello, en matemáticas utilizamos funciones. En este caso, necesitaremos una función que exprese nuestra noción de «probabilidad de ocurrencia». A cada elemento $A \in \mathscr{F}$ se le asignará un valor $\mathbb{P}(A) \in \mathbb{R}$ que deberá estar en el intervalo $[0,1]$. Así, el $0$ representará lo menos probable posible, y el $1$ lo más probable posible. Esta discusión da lugar a la definición de medida de probabilidad.


Definición 1.5. Sea $\Omega$ un conjunto y $\mathscr{F}$ un σ-álgebra sobre $\Omega$. Diremos que una función $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad si cumple las siguientes propiedades:

  1. Para todo $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. Esto es, $\mathbb{P}$ es no-negativa.
  2. Si $\left\lbrace A_{n} \right\rbrace_{n=1}^{\infty}$ es una familia numerable de conjuntos ajenos dos a dos de $\mathscr{F}$, entonces
    \[ \mathbb{P}\left( \bigcup_{n=1}^{\infty} A_{n} \right) = \sum_{n=1}^{\infty} \mathbb{P}(A_{n}). \]Esta propiedad es conocida como σ-aditividad. Es decir, $\mathbb{P}$ es σ-aditiva.
  3. $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$.

Por familia numerable de conjuntos ajenos dos a dos, queremos decir que se cumple que

\[ \forall i, j \in \mathbb{N}^{+}\colon (i \neq j \implies A_{i} \cap A_{j} = \emptyset). \]

Es decir, que para cualesquiera índices $i$ y $j$, si $i$ es distinto de $j$, entonces los conjuntos $A_{i}$ y $A_{j}$ son ajenos.

En resumidas cuentas, una medida de probabilidad es cualquier función que satisface las tres propiedades de la definición anterior. Además, si $\Omega$ es un conjunto, $\mathscr{F}$ un σ-álgebra sobre $\Omega$, y $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad, la terna $(\Omega, \mathscr{F}, \mathbb{P})$ recibe el nombre de espacio de probabilidad. Es decir, a partir de ahora, cuando digamos que «$(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad», se entenderá que $\Omega$, $\mathscr{F}$ y $\mathbb{P}$ son los objetos que corresponden.

Juntando todas nuestras herramientas

Ya que tenemos los conceptos más fundamentales de la probabilidad, hay que ver cómo encajan juntos. Para empezar, recuerda que el espacio muestral de un fenómeno aleatorio es el conjunto $\Omega$. Los elementos de este conjunto son todos los resultados posibles del fenómeno. Luego, tomaremos a $\mathscr{F}$, que es un σ-álgebra sobre $\Omega$. Finalmente, sobre $\mathscr{F}$ se define la medida de probabilidad $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$.

Pero, ¿por qué se define la medida sobre el σ-álgebra? ¿Por qué no la definimos directamente sobre $\Omega$? Recuerda que los elementos de un σ-álgebra, a los cuales llamaremos eventos, son subconjuntos de $\Omega$. En la primera entrada de este curso justificamos las propiedades de un σ-álgebra. En particular, mencionamos que un evento $A \in \mathscr{F}$ burdamente cumple lo siguiente: Dado cualquier $\omega \in \Omega$ (es decir, dado cualquiera de los resultados posibles del fenómeno aleatorio), la pregunta «¿es cierto que $\omega \in A$» tiene respuesta. Por ello, cuando nuestra medida de probabilidad asigne el número $\mathbb{P}(A)$ al conjunto $A$, ese número expresa cuál es la probabilidad de que sea cierto que $\omega \in A$. En otras palabras, entre $0$ y $1$, ¿qué tan probable es que ocurra cualquiera de los resultados en $A$? La respuesta será $\mathbb{P}(A)$. Por este motivo, el número $\mathbb{P}(A)$ suele leerse como «la probabilidad del evento $A$», o simplemente, «la probabilidad de $A$».

Justificando las propiedades de una medida de probabilidad

Por otro lado, veamos un poco sobre la motivación de las propiedades de una medida de probabilidad. La no-negatividad surge muy naturalmente de nuestra restricción de la medida al intervalo $[0,1]$. Por otro lado, la σ-aditividad tiene dos razones de ser. Primero, observa que la σ-aditividad implica la aditividad finita. Si $A_{1}$, $A_{2}$, … , $A_{n} \in \mathscr{F}$ son $n$ eventos cualesquiera que son ajenos dos a dos, podemos definir la siguiente familia numerable de conjuntos:

\[ E_{1} = A_{1}, E_{2} = A_{2}, E_{3} = A_{3}, \ldots, E_{n} = A_{n}, E_{n+1} = \emptyset, E_{n+2} = \emptyset, \ldots, \]

Es decir, para cada $k \in \mathbb{N}$ tal que $k \geq n+1$, se define $E_{k} = \emptyset$. Esta es una familia numerable de eventos ajenos (observa que la intersección de cualesquiera dos eventos de la familia resulta ser vacía). Por lo tanto, podemos aplicar la σ-aditividad de $\mathbb{P}$. Esto es, se tiene que

\[ \mathbb{P}\left( \bigcup_{k=1}^{\infty} E_{k} \right) = \sum_{k=1}^{\infty} \mathbb{P}(E_{k}), \]

pero recuerda que para cada $k \geq n+1$, se tiene que $E_{k} = \emptyset$, y para cada $k \leq n$, se cumple que $E_{k} = A_{k}$. Por un lado, esto significa que

\[ \bigcup_{k=1}^{\infty} E_{k} = \left( \bigcup_{k=1}^{n} E_{k} \right) \cup \left( \bigcup_{k=n+1}^{\infty} E_{k} \right) = \left( \bigcup_{k=1}^{n} A_{k} \right) \cup (\emptyset) = \bigcup_{k=1}^{n} A_{k}. \]

Por otro lado, tenemos que

\begin{align*}
\sum_{k=1}^{\infty} \mathbb{P}(E_{k}) &= \sum_{k=1}^{n} \mathbb{P}(E_{k}) + \sum_{k=n+1}^{\infty} \mathbb{P}(E_{k}) \\&= \sum_{k=1}^{n} \mathbb{P}(A_{k}) + \sum_{n=3}^{\infty} \mathbb{P}(\emptyset) \\
&= \sum_{k=1}^{n} \mathbb{P}(A_{k}) + \sum_{n=1}^{\infty} 0 \\
&= \sum_{k=1}^{n} \mathbb{P}(A_{k})
\end{align*}

Esto nos permite concluir que

\[ \mathbb{P}\left(\bigcup_{k=1}^{n} A_{k}\right) = \sum_{k=1}^{n} \mathbb{P}(A_{k}). \]

En conclusión, cualquier medida de probabilidad es finitamente aditiva. En particular, es finitamente aditiva para $n = 2$, por lo que si se tienen $A_{1}$, $A_{2} \in \mathscr{F}$ eventos ajenos, se sigue que $\mathbb{P}(A_{1} \cup A_{2}) = \mathbb{P}(A_{1}) + \mathbb{P}(A_{2})$.

La σ-aditividad y, en consecuencia, la aditividad, obedecen a nuestra intuición de medir la probabilidad de dos o más eventos que no comparten elementos. Si $A$ y $B$ son eventos ajenos, cuando un $\omega$ es uno de los elementos de $A$, no puede ser un elemento de $B$. Por ello, como la probabilidad de que el resultado del fenómeno aleatorio sea alguno de los elementos de $A$ es $\mathbb{P}(A)$, este valor no expresa nada sobre la probabilidad de que el resultado del fenómeno sea un elemento de $B$. Análogamente, $\mathbb{P}(B)$ tampoco expresa nada sobre la probabilidad de que el resultado sea un elemento de $A$. Burdamente, cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A)$ y $\mathbb{P}(B)$ no expresan la probabilidad de algo en común.

Por lo tanto, sumar estos dos valores resulta en la probabilidad de que el resultado sea un elemento exclusivamente de $A$ o exclusivamente de de $B$. Pero al ser ajenos, esto es lo mismo que expresar la probabilidad de que el resultado sea un elemento de $A \cup B$. Esto motiva que cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A\cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Esta misma idea se extiende al caso de una familia numerable de eventos ajenos, y es la que motiva la σ-aditividad.

Finalmente, la última propiedad establece que $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$. ¿Por qué le pedimos a $\mathbb{P}$ que cumpla esto? Recordando que $0$ representa lo más improbable y $1$ lo más probable posible, que $\mathbb{P}(\emptyset) = 0$ expresa que la probabilidad de algo lógicamente imposible debe de ser $0$. Mucho cuidado, el evento $\emptyset$ no representa «que no ocurra nada», esa es una interpretación errónea de $\emptyset$ como evento. Por otro lado, $\mathbb{P}(\Omega) = 1$ se pide porque la probabilidad de que el resultado sea cualquiera de los resultados posibles debe de ser la más alta posible, pues siempre se obtiene alguno de los elementos de $\Omega$ como resultado.

Ejemplo básico de medida de probabilidad

Sean $\Omega = \{ 1, 2, 3 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por la siguiente regla de correspondencia: para cada $A \in \mathscr{F}$, definimos

\[ \mathbb{P}(A) = \frac{\left| A \right|}{\left| \Omega \right|}, \]

donde $\left| A \right|$ es la cardinalidad de $A$. Esto es, $|A|$ es el número de elementos que tiene $A$. Primero, tenemos que ver que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad. Ya sabemos que $\Omega$ es un conjunto y que $\mathscr{P}(\Omega)$ es un σ-álgebra sobre $\Omega$. Nos falta ver que $\mathbb{P}$ es una medida de probabilidad. Es decir, hay que ver que satisface las propiedades de una medida de probabilidad.

  1. Primero, hay que verificar que para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. En efecto, para cualquier conjunto finito $A$ se tiene que $\left| A \right| \in \mathbb{N}$. Además, $\Omega \neq \emptyset$, por lo que $|\Omega| \neq 0$. Por lo tanto, $\frac{|A|}{|\Omega|}$ está bien definido, y se cumple que $\frac{|A|}{|\Omega|} \geq 0$. En conclusión, para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$.
  2. Para ver la segunda propiedad, como $\Omega$ es finito, basta con ver que $\mathbb{P}$ es finitamente aditiva. Sean $A$, $B \in \mathscr{F}$ eventos cualesquiera tales que $A \cap B = \emptyset$. Debemos de demostrar que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Observa que como $A$ y $B$ son finitos y $A \cap B = \emptyset$, se tiene que $|A \cup B| = |A| + |B|$. Así, tenemos que
    \[ \frac{|A \cup B|}{|\Omega|} = \frac{|A|+|B|}{|\Omega|} = \frac{|A|}{|\Omega|} + \frac{|B|}{|\Omega|}, \]y por la definición de $\mathbb{P}$, podemos concluir que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$.
  3. Finalmente, como $|\emptyset| = 0$, se tiene que $\mathbb{P}(\emptyset) = 0$, y por la definición de $\mathbb{P}$, tenemos que $\mathbb{P}(\Omega) = \frac{|\Omega|}{|\Omega|} = 1$.

Bien, con esto hemos demostrado que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.

Ahora veamos algunos aspectos más prácticos de este ejemplo. Por ejemplo, ¿cuál será la probabilidad de que el resultado de este fenómeno sea $3$? Para obtenerla, hay que encontrar a qué evento nos referimos. En este caso, nos interesa que el resultado sea $3$. Así, el evento en cuestión sería aquel que tenga como único elemento a $3$, es decir, $\{ 3 \}$. Bien, entonces la probabilidad de que el resultado sea $3$ es $\mathbb{P}(\{3\})$. Utilicemos la definición de $\mathbb{P}$ para el cálculo:

\begin{align*}
\mathbb{P}(\{3\}) &= \frac{|\{3\}|}{|\Omega|} \\ &= \frac{|\{3\}|}{|\{1, 2, 3\}|} \\ &= \frac{1}{3},
\end{align*}

así, $\mathbb{P}(\{3\}) = \frac{1}{3}$, por lo que la probabilidad de que el resultado de este fenómeno sea $3$ es $\frac{1}{3}$, o $0.33333\ldots$ Hay quienes escriben la probabilidad de un evento de manera porcentual. De esta forma, la probabilidad de que el resultado sea $3$ es $33.333\ldots\%$.

Hagamos otra pregunta. ¿Cuál es la probabilidad de que el resultado de este fenómeno sea un número impar? Hay que encontrar primero el evento que contiene todos los resultados impares. Esto es, sería el siguiente conjunto

\[ B = \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k + 1 \}, \]

que para este $\Omega$ es muy sencillo: son $1$ y $3$. Así, $B = \{1,3\}$, y podemos calcular la probabilidad de $B$ usando la expresión que define a $\mathbb{P}$ como sigue.

\begin{align*}
\mathbb{P}(B) &= \mathbb{P}(\{1, 3\}) \\ &= \frac{|\{1,3\}|}{|\Omega|} \\ &= \frac{|{1,3}|}{|{1,2,3}|} \\ &= \frac{2}{3}.
\end{align*}

Por lo tanto, la probabilidad d e que el resultado de este fenómeno sea un número impar es $\frac{2}{3}$, o bien $0.6666\ldots$, o $66.666\ldots\%$.

Para terminar con este ejemplo, veamos algo relacionado con la aditividad de $\mathbb{P}$. Ya vimos que $\mathbb{P}$ es aditiva. ¿Qué pasa si sumamos las probabilidades de dos eventos que no son ajenos? Por ejemplo, sean $C_{1} = \{1,2\}$ y $C_{2} = \{2,3\}$. Primero, se tiene que

\begin{align*}
\mathbb{P}(C_{1}) = \mathbb{P}(\{1,2\}) = \frac{2}{3}, \\
\mathbb{P}(C_{1}) = \mathbb{P}(\{2,3\}) = \frac{2}{3},
\end{align*}

por lo que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2}) = \frac{4}{3}$, y $\frac{4}{3} > 1$. ¿Qué falló aquí? Llegamos a un número que es mayor a $1$, ¿no debería de pasar que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$ es la probabilidad de algún evento? El problema está en que $C_{1}$ y $C_{2}$ no son ajenos. Observa que $C_{1} \cap C_{2} = \{1,2\} \cap \{2,3\} = \{2\}$. Nota que $\mathbb{P}(C_{1})$ expresa «la probabilidad de que el resultado del experimento sea un elemento de $C_{1}$». En términos más amigables, $\mathbb{P}(C_{1})$ expresa la probabilidad de que el resultado sea $1$ o $2$. Es decir, en esta cantidad se incluye la posibilidad de que el resultado sea $2$. De manera similar, $\mathbb{P}(C_{2})$ expresa la probabilidad de que el resultado sea $2$ o $3$. Por ello, en el momento en el que sumamos $\mathbb{P}(C_{1})$ y $\mathbb{P}(C_{2})$, estamos contabilizando la probabilidad de que el resultado sea $2$ más de una vez, algo que no debemos de hacer.

Así, se confirma que cuando $C_{1}$ y $C_{2}$ son eventos que no son ajenos, la probabilidad de $\mathbb{P}(C_{1} \cup C_{2})$ no coincide con $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu manejo de los conceptos abordados en esta entrada.

  • Sean $\Omega = \{1,2,3,4\}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Definimos la siguiente función auxiliar $p\colon \Omega \rightarrow \mathbb{R}$ mediante las siguientes reglas de correspondencia:
    \begin{align*}
    p(1) = \frac{1}{4}, \quad p(2) = \frac{1}{4}, \quad p(3) = \frac{1}{8}, \quad p(4) = \frac{3}{8}.
    \end{align*} Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por: Para cada $A \in \mathscr{F}$, definimos
    \begin{align*}
    \mathbb{P}(A) = \sum_{k \in A} p(k).
    \end{align*} Por ejemplo, $\mathbb{P}(\{1,3\}) = p(1) + p(4) = \frac{1}{4} + \frac{3}{8}$. Adicionalmente, se define $\mathbb{P}(\emptyset) = 0$.
    • Demuestra que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.
    • ¿Cuál es la probabilidad de que el resultado del fenómeno en este ejercicio sea un número par?
    • ¿Cuál es la probabilidad de que el resultado sea un número impar?
  • Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sean $A$, $B \in \mathscr{F}$ tales que $A \cap B \neq \emptyset$. ¿Qué le sumarías (o restarías) a $\mathbb{P}(A) + \mathbb{P}(B)$ para obtener una expresión que sí sea igual a $\mathbb{P}(A) + \mathbb{P}(B)$? Daremos la respuesta a esta pregunta en la próxima sesión, pero comienza a pensarlo.
  • En la entrada mencionamos que el evento $\emptyset$ no representa «que no ocurra nada», y que debe de interpretarse como el evento «imposible». ¿Por qué? Por ejemplo, retomando cuando $\Omega = \{1,2,3\}$, es claro que $\{1 \} \cap \{3\} = \emptyset$. ¿Tiene sentido que su probabilidad sea $0$? ¿Existe algún resultado $\omega \in \Omega$ tal que $\omega \in \{1 \} \cap \{3 \}$?

Más adelante…

En esta sesión tocamos las propiedades que hacen que una función sea considerada una medida de probabilidad. Estas propiedades tienen consecuencias que abordaremos en una entrada posterior. Antes de hacerlo, en la siguiente entrada abordaremos ciertas minucias sobre la interpretación de las operaciones con eventos en el contexto de la probabilidad.

Entradas relacionadas