Archivo de la etiqueta: probabilidad condicional

Probabilidad I: Teorema de Bayes

Introducción

En la última entrada vimos un resultado muy importante para el cálculo de probabilidades: el teorema de probabilidad total. En particular, vimos cómo aplicarlo en algunos ejemplos prácticos. Además, puede que sea necesario para demostrar algunos resultados teóricos más adelante.

Por otro lado, en uno de los ejemplos calculamos una probabilidad que no parecía tan evidente calcular. No obstante, usando las propiedades vistas hasta el momento, obtuvimos esa probabilidad. Por ello, en esta entrada vamos a presentar el resultado que captura ese comportamiento.

El teorema de Bayes

El resultado que presentamos a continuación es conocido como el teorema de Bayes. En español, este nombre comúnmente se pronunciado como se lee, «bayes». No obstante, recibe su nombre en honor a Thomas Bayes, un notable ministro y matemático inglés.


Teorema. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Entonces para cualesquiera $A$, $B$ eventos tales que $\Prob{A}$, $\Prob{B} > 0$ se cumple que

\[ \Prob{A \mid B} = \frac{\Prob{A} \Prob{B \mid A}}{\Prob{B}}. \]


Demostración. Sean $A$, $B$ eventos tales que $\Prob{A}$, $\Prob{B} > 0$. Por la definición de la probabilidad condicional de $A$ dado $B$, sabemos que

\begin{equation} \label{eq:cond} \Prob{A \mid B} = \frac{\Prob{A \cap B}}{\Prob{B}}. \end{equation}

Por otro lado, gracias a la regla multiplicativa y como $\Prob{A} > 0$, sabemos que se cumple que $\Prob{A \cap B} = \Prob{A} \Prob {B \mid A}$. En consecuencia, sustituyendo esta expresión en \eqref{eq:cond}, se tiene que

\[ \Prob{A \mid B} = \frac{\Prob{A \cap B}}{\Prob{B}} = \frac{\Prob{A} \Prob{B \mid A}}{\Prob{B}}, \]

que es justamente lo que queríamos demostrar.

$\square$

El resultado anterior es el teorema de Bayes en su forma más sencilla. Esencialmente, el teorema relaciona la probabilidad condicional de $A$ dado $B$ con la de $B$ dado $A$. Es decir, otorga una manera de voltear los conjuntos dentro de la probabilidad condicional. Sin embargo, para que sea efectivo, las probabilidades de $A$ y de $B$ deben de ser conocidas, o al menos, calculables.

Extensión del teorema de Bayes

Es posible extender el teorema de Bayes usando el teorema de probabilidad total. El resultado queda como sigue.


Corolario (Teorema de Bayes extendido). Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sea $n \in \mathbb{N}^{+}$.

  1. Sea $\{A_{1}, \ldots, A_{n} \} \subseteq \mathscr{F}$ una partición finita de $\Omega$ tal que para cada $i \in \{1, \ldots, n\}$ se cumple que $\Prob{A_{i}} > 0$ y sea $B$ un evento tal que $\Prob{B} > 0$. Entonces para cada $k \in \{1,\ldots, n\}$ se cumple que \[ \Prob{A_{k} \mid B} = \frac{\Prob{B \mid A_{k}} \Prob{A_{k}}}{\sum_{i = 1}^{n} \Prob{B \mid A_{i}} \Prob{A_{i}} }. \]
  2. Sea $\{ A_{i} \}_{i \in \mathbb{N}^{+}} \subseteq \mathscr{F}$ una partición numerable de $\Omega$ tal que para cada $i \in \mathbb{N}^{+}$ se cumple que $\Prob{A_{i}} > 0$, y sea $B$ un evento tal que $\Prob{B} > 0$. Entonces para cada $k \in \mathbb{N}^{+}$ se cumple que \[ \Prob{A_{k} \mid B} = \frac{\Prob{B \mid A_{k}} \Prob{A_{k}}}{\sum_{i = 1}^{\infty} \Prob{B \mid A_{i}} \Prob{A_{i}} }. \]

Demostración. La demostración de este resultado no es complicada, y te la dejamos como tarea moral.

$\square$

Con este último corolario es posible atacar a aquellos problemas en los que $\Prob{B}$ no es conocida directamente, pero puede calcularse usando el teorema de probabilidad total.

En particular, dado un evento $A \in \mathscr{F}$ tal que $\Prob{A}$, $\Prob{A^{\mathsf{c}}} > 0$, resulta que $A$ y $A^{\mathsf{c}}$ forman una partición de $\Omega$. En tal caso, para cualquier evento $B \in \mathscr{F}$ que satisface $\Prob{B} > 0$ se cumple que

\[ \Prob{A \mid B} = \frac{\Prob{B \mid A} \Prob{A} }{ \Prob{B \mid A} \Prob{A} + \Prob{B \mid A^{\mathsf{c}} } \Prob{A^{\mathsf{c}} } }. \]

Ejemplos

Así como el teorema de probabilidad total, el teorema de Bayes puede aplicarse para dar solución a diversos ejercicios y problemas. A continuación, presentamos algunos ejemplos de su uso.

Ejemplos. En una compañía manufacturera de componentes electrónicos, los componentes fabricados reciben una calificación de acuerdo a su calidad: $\mathrm{A}$ para la mejor calidad, $\mathrm{B}$ para calidad media y $\mathrm{C}$ para calidad baja. De acuerdo con el registro de esta compañía, se encontró que $70\%$ de los componentes recibieron una calificación de $\mathrm{A}$, $18\%$ una calificación de $\mathrm{B}$, y $12\%$ una calificación de $\mathrm{C}$. Además, se encontró que un $2\%$ de los calificados con $\mathrm{A}$, $10\%$ de los calificados con $\mathrm{B}$ y $18\%$ de los calificados con $\mathrm{C}$ salieron defectuosos. Ahora, si un componente falla, ¿cuál es la probabilidad de que haya recibido una calificación de $\mathrm{B}$?

Primero, hay que organizar la información disponible. Sea $\Omega$ el espacio muestral de este experimento. $\Omega$ sería el conjunto de todos los componentes fabricados. Definamos los siguientes $4$ eventos:

  • $A$: el evento de escoger un componente con calificación $\mathrm{A}$.
  • $B$: el evento de escoger un componente con calificación $\mathrm{B}$.
  • $C$: el evento de escoger un componente con calificación $\mathrm{C}$.
  • $D$: el evento de escoger un componente defectuoso.

De acuerdo con la información dada, y asumiendo equiprobabilidad, se tiene que

\begin{align*}&\Prob{A} = 0.7 \\ &\Prob{D \mid A} = 0.02\end{align*}

\begin{align*}&\Prob{B} = 0.18 \\ &\Prob{D \mid B} = 0.1\end{align*}

\begin{align*}&\Prob{C} = 0.12 \\ &\Prob{D \mid C} = 0.18,\end{align*}

Lo que se nos pide es la probabilidad de que un componente haya recibido una calificación de $\mathrm{B}$ dado que salió defectuoso. Es decir, queremos obtener $\Prob{B \mid D}$. Observa que los eventos $A$, $B$ y $C$ constituyen una partición de $\Omega$. Por lo tanto, usando el teorema de Bayes tenemos que

\begin{align*} \Prob{B \mid D} = \frac{\Prob{D \mid B} \Prob{B}}{\Prob{D}} &= \frac{\Prob{D \mid B} \Prob{B}}{\Prob{D \mid A}\Prob{A} + \Prob{D \mid B}\Prob{B} + \Prob{D \mid C}\Prob{C}} \\ &= \frac{(0.1)(0.18)}{(0.02)(0.7) + (0.1)(0.18) + (0.18)(0.12)} \\ &\approx 0.3358 \end{align*}

por lo que si un componente falla, la probabilidad de que haya recibido una calificación de $\mathrm{B}$ es aproximadamente $0.3358 = 33.58\%$.


Ejemplo. Un paciente acude a una cita con su médico. El médico le realiza una prueba que tiene un $99\%$ de fiabilidad. Es decir, un $99\%$ de las personas que están enfermas salen positivas, y un $99\%$ de las personas sanas salen negativas. El doctor sabe que sólamente el $1\%$ de la gente en su país tienen esa enfermedad. Si el paciente sale positivo, ¿cuál es la probabilidad de que esté enfermo?

Antes de exponer la solución, de acuerdo con la información que tenemos, aparentemente la prueba es muy buena, ya que la fiabilidad parece ser suficientemente buena como para determinar con certeza si el paciente está enfermo o no.

Como es costumbre, desglosemos la información que nos están dando. Primero, definimos los siguientes eventos:

  • $E$: el evento de que el paciente esté enfermo.
  • $P$: el evento de que la prueba salga positiva.

Considerando la información dada, sabemos que

  • La probabilidad de que la prueba salga positiva dado que el paciente está enfermo es de $0.99$. Es decir, $\Prob{P \mid E} = 0.99$.
  • De igual forma, la probabilidad de que la prueba salga negativa dado que el paciente está sano es de $0.99$. Por ello, $\Prob{P^{\mathsf{c}} \mid E^{\mathsf{c}}} = 0.99$. Además, $\Prob{P \mid E^{\mathsf{c}} } = 1 − \Prob{P^{\mathsf{c}} \mid E^{\mathsf{c}}}$, por lo que $\Prob{P \mid E^{\mathsf{c}} } = 0.01$.
  • Sólamente el $1\%$ de la población tiene esa enfermedad, por lo que $\Prob{E} = 0.01$. En consecuencia, $\Prob{E^{\mathsf{c}}} = 1 − \Prob{E} = 0.99$.

Nos interesa calcular la probabilidad de que el paciente esté enfermo dado que la prueba salió positiva. Por ello, queremos $\Prob{E \mid P}$. Observa que los conjuntos $E$ y $E^{\mathsf{c}}$ forman una partición del espacio muestral. Aplicando el teorema de Bayes tenemos que

\begin{align*} \Prob{E \mid P} = \frac{\Prob{P \mid E} \Prob{E}}{\Prob{P}} &= \frac{\Prob{P \mid E} \Prob{E}}{\Prob{P \mid E} \Prob{E} + \Prob{P \mid E^{\mathsf{c}} } \Prob{E^{\mathsf{c}}} } \\ &= \frac{(0.99)(0.01)}{(0.99)(0.01) + (0.01)(0.99)} \\ &= 0.5 \end{align*}

En conclusión, la probabilidad de que el paciente esté enfermo dado que la prueba salió positiva es de $0.5 = 50\%$. Como dirían por ahí, ¡resulta que es un volado! Contrario a lo que indica la información sobre la fiabilidad de la prueba, este valor es para nada satisfactorio.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra el teorema de Bayes extendido. Para ello, utiliza el teorema de Bayes en conjunto con el teorema de probabilidad total.
  2. En el ejemplo de los componentes electrónicos calculamos $\Prob{B \mid D}$. Retoma este ejemplo y haz lo siguiente:
    1. Calcula $\Prob{A \mid D}$ y $\Prob{C \mid D}$, e interprétalas.
    2. Calcula la suma de las tres probabilidades. ¿Cuánto te da? ¿Por qué?
  3. Retoma el ejemplo de las pruebas para enfermedad.
    1. Calcula $\Prob{E \mid P^{\mathsf{c}} }$. Esta es la probabilidad condicional de $E$ dado $P^{\mathsf{c}}$, ¿esto qué significa?
    2. Supón que el médico viaja a otro país en el que sólamente el $0.5\%$ de la población padece la enfermedad. Es decir, $\Prob{E} = 0.005$. Calcula $\Prob{E \mid P}$ bajo este nuevo supuesto. ¿Cómo cambia con respecto al valor obtenido en el ejemplo?

Más adelante…

Así como el teorema de probabilidad total, el teorema de Bayes es una herramienta muy útil en el cálculo de probabilidades. También hay situaciones teóricas en las que puede resultar de utilidad. Además, si decides cursar la materia de Estadística Bayesiana, el teorema de Bayes es uno de sus fundamentos. En esta materia se le da una interpretación especial a lo que estipula este teorema, y permite el desarrollo de un enfoque estadístico distinto del frecuentista.

En la siguiente entrada veremos un resultado teórico conocido como el teorema de continuidad de la probabilidad. Es mucho más teórico, pero exhibe una propiedad importante que tienen todas las medidas de probabilidad.

Entradas relacionadas

Probabilidad I: Probabilidad Condicional

Introducción

En la entrada anterior concluimos nuestro estudio de algunos de los enfoques más importantes en la historia de la probabilidad. Más aún, vimos que podemos plasmar estos enfoques en medidas de probabilidad específicas. Sin embargo, estas no son las únicas medidas de probabilidad que existen, ¡hay muchísimas más!

Pasaremos ahora a otro asunto. Dada una medida de probabilidad $\mathbb{P}$, construiremos un nuevo concepto llamado probabilidad condicional. A grandes rasgos, lo que queremos hacer es medir la probabilidad de un evento $B$ condicionando a que otro evento $A$ ya ocurrió. En esencia, lo que queremos es una medida que nos permita capturar el efecto que tiene la información de $A$ sobre la probabilidad de $B$. Sin más preámbulos, veamos cómo lo haremos.

Motivación de la probabilidad condicional

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad cualquiera, y $A \in \mathscr{F}$ un evento de $\Omega$. Ahora, a partir de $\mathbb{P}$, ¿cómo podríamos construir una medida que exprese la probabilidad de que ocurra un evento $B$ condicionando a que $A$ ya ocurrió?

Para atacar este problema, sea $B \in \mathscr{F}$ un evento cualquiera. Recordando que el evento $B \cap A$ es aquel en donde ocurren $B$ y $A$, así que $\Prob{B \cap A}$ es la probabilidad de que ocurran $B$ y $A$. Sin embargo, esta probabilidad de ocurrencia se calcula con respecto a todos los resultados en $\Omega$, no sólamente sobre aquellos eventos en los que ocurre $A$. Por ejemplo, si los eventos $B$ y $A$ son tales que $\Prob{B \cap A} = 0.1$ y $\Prob{A} = 0.4$, se espera que si observas el fenómeno aleatorio muchas veces, en un $40\%$ de los resultados ocurrirá $A$ y en $10\%$ ocurrirá $B$ y $A$. No obstante, al fijarnos únicamente en aquellos resultados en los que ocurrió $A$, aproximadamente el $\frac{0.1}{0.4} = 0.25 = 25\%$ de ellos corresponde a resultados en los que también ocurrió $B$.

Por ello, es necesario «reescalar» la expresión $\Prob{B \cap A}$ para que efectivamente represente la probabilidad de que ocurra $B$ dado que ya ocurrió $A$, donde $0$ es lo más improbable y $1$ es lo más probable. El reescalamiento se hace con respecto a $A$, que es el conjunto que asumimos que ya ocurrió. Para hacerlo, tomamos el cociente $\frac{\Prob{B \cap A}}{\Prob{A}}$, que captura la idea de restringirnos a los resultados en los que ya ocurrió $A$.

Definición de la probabilidad condicional

Tomando en cuenta la motivación de la sección anterior, se define la probabilidad condicional como sigue.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sea $A \in \mathscr{F}$ un evento tal que $\Prob{A} > 0$. Para cada $B \in \mathscr{F}$ se define $\Prob{B \mid A}$, la probabilidad condicional de $B$ dado $A$, como

\[ \Prob{B \mid A} = \frac{\Prob{B \cap A}}{\Prob{A}}. \]


En la probabilidad condicional, el conjunto $A$ se interpreta como información conocida. Es decir, imagina que tienes ante tí un fenómeno aleatorio con espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$, y un evento $A \in \mathscr{F}$. Entonces, si ya ocurrió $A$, ¿cómo se ve afectada la probabilidad de algún evento $B$ tomando en cuenta esa información? La respuesta a esa pregunta la obtenemos con la probabilidad condicional de $B$ dado $A$.

Es posible dar una definición para la probabilidad condicional dado un evento de probabilidad $0$. Es decir, puede definirse cuando $\Prob{A} = 0$. Sin embargo, no contamos con las herramientas matemáticas suficientes para hacerlo. No obstante, ¿tiene sentido hacer semejante barbaridad? ¡Resulta que sí! Aún cuando la probabilidad de un evento es $0$, esto no significa que sea imposible que ocurra. Recuerda, cuando un evento tiene probabilidad $0$, quiere decir que su ocurrencia es lo más improbable posible. Aún así, esto no significa «imposible» en todos los casos. Más adelante veremos casos en los que surgen eventos de probabilidad $0$ que sí podrían ocurrir, de manera muy natural.

Una consecuencia inmediata de la definición anterior es que para cualesquiera eventos $A$, $B$ tales que $\Prob{A}$, $\Prob{B} > 0$ se cumple que

\[ \Prob{B \cap A} = \Prob{B \mid A} \Prob{A}, \]

y que

\[ \Prob{A \cap B} = \Prob{A \mid B} \Prob{B}, \]

Y como $\Prob{A \cap B} = \Prob{B \cap A}$ (pues $A \cap B$ y $B \cap A$ son el mismo evento), se tiene que

  • $\Prob{A \cap B} = \Prob{A \mid B} \Prob{B}$, y
  • $\Prob{A \cap B} = \Prob{B \mid A} \Prob{A}$.

Este resultado es conocido como la regla multiplicativa.

Ejemplos

Ejemplo. Recordemos que en una baraja estándar de $52$ cartas hay $12$ cartas con ilustración: hay $4$ jotas, reinas y reyes. Imagina que un amigo tuyo revuelve la baraja y tú tomas una carta. Le muestras la carta a tu amigo, y éste te comenta que la carta es un as o una carta con ilustración. ¿Cuál es la probabilidad de que tu carta sea un rey sabiendo esa información?

En primera, $\Omega$ es el conjunto de todas las cartas de una baraja estándar, por lo que $|\Omega| = 52$. Tenemos dos eventos que nos interesan:

  • $A$: el evento de que la carta extraída sea un rey. En consecuencia, se tiene que \[ A = \{ \mathrm{\textcolor{red}{K\heartsuit}, \textcolor{red}{K\blacklozenge}, K\spadesuit, K\clubsuit}\}. \]
  • $B$: el evento de que la carta extraída sea un as o una carta con ilustración. Es decir, $B$ es el evento \[ B = \begin{Bmatrix} \textcolor{red}{\mathrm{A\heartsuit}}, & \textcolor{red}{\mathrm{A\blacklozenge}}, & \mathrm{A\spadesuit}, & \mathrm{A\clubsuit}, \\ \textcolor{red}{\mathrm{J\heartsuit}}, & \textcolor{red}{\mathrm{J\blacklozenge}}, & \mathrm{J\spadesuit}, & \mathrm{J\clubsuit}, \\ \textcolor{red}{\mathrm{Q\heartsuit}}, & \textcolor{red}{\mathrm{Q\blacklozenge}}, & \mathrm{Q\spadesuit}, & \mathrm{Q\clubsuit}, \\ \textcolor{red}{\mathrm{K\heartsuit}}, & \textcolor{red}{\mathrm{K\blacklozenge}}, & \mathrm{K\spadesuit}, & \mathrm{K\clubsuit} \end{Bmatrix}. \]

En términos de estos eventos, lo que queremos saber es $\Prob{A \mid B}$. Entonces necesitaremos la probabilidad de $A \cap B$. Por ello, observa que $A \cap B = \{ \mathrm{\textcolor{red}{K\heartsuit}, \textcolor{red}{K\blacklozenge}, K\spadesuit, K\clubsuit } \}$. Además, como se trata de un ejemplo de conteo, asumiremos que se toma la carta de manera equiprobable. Así, se tiene que

\[ \Prob{A \cap B} = \frac{|A \cap B|}{|\Omega|} = \frac{4}{52} = \frac{1}{13},\]

\[ \Prob{B} = \frac{|B|}{|\Omega|} = \frac{16}{52} = \frac{4}{13}.\]

Por lo tanto,

\[ \Prob{A \mid B} = \frac{\Prob{A \cap B}}{\Prob{B}} = \frac{\frac{1}{13}}{\frac{4}{13}} = \frac{1}{4}. \]

En conclusión, la probabilidad de que la carta obtenida sea un rey sabiendo que es un as o una carta con ilustración es $\Prob{A \mid B} = 0.25$.


También habrá ocasiones en las que la probabilidad condicional ya es conocida, y se puede utilizar para el cálculo de otras probabilidades.

Ejemplo. En el refrigerador de una casa hay $8$ latas de refresco y $4$ latas de cerveza. Una persona decide agarrar, sin mirar, una lata para su amiga. Después, vuelve a meter la mano al refrigerador, sin mirar, para tomar una lata para ella misma. Definimos los siguientes eventos:

  • $A$: La primera selección es una lata de refresco.
  • $B$: La segunda selección es una lata de refresco.

Podemos utilizar la regla multiplicativa para determinar la probabilidad de que las dos latas elegidas son de refresco. Esto corresponde al evento $A \cap B$, y por la regla multiplicativa:

\[ \Prob{A \cap B} = \Prob{A} \Prob{B \mid A}. \]

Ahora, suponiendo equiprobabilidad, $\Prob{A} = \frac{8}{12} = \frac{2}{3}$, pues hay $8$ latas de refresco y $12$ latas en total. ¿Es posible saber $\Prob{B \mid A}$? ¡Sí! Pues cuando ya se observó $A$, quedan $7$ latas de refresco y $11$ latas en total, así que $\Prob{B \mid A} = \frac{7}{11}$. De este modo, tenemos que

\[ \Prob{A \cap B} = {\left( \frac{2}{3} \right)}{\left( \frac{7}{11} \right)} = \frac{14}{33}. \]

Del mismo modo, podemos obtener la probabilidad de que las dos latas sean de cerveza. Para ello, observa que el evento de que ambas latas sean de cerveza es $A^{\mathsf{c}} \cap B^{\mathsf{c}}$. Así,

\[ \Prob{A^{\mathsf{c}} \cap B^{\mathsf{c}}} = \Prob{A^{\mathsf{c}}} \Prob{B^{\mathsf{c}} \mid A^{\mathsf{c}}}. \]

Observa que $\Prob{A^{\mathsf{c}}} = \frac{4}{12} = \frac{1}{3}$, y que $\Prob{B^{\mathsf{c}} \mid A^{\mathsf{c}}} = \frac{3}{11}$, similar al caso anterior. Por ello, tenemos que

\[ \Prob{A^{\mathsf{c}} \cap B^{\mathsf{c}}} = {\left( \frac{1}{3} \right)}{\left( \frac{3}{11} \right)} = \frac{1}{11}. \]

La probabilidad condicional también puede resultar útil para el cálculo de la probabilidad de un evento. Por ejemplo, ¿cuál será la probabilidad de $B$? Podemos auxiliarnos de la aditividad de una medida de probabilidad, pero para ello debemos de partir a $B$ en pedazos ajenos. Para hacerlo, observa que $B = B \cap \Omega$, sea cual sea el espacio muestral $\Omega$, pues $B \subseteq \Omega$. Además, $\Omega = A \cup A^{\mathsf{c}}$, por lo que

\[ B = B \cap \Omega = B \cap (A \cup A^{\mathsf{c}}) = (B \cap A) \cup (B \cap A^{\mathsf{c}}). \]

Nota que los eventos $B \cap A$ y $B \cap A^{\mathsf{c}}$ son ajenos, por lo que

\[ \Prob{B} = \Prob{ (B \cap A) \cup (B \cap A^{\mathsf{c}}) } = \Prob{B \cap A} + \Prob{B \cap A^{\mathsf{c}}}, \]

y por la regla multiplicativa, obtenemos que

\begin{align*} \Prob{B} &= \Prob{A}\Prob{B \mid A} + \Prob{A^{\mathsf{c}}} \Prob{B \mid A^{\mathsf{c}}} \\ &= {\left( \frac{2}{3} \right)}{\left( \frac{7}{11} \right)} + {\left( \frac{1}{3} \right)}{\left( \frac{8}{11} \right)} \\ &= \frac{14}{33} + \frac{8}{33} \\ &= \frac{22}{33} \\ &= \frac{2}{3}. \end{align*}


El resultado que usamos al final del último ejemplo es muy importante, y es comocido como el teorema de probabilidad total. Lo veremos propiamente (y de manera más general) en una sección posterior.

Ejemplo. Considera el experimento de lanzar un dado $2$ veces consecutivas. En este caso, el espacio muestral $\Omega$ puede verse como

\[ \Omega = \{1,2,3,4,5,6\}^{2} = \begin{Bmatrix} (1,1), & (1,2), & (1,3), & (1,4), & (1,5), & (1,6), \\ (2,1), & (2,2), & (2,3), & (2,4), & (2,5), & (2,6), \\ (3,1), & (3,2), & (3,3), & (3,4), & (3,5), & (3,6), \\ (4,1), & (4,2), & (4,3), & (4,4), & (4,5), & (4,6), \\ (5,1), & (5,2), & (5,3), & (5,4), & (5,5), & (5,6), \\ (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix} \]

donde la primera entrada de cada par ordenado es el resultado del primer lanzamiento y la segunda entrada es el resultado del segundo lanzamiento. ¿Cuál será la probabilidad de que la suma de los dos resultados sea mayor a $6$ dado que en el primer lanzamiento se obtuvo un $3$?

Considera los siguientes eventos:

  • $A$: el evento de que el primer lanzamiento sea un $3$. Esto quiere decir que\[ A = \{ (3,1), (3,2), (3,3), (3,4), (3,5), (3,6) \}. \]
  • $B$: el evento de que la suma de ambos resultados sea mayor a $6$. Primero, podemos escribir a $B$ como\[ B = \{ (x,y) \in \Omega \mid x + y > 6 \}. \] Explícitamente, los elementos de $B$ son\[ B = \begin{Bmatrix} (1,6), & (2,5), & (2,6), & (3,4), & (3,5), & (3,6), & (4,3), \\ (4,4), & (4,5), & (4,6), & (5,2), & (5,3), & (5,4), & (5,5), \\ (5,6), & (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix},\]que son precisamente todos los pares ordenados en $\Omega$ cuyas entradas suman más de $6$.

Así, la probabilidad que queremos obtener es $\Prob{B \mid A}$. En este ejemplo no hemos especificado una medida de probabilidad, así que asumiremos equiprobabilidad. Por ello, el cálculo de \(\Prob{A}\) y \(\Prob{B}\) es muy sencillo en este caso. Para \(A\) tenemos que

\begin{align*} \Prob{A} &= \frac{|A|}{|\Omega|} = \frac{6}{36} = \frac{1}{6}. \end{align*}

Por otro lado, para \(B\) se tiene que

\begin{align*} \Prob{B} &= \frac{|B|}{|\Omega|} = \frac{21}{36} =\frac{7}{12}. \end{align*}

Además, para calcular \(\Prob{B \mid A}\) necesitamos \(\Prob{A \cap B}\). Realizando esta intersección obtenemos que \(A \cap B\) es

\begin{align*} A \cap B &= \{(3,4), (3,5), (3,6) \}, \end{align*}

por lo que \(\Prob{A \cap B} = \frac{3}{36} = \frac{1}{12}\). En consecuencia, tenemos que

\begin{align*} \Prob{B \mid A} &= \frac{\Prob{A \cap B}}{\Prob{B}} = \frac{\frac{1}{12}}{\frac{1}{6}} = \frac{6}{12} = \frac{1}{2}. \end{align*}

Es decir, la probabilidad de que la suma de los dos resultados sea mayor a \(6\) sabiendo que el primer lanzamiento fue un \(3\) es de \(0.5\). En contraste, la probabilidad (sin condicionar) de que la suma de los dos resultados sea mayor a \(6\) es \(\frac{7}{12} = 0.5833\ldots\)


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sea $A \in \mathscr{F}$ un evento tal que $\Prob{A} > 0$. Demuestra que la probabilidad condicional dado $A$ es una medida de probabilidad. Es decir, demuestra que la función $\mathbb{P}_{A}\colon \mathscr{F} \rightarrow \RR$ dada por: \[ \mathbb{P}_{A}(B) = \Prob{B \mid A}, \]para cada $B \in \mathscr{F}$, es una medida de probabilidad. Sugerencia: Usa la definición de $\Prob{B \mid A}$ y aprovecha que $\mathbb{P}$ es una medida de probabilidad.
  2. Repite lo que hicimos en el ejemplo de las latas en el refrigerador, pero asumiendo que hay $7$ latas de refresco y $3$ latas de cerveza.
  3. En el ejemplo de lanzar un dado $2$ veces, obtén la probabilidad de que la suma de los dos resultados sea mayor a $7$ dado que en le primer lanzamiento se obtuvo $2$ o $3$.
  4. Dados dos eventos $A$, $B$ con $\Prob{A}$, $\Prob{B} > 0$, ¿siempre es cierto que $\Prob{A \mid B} = \Prob{B \mid A}$? Si crees sí, demuéstralo; si crees que no, exhibe un contraejemplo.

Más adelante…

La probabilidad condicional resulta una herramienta fundamental en la teoría de la probabilidad. Habrá ejemplos y ejercicios (y, por consiguiente, aplicaciones) en los que la información que se te da está en términos de condicionales. Más adelante veremos algunas fórmulas que permiten calcular la probabilidad de eventos haciendo uso de probabilidades condicionales.

En la siguiente entrada veremos un concepto que está cercanamente relacionado con la probabilidad condicional: la noción de independencia de eventos.

Entradas relacionadas