Archivo del Autor: Octavio Daniel Ríos García

Probabilidad I: Independencia de Eventos

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior introdujimos un nuevo concepto: la probabilidad condicional. Vimos que dada una medida de probabilidad $\mathbb{P}$, para un evento $A$ tal que $\Prob{A} > 0$, podemos calcular la probabilidad de que ocurra otro evento $B$ condicionado a que ya ocurrió $A$. Este concepto es importante, pues también habrá veces en las que la probabilidad condicional $\Prob{B \mid A}$ es la única que se conoce.

Por otro lado, hay algo que también nos debe de interesar. Para dos eventos $A$, $B$ tales que $\Prob{A} > 0$, ¿será siempre cierto que condicionar a que $A$ ya ocurrió cambia la probabilidad de $B$? Es decir, ¿siempre es cierto que $\Prob{B} \neq \Prob{B \mid A}$? La respuesta es que no. Al definir eventos, encontraremos casos en los que la probabilidad de uno no afecta la del otro. Esta propiedad es conocida como independencia de eventos. En esta entrada veremos la definición de independencia de $2$ eventos. Después, veremos cómo se extiende para $3$ o más eventos, pues no es inmediato deducirla a partir de la independencia de $2$ eventos.

Independencia de dos eventos

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Dados dos eventos $A$ y $B$, es posible que al condicionar a que $A$ ya ocurrió, la probabilidad de $B$ no cambie. Esto es, que $\Prob{B} = \Prob{B \mid A}$. De manera intuitiva, esto quiere decir que la ocurrencia o no-ocurrencia de $A$ no cambia la probabilidad de $B$ (y viceversa). Esta propiedad es conocida como independencia, y se define a continuación:


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Diremos que dos eventos $A$ y $B$ son independientes si se cumple que

\[ \Prob{A \cap B} = \Prob{A} \Prob{B}. \]


Una consecuencia inmediata de la definición anterior es que si $A$ y $B$ son eventos independientes, entonces $\Prob{B \mid A} = \Prob{B}$ y $\Prob{A \mid B} = \Prob{A}$ siempre que $\Prob{A} > 0$ y $\Prob{B} > 0$.

Comentamos que cuando $A$ y $B$ son independientes, la ocurrencia o no-ocurrencia de $A$ no cambia la probabilidad de $B$. Por ejemplo, supón que $A$ y $B$ son eventos independientes tales que $\Prob{A} = 0.2$ y $\Prob{B} = 0.4$. Si realizaras el experimento aleatorio correspondiente muchas veces, se espera que en $20\%$ de esas realizaciones ocurra $A$, y en un $40\%$ ocurra $B$. Al ser independientes, de aquellas realizaciones en las que ocurrió $A$, $B$ ocurriría en un $40\%$ de ellas, pues su probabilidad no se ve afectada por la ocurrencia de $A$ (recuerda, son independientes). Así, $\Prob{A}\Prob{B} = (0.2)(0.4) = 0.08$, y en consecuencia, $\Prob{B \mid A} = \frac{0.08}{0.2} = 0.4$, que es precisamente $\Prob{B}$.

Ejemplo. Supón que realizas $3$ lanzamientos de moneda de manera equiprobable. Es decir, si $\mathrm{A}$ representa a «águila» y $\mathrm{S}$ representa a «sol», tenemos el siguiente espacio muestral equiprobable $\Omega$:

\[ \Omega = \begin{Bmatrix} \mathrm{(A, A, A)}, & \mathrm{(A, A, S)}, & \mathrm{(A, S, A)}, & \mathrm{(S, A, A)}, \\ \mathrm{(A, S, S)}, & \mathrm{(S, A, S)}, & \mathrm{(S, S, A)}, & \mathrm{(S, S, S)} \end{Bmatrix}, \]

donde cada resultado tiene probabilidad de ocurrencia de $\frac{1}{|\Omega|} = \frac{1}{8}$. Podemos acordar la siguiente convención para los distintos resultados de $\Omega$:

\[ \Omega = \{ \mathrm{AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} \}, \]

simplificando un poco la escritura de los eventos que veremos a continuación. Sean $A$, $B$ y $C$ los siguientes eventos:

  • $A$: El primer lanzamiento es águila. En consecuencia, $A = \{ \mathrm{AAA, AAS, ASA, ASS} \}$. Además, $\Prob{A} = \frac{4}{8} = \frac{1}{2}$.
  • $B$: El segundo lanzamiento es águila. Así, $B = \{ \mathrm{AAA, AAS, SAA, SAS} \}$. También se tiene que $\Prob{B} = \frac{1}{2}$.
  • $C$: Hay al menos dos águilas. Esto es, $C = \{ \mathrm{AAA, AAS, ASA, SAA} \}$. A su vez, se tiene que $\Prob{C} = \frac{1}{2}$.

Las probabilidades de cada evento se obtuvieron considerando que el espacio muestral es equiprobable.

  1. Se tiene que $A \cap B = \{ \mathrm{AAA, AAS} \}$, por lo que \[ \Prob{A \cap B} = \frac{2}{8} = \frac{1}{4} = {\left(\frac{1}{2}\right)} {\left(\frac{1}{2}\right)} = \Prob{A}\Prob{B}. \]En consecuencia, se puede concluir que $A$ y $B$ son independientes.
  2. Por otro lado, $A \cap C = \{ \mathrm{AAA, AAS, ASA } \}$. Así, tenemos que \[ \Prob{A \cap C} = \frac{3}{8} \neq {\left(\frac{1}{2}\right)} {\left(\frac{1}{2}\right)} = \Prob{A}\Prob{C}.\]Como se tiene que $\Prob{A \cap C} \neq \Prob{A}\Prob{C}$, $A$ y $C$ no son independientes.
  3. De manera similar, $B \cap C = \{ \mathrm{AAA, AAS, SAA } \}$, por lo que \[ \Prob{B \cap C} = \frac{3}{8} \neq {\left(\frac{1}{2}\right)} {\left(\frac{1}{2}\right)} = \Prob{B}\Prob{C},\]y se concluye que $B$ y $C$ no son independientes.

Observa que los resultados en 2 y 3 tienen sentido con nuestra noción intuitiva de independencia y probabilidad condicional. Por ejemplo, si queremos la probabilidad condicional de $A$ dado $C$, $\Prob{A \mid C}$, obtenemos que esta es

\[ \Prob{A \mid C} = \frac{\Prob{A \cap C}}{\Prob{C}} = \frac{\frac{3}{8}}{\frac{1}{2}} = \frac{3}{4}, \]

que tiene sentido, pues $3$ de los $4$ resultados en $C$ cumplen lo que establece el evento $A$, «que el primer lanzamiento sea águila». Esto exhibe que condicionar a que $C$ ya ocurrió cambia la probabilidad de ocurrencia de $A$, poniendo en evidencia que no son independientes.

El evento $B^{\mathsf{c}} = \{ \mathrm{SSS, SSA, ASS, ASA} \}$ es tal que $\Prob{B^{\mathsf{c}}} = \frac{1}{2}$. Además, se tiene que $A \cap B^{\mathsf{c}} = \{ \mathrm{ASS, ASA} \}$, por lo que

\[ \Prob{A \cap B^{\mathsf{c}}} = \frac{1}{4} = {\left(\frac{1}{2}\right)} {\left(\frac{1}{2}\right)} = \Prob{A}\Prob{B^{\mathsf{c}}}. \]

Esto nos lleva a concluir que no sólo los eventos $A$ y $B$ son independientes: $A$ y $B^{\mathsf{c}}$ también lo son.


La última parte de este ejemplo revela una propiedad de la independencia de eventos que enunciamos a continuación.


Teorema. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $A$ y $B \in \mathscr{F}$ eventos. Si $A$ y $B$ son independientes, entonces:

  1. $A$ y $B^{\mathsf{c}}$ son independientes,
  2. $A^{\mathsf{c}}$ y $B$ son independientes,
  3. $A^{\mathsf{c}}$ y $B^{\mathsf{c}}$ son independientes.

Este último teorema corresponde a la idea de que cuando dos eventos son indepenedientes, la no-ocurrencia de un evento no afecta la probabilidad de que ocurra (o no ocurra) el otro.

Independencia de tres eventos

La definición de independencia puede extenderse a más de dos eventos. Sin embargo, esta extensión se debe de hacer de manera delicada. Si tenemos $3$ eventos $A$, $B$ y $C$, ¿cómo podríamos decir que estos $3$ eventos son independientes? Claramente, queremos preservar esa noción de que la ocurrencia o no ocurrencia de uno o más de estos eventos no afecta la probabilidad de ocurrencia de los restantes.

Más concretamente, esto quiere decir que si $A$, $B$ y $C$ son independientes, entonces la ocurrencia o no ocurrencia de $A$ no debería de afectar la probabilidad de ocurrencia de $B$, ni la de $C$. Similarmente, la ocurrencia de $B$ no debería de afectar la probabilidad de $A$, ni la de $C$; y tampoco la ocurrencia de $C$ debería de afectar la probabilidad de $A$, ni la de $B$.

Además, también deberíamos de pedir que la ocurrencia de $A$ y de $B$ (al mismo tiempo) no debe de afectar la probabilidad de que ocurra $C$. Del mismo modo, la ocurrencia de $A$ y $C$ no debe de afectar la probabilidad de $B$; ni la ocurrencia de $B$ y $C$ debe de afectar la probabilidad de $A$.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sean $A$, $B$ y $C$ eventos. Diermos que $A$, $B$ y $C$ son independientes si

  1. $\Prob{A \cap B} = \Prob{A} \Prob{B}$.
  2. $\Prob{A \cap C} = \Prob{A} \Prob{C}$.
  3. $\Prob{B \cap C} = \Prob{B} \Prob{C}$.
  4. $\Prob{A \cap B \cap C} = \Prob{A} \Prob{B} \Prob{C}$.

Las propiedades 1 a 3 corresponden a la independencia dos a dos que queremos entre los eventos. Además, en conjunto con la propiedad 4 de esta definición, capturan la idea de que la ocurrencia de dos de los eventos no debería de afectar la probabilidad del evento restante. Si $A$, $B$ y $C$ son eventos independientes, entonces

\[ \Prob{A \cap B \cap C} = \Prob{A} \Prob{B} \Prob{C} = \Prob{B} \Prob{A} \Prob{C}, \]

y como $\Prob{A \cap C} = \Prob{A} \Prob{C}$, entonces se tiene que

\[ \Prob{A \cap B \cap C} = \Prob{B} \Prob{A \cap C}, \]

que justamente corresponde a que la ocurrencia de $A$ y $C$ no afecta la probabilidad de $B$. Lo mismo puede hacerse análogamente para el resto de combinaciones de eventos posibles.

En apariencia, la definición de independencia para $3$ eventos parece un poco excesiva. ¿No será posible deducir las propiedades 1, 2 y 3 a partir de la 4? ¿O quizás deducir la propiedad 4 a partir de las primeras 3? Veamos un par de ejemplos para ver que no es el caso.

Ejemplo. Considera nuevamente el experimento de lanzar una moneda $3$ veces de manera equiprobable. El espacio muestral $\Omega$ de este experimento es

\[ \Omega = \{ \mathrm{AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS} \}, \]

donde $\mathrm{A}$ es «águila» y $\mathrm{S}$ es «sol». Considera los siguientes $2$ eventos:

  1. $A$ el evento de que el primer lanzamiento es «águila»: $A = \{ \mathrm{AAA, AAS, ASA, ASS} \}$.
  2. $B$ el evento de que los primeros dos lanzamientos son «águilas», o los últimos dos lanzamientos son «soles». Esto es, $B = \{ \mathrm{AAA, AAS, ASS, SSS} \}$.

Puede observarse intuitivamente que los dos eventos no son independientes, pues ambos dependen del resultado del primer lanzamiento. Formalmente, basta con demostrar que no cumplen la definición de independencia. Para ello, nota que $A \cap B = \{ \mathrm{AAA, AAS, ASS} \}$, por lo que

\[ \Prob{A \cap B} = \frac{|A \cap B|}{|\Omega|} = \frac{3}{8}. \]

Por otro lado, se tiene que $\Prob{A} = \frac{1}{2}$ y $\Prob{B} = \frac{1}{2}$, así que

\[ \Prob{A} \Prob{B} = {\left( \frac{1}{2} \right)}{\left( \frac{1}{2} \right)} = \frac{1}{4}. \]

En conclusión, tenemos que $\Prob{A \cap B} \neq \Prob{A} \Prob{B}$, y en consecuencia, $A$ y $B$ no son independientes.

Ahora, consideremos un tercer evento:

  1. $C$ el evento de que los últimos dos lanzamientos son distintos. En este caso, se tiene que el evento es $C = \{ \mathrm{AAS, ASA, SAS, SSA} \}$.

Para $C$, tenemos que $\Prob{C} = \frac{1}{2}$. Además, tenemos que $A \cap B \cap C = \{ \mathrm{AAS} \}$, por lo que

\[ \Prob{A \cap B \cap C} = \frac{1}{8} = {\left( \frac{1}{2} \right)}{\left( \frac{1}{2} \right)}{\left( \frac{1}{2} \right)} = \Prob{A} \Prob{B} \Prob{C}, \]

así que $A$, $B$ y $C$ cumplen la propiedad 4 de la definición de independencia de $3$ eventos, a pesar de que no cumplen la propiedad 1. Esto quiere decir que cuando tú te encuentres con tres eventos $A$, $B$ y $C$ tales que $\Prob{A \cap B \cap C} = \Prob{A} \Prob{B} \Prob{C}$, no se puede deducir que son independientes dos a dos, ¡también tienes que comprobarlo para determinar si son independientes!


Ejemplo. Bueno, ¿y qué hay de la interacción opuesta? Si $A$, $B$ y $C$ son eventos tales que

  1. $\Prob{A \cap B} = \Prob{A} \Prob{B}$,
  2. $\Prob{A \cap C} = \Prob{A} \Prob{C}$,
  3. $\Prob{B \cap C} = \Prob{B} \Prob{C}$,

¿es eso suficiente para concluir que son independientes? Es decir, ¿de ahí podemos deducir que $\Prob{A \cap B \cap C} = \Prob{A} \Prob{B} \Prob{C}$? La respuesta es que no. Considera el experimento de lanzar una moneda $4$ veces de manera equiprobable. En este caso, podemos escribir al espacio muestral $\Omega$ como sigue.

\[ \Omega = \begin{Bmatrix} \mathrm{AAAA}, & \mathrm{AAAS}, & \mathrm{AASA}, & \mathrm{ASAA}, \\ \mathrm{SAAA}, & \mathrm{AASS}, & \mathrm{ASAS}, & \mathrm{SAAS}, \\ \mathrm{ASSA}, & \mathrm{SASA}, & \mathrm{SSAA}, & \mathrm{SSSA}, \\ \mathrm{SSAS}, & \mathrm{SASS}, & \mathrm{ASSS}, & \mathrm{SSSS} \end{Bmatrix}. \]

Considera los siguientes $3$ eventos:

  1. $A$ el evento de que el primer lanzamiento es «águila». Esto es, \[ A = \{ \mathrm{AAAA, AAAS, AASA, ASAA, AASS, ASAS, ASSA, ASSS}\}. \]
  2. $B$ el evento de que el último lanzamiento es «águila». Es decir,\[ B = \{ \mathrm{AAAA, AASA, ASAA, SAAA, ASSA, SASA, SSAA, SSSA} \}. \]
  3. $C$ el evento de que los cuatro lanzamientos resulten en $2$ «águilas» y $2$ «soles». Así,\[ C = \{ \mathrm{AASS, ASAS, SAAS, SASA, ASSA, SSAA} \}. \]

En consecuencia, encontramos que $\Prob{A} = \frac{8}{16} = \frac{1}{2}$, $\Prob{B} = \frac{8}{16} = \frac{1}{2}$, y $\Prob{C} = \frac{6}{16} = \frac{3}{8}$.

Al tomar las intersecciones de estos $3$ eventos, obtenemos lo siguiente:

  • $A \cap B = \{ \mathrm{AAAA, AASA, ASAA, ASSA} \}$, por lo que \[ \Prob{A \cap B} = \frac{4}{16} = \frac{1}{4} = {\left( \frac{1}{2} \right)}{\left( \frac{1}{2} \right)} = \Prob{A} \Prob{B}, \]y en consecuencia, $A$ y $B$ son independientes.
  • $A \cap C = \{ \mathrm{AASS, ASAS, ASSA} \}$, y por lo tanto, \[ \Prob{A \cap C} = \frac{3}{16} = {\left( \frac{1}{2} \right)}{\left( \frac{3}{8} \right)} = \Prob{A} \Prob{C}, \]así que $A$ y $C$ son independientes.
  • $B \cap C = \{ \mathrm{SASA, ASSA, SSAA} \}$, y así, \[ \Prob{B \cap C} = \frac{3}{16} = {\left( \frac{1}{2} \right)}{\left( \frac{3}{8} \right)} = \Prob{B} \Prob{C}, \]de donde se concluye que $B$ y $C$ son independientes.

No obstante, nota que $A \cap B \cap C = \{ \mathrm{ASSA} \}$. Por ello, se tiene que

\[ \Prob{A \cap B \cap C} = \frac{1}{16} \neq \frac{3}{32} = {\left( \frac{1}{2} \right)}{\left( \frac{1}{2} \right)}{\left( \frac{3}{8} \right)} = \Prob{A} \Prob{B} \Prob{C}. \]

Por lo tanto, $\Prob{A \cap B \cap C} \neq \Prob{A} \Prob{B} \Prob{C}$, así que $A$, $B$ y $C$ no son independientes. Este ejemplo exhibe que aún cuando tengas tres eventos $A$, $B$ y $C$ independientes dos a dos, esto no asegura que se cumple que $\Prob{A \cap B \cap C} = \Prob{A} \Prob{B} \Prob{C}$, ¡debes de comprobarlo para concluir que los $3$ eventos son independientes!


Independencia de más de 3 eventos

La definición de independencia puede generalizarse para $n \in \mathbb{N}^{+}$ eventos. La idea de la definición será la misma que usamos para definir la independencia de $3$ eventos, pero extendida a todas las combinaciones de tamaño $k$ posibles, con $2 \leq k \leq n$. Presentamos esta definición a continuación.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sea $n \in \mathbb{N}^{+}$ tal que $n \geq 2$. Sean $A_{1}$, $A_{2}$, …, $A_{n}$ eventos. Diremos que son independientes si y sólamente si para toda colección finita $\{i_{1}, \ldots, i_{k}\}$ de índices distintos en $\{1,\ldots,n\}$ se cumple que

\[ \Prob{A_{i_{1}} \cap A_{i_{2}} \cap \cdots \cap A_{i_{k}}} = \Prob{A_{i_{1}}} \Prob{A_{i_{2}}} \cdots \Prob{A_{i_{k}}}. \]


La definición anterior puede apantallar un poco, pero observa que lo que significa es que se tiene una lista de propiedades que debe de cumplir la familia $A_{1}$, $A_{2}$, …, $A_{n}$ para poder decir que son independientes. De manera más explícita, estas serían:

  • $\Prob{A_{i_{1}} \cap A_{i_{2}}} = \Prob{A_{i_{1}}}\Prob{A_{i_{2}}}$ para cada $i_{1}$, $i_{2} \in \{1,\ldots,n\}$ tales que $i_{1} \neq i_{2}$.
  • $\Prob{A_{i_{1}} \cap A_{i_{2}} \cap A_{i_{3}}} = \Prob{A_{i_{1}}} \Prob{A_{i_{2}}} \Prob{A_{i_{3}}}$ para cada $i_{1}$, $i_{2}$, $i_{3} \in \{1,\ldots, n\}$ tales que $i_{1} \neq i_{2} \neq i_{3}$.

$\vdots$

  • $\Prob{A_{1} \cap A_{2} \cap \cdots \cap A_{n}} = \Prob{A_{1}}\Prob{A_{2}} \cdots \Prob{A_{n}}$.

Es decir, para verificar que $n$ eventos son independientes, hay que checar que la probabilidad «abre» la intersección como un producto primero con todas las combinaciones de eventos dos a dos, luego tres a tres, y así sucesivamente hasta llegar a la propiedad con todos los eventos.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sean $A$ y $B$ eventos tales que $\Prob{A} > 0$ y $\Prob{B} > 0$. Demuestra que si $A$ y $B$ son independientes, entonces se cumple que $\Prob{B \mid A} = \Prob{B}$ y $\Prob{A \mid B} = \Prob{A}$.
  2. Demuestra que para cualesquiera $A$, $B$ eventos, si $A$ y $B$ son independientes, entonces $A^{\mathsf{c}}$ y $B$ son independientes.
  3. A partir de la definición de independencia de $n$ eventos, escribe las propiedades que deben de cumplir $4$ eventos $A$, $B$, $C$ y $D$ para ser llamados independientes. Sugerencia: Primero revisa cómo se llega a la definición para $3$ eventos a partir de la de $n$ eventos.

Más adelante…

La independencia de eventos es un concepto importantísimo en la probabilidad, pues en muchos ejercicios y aplicaciones, se hacen supuestos de independencia. A pesar de que demostrar que $n$ conjuntos son independientes puede resultar complicado, cuando asumes la independencia, tienes una gran cantidad de propiedades a tu disposición. Por ello, en muchos teoremas básicos, la independencia se toma como hipótesis.

Más adelante, cuando veamos el concepto de variable aleatoria, veremos lo que significa que dos variables aleatorias sean independientes, y será necesario utilizar las definiciones que hemos visto aquí.

El siguiente tema que abordaremos son dos fórmulas para el cálculo de probabilidades muy útiles y que se basan en la probabilidad condicional: el teorema de probabilidad total y el teorema de Bayes.

Entradas relacionadas

Probabilidad I: Probabilidad Condicional

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior concluimos nuestro estudio de algunos de los enfoques más importantes en la historia de la probabilidad. Más aún, vimos que podemos plasmar estos enfoques en medidas de probabilidad específicas. Sin embargo, estas no son las únicas medidas de probabilidad que existen, ¡hay muchísimas más!

Pasaremos ahora a otro asunto. Dada una medida de probabilidad $\mathbb{P}$, construiremos un nuevo concepto llamado probabilidad condicional. A grandes rasgos, lo que queremos hacer es medir la probabilidad de un evento $B$ condicionando a que otro evento $A$ ya ocurrió. En esencia, lo que queremos es una medida que nos permita capturar el efecto que tiene la información de $A$ sobre la probabilidad de $B$. Sin más preámbulos, veamos cómo lo haremos.

Motivación de la probabilidad condicional

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad cualquiera, y $A \in \mathscr{F}$ un evento de $\Omega$. Ahora, a partir de $\mathbb{P}$, ¿cómo podríamos construir una medida que exprese la probabilidad de que ocurra un evento $B$ condicionando a que $A$ ya ocurrió?

Para atacar este problema, sea $B \in \mathscr{F}$ un evento cualquiera. Recordando que el evento $B \cap A$ es aquel en donde ocurren $B$ y $A$, así que $\Prob{B \cap A}$ es la probabilidad de que ocurran $B$ y $A$. Sin embargo, esta probabilidad de ocurrencia se calcula con respecto a todos los resultados en $\Omega$, no sólamente sobre aquellos eventos en los que ocurre $A$. Por ejemplo, si los eventos $B$ y $A$ son tales que $\Prob{B \cap A} = 0.1$ y $\Prob{A} = 0.4$, se espera que si observas el fenómeno aleatorio muchas veces, en un $40\%$ de los resultados ocurrirá $A$ y en $10\%$ ocurrirá $B$ y $A$. No obstante, al fijarnos únicamente en aquellos resultados en los que ocurrió $A$, aproximadamente el $\frac{0.1}{0.4} = 0.25 = 25\%$ de ellos corresponde a resultados en los que también ocurrió $B$.

Por ello, es necesario «reescalar» la expresión $\Prob{B \cap A}$ para que efectivamente represente la probabilidad de que ocurra $B$ dado que ya ocurrió $A$, donde $0$ es lo más improbable y $1$ es lo más probable. El reescalamiento se hace con respecto a $A$, que es el conjunto que asumimos que ya ocurrió. Para hacerlo, tomamos el cociente $\frac{\Prob{B \cap A}}{\Prob{A}}$, que captura la idea de restringirnos a los resultados en los que ya ocurrió $A$.

Definición de la probabilidad condicional

Tomando en cuenta la motivación de la sección anterior, se define la probabilidad condicional como sigue.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sea $A \in \mathscr{F}$ un evento tal que $\Prob{A} > 0$. Para cada $B \in \mathscr{F}$ se define $\Prob{B \mid A}$, la probabilidad condicional de $B$ dado $A$, como

\[ \Prob{B \mid A} = \frac{\Prob{B \cap A}}{\Prob{A}}. \]


En la probabilidad condicional, el conjunto $A$ se interpreta como información conocida. Es decir, imagina que tienes ante tí un fenómeno aleatorio con espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$, y un evento $A \in \mathscr{F}$. Entonces, si ya ocurrió $A$, ¿cómo se ve afectada la probabilidad de algún evento $B$ tomando en cuenta esa información? La respuesta a esa pregunta la obtenemos con la probabilidad condicional de $B$ dado $A$.

Es posible dar una definición para la probabilidad condicional dado un evento de probabilidad $0$. Es decir, puede definirse cuando $\Prob{A} = 0$. Sin embargo, no contamos con las herramientas matemáticas suficientes para hacerlo. No obstante, ¿tiene sentido hacer semejante barbaridad? ¡Resulta que sí! Aún cuando la probabilidad de un evento es $0$, esto no significa que sea imposible que ocurra. Recuerda, cuando un evento tiene probabilidad $0$, quiere decir que su ocurrencia es lo más improbable posible. Aún así, esto no significa «imposible» en todos los casos. Más adelante veremos casos en los que surgen eventos de probabilidad $0$ que sí podrían ocurrir, de manera muy natural.

Una consecuencia inmediata de la definición anterior es que para cualesquiera eventos $A$, $B$ tales que $\Prob{A}$, $\Prob{B} > 0$ se cumple que

\[ \Prob{B \cap A} = \Prob{B \mid A} \Prob{A}, \]

y que

\[ \Prob{A \cap B} = \Prob{A \mid B} \Prob{B}, \]

Y como $\Prob{A \cap B} = \Prob{B \cap A}$ (pues $A \cap B$ y $B \cap A$ son el mismo evento), se tiene que

  • $\Prob{A \cap B} = \Prob{A \mid B} \Prob{B}$, y
  • $\Prob{A \cap B} = \Prob{B \mid A} \Prob{A}$.

Este resultado es conocido como la regla multiplicativa.

Ejemplos

Ejemplo. Recordemos que en una baraja estándar de $52$ cartas hay $12$ cartas con ilustración: hay $4$ jotas, reinas y reyes. Imagina que un amigo tuyo revuelve la baraja y tú tomas una carta. Le muestras la carta a tu amigo, y éste te comenta que la carta es un as o una carta con ilustración. ¿Cuál es la probabilidad de que tu carta sea un rey sabiendo esa información?

En primera, $\Omega$ es el conjunto de todas las cartas de una baraja estándar, por lo que $|\Omega| = 52$. Tenemos dos eventos que nos interesan:

  • $A$: el evento de que la carta extraída sea un rey. En consecuencia, se tiene que \[ A = \{ \mathrm{\textcolor{red}{K\heartsuit}, \textcolor{red}{K\blacklozenge}, K\spadesuit, K\clubsuit}\}. \]
  • $B$: el evento de que la carta extraída sea un as o una carta con ilustración. Es decir, $B$ es el evento \[ B = \begin{Bmatrix} \textcolor{red}{\mathrm{A\heartsuit}}, & \textcolor{red}{\mathrm{A\blacklozenge}}, & \mathrm{A\spadesuit}, & \mathrm{A\clubsuit}, \\ \textcolor{red}{\mathrm{J\heartsuit}}, & \textcolor{red}{\mathrm{J\blacklozenge}}, & \mathrm{J\spadesuit}, & \mathrm{J\clubsuit}, \\ \textcolor{red}{\mathrm{Q\heartsuit}}, & \textcolor{red}{\mathrm{Q\blacklozenge}}, & \mathrm{Q\spadesuit}, & \mathrm{Q\clubsuit}, \\ \textcolor{red}{\mathrm{K\heartsuit}}, & \textcolor{red}{\mathrm{K\blacklozenge}}, & \mathrm{K\spadesuit}, & \mathrm{K\clubsuit} \end{Bmatrix}. \]

En términos de estos eventos, lo que queremos saber es $\Prob{A \mid B}$. Entonces necesitaremos la probabilidad de $A \cap B$. Por ello, observa que $A \cap B = \{ \mathrm{\textcolor{red}{K\heartsuit}, \textcolor{red}{K\blacklozenge}, K\spadesuit, K\clubsuit } \}$. Además, como se trata de un ejemplo de conteo, asumiremos que se toma la carta de manera equiprobable. Así, se tiene que

\[ \Prob{A \cap B} = \frac{|A \cap B|}{|\Omega|} = \frac{4}{52} = \frac{1}{13},\]

\[ \Prob{B} = \frac{|B|}{|\Omega|} = \frac{16}{52} = \frac{4}{13}.\]

Por lo tanto,

\[ \Prob{A \mid B} = \frac{\Prob{A \cap B}}{\Prob{B}} = \frac{\frac{1}{13}}{\frac{4}{13}} = \frac{1}{4}. \]

En conclusión, la probabilidad de que la carta obtenida sea un rey sabiendo que es un as o una carta con ilustración es $\Prob{A \mid B} = 0.25$.


También habrá ocasiones en las que la probabilidad condicional ya es conocida, y se puede utilizar para el cálculo de otras probabilidades.

Ejemplo. En el refrigerador de una casa hay $8$ latas de refresco y $4$ latas de cerveza. Una persona decide agarrar, sin mirar, una lata para su amiga. Después, vuelve a meter la mano al refrigerador, sin mirar, para tomar una lata para ella misma. Definimos los siguientes eventos:

  • $A$: La primera selección es una lata de refresco.
  • $B$: La segunda selección es una lata de refresco.

Podemos utilizar la regla multiplicativa para determinar la probabilidad de que las dos latas elegidas son de refresco. Esto corresponde al evento $A \cap B$, y por la regla multiplicativa:

\[ \Prob{A \cap B} = \Prob{A} \Prob{B \mid A}. \]

Ahora, suponiendo equiprobabilidad, $\Prob{A} = \frac{8}{12} = \frac{2}{3}$, pues hay $8$ latas de refresco y $12$ latas en total. ¿Es posible saber $\Prob{B \mid A}$? ¡Sí! Pues cuando ya se observó $A$, quedan $7$ latas de refresco y $11$ latas en total, así que $\Prob{B \mid A} = \frac{7}{11}$. De este modo, tenemos que

\[ \Prob{A \cap B} = {\left( \frac{2}{3} \right)}{\left( \frac{7}{11} \right)} = \frac{14}{33}. \]

Del mismo modo, podemos obtener la probabilidad de que las dos latas sean de cerveza. Para ello, observa que el evento de que ambas latas sean de cerveza es $A^{\mathsf{c}} \cap B^{\mathsf{c}}$. Así,

\[ \Prob{A^{\mathsf{c}} \cap B^{\mathsf{c}}} = \Prob{A^{\mathsf{c}}} \Prob{B^{\mathsf{c}} \mid A^{\mathsf{c}}}. \]

Observa que $\Prob{A^{\mathsf{c}}} = \frac{4}{12} = \frac{1}{3}$, y que $\Prob{B^{\mathsf{c}} \mid A^{\mathsf{c}}} = \frac{3}{11}$, similar al caso anterior. Por ello, tenemos que

\[ \Prob{A^{\mathsf{c}} \cap B^{\mathsf{c}}} = {\left( \frac{1}{3} \right)}{\left( \frac{3}{11} \right)} = \frac{1}{11}. \]

La probabilidad condicional también puede resultar útil para el cálculo de la probabilidad de un evento. Por ejemplo, ¿cuál será la probabilidad de $B$? Podemos auxiliarnos de la aditividad de una medida de probabilidad, pero para ello debemos de partir a $B$ en pedazos ajenos. Para hacerlo, observa que $B = B \cap \Omega$, sea cual sea el espacio muestral $\Omega$, pues $B \subseteq \Omega$. Además, $\Omega = A \cup A^{\mathsf{c}}$, por lo que

\[ B = B \cap \Omega = B \cap (A \cup A^{\mathsf{c}}) = (B \cap A) \cup (B \cap A^{\mathsf{c}}). \]

Nota que los eventos $B \cap A$ y $B \cap A^{\mathsf{c}}$ son ajenos, por lo que

\[ \Prob{B} = \Prob{ (B \cap A) \cup (B \cap A^{\mathsf{c}}) } = \Prob{B \cap A} + \Prob{B \cap A^{\mathsf{c}}}, \]

y por la regla multiplicativa, obtenemos que

\begin{align*} \Prob{B} &= \Prob{A}\Prob{B \mid A} + \Prob{A^{\mathsf{c}}} \Prob{B \mid A^{\mathsf{c}}} \\ &= {\left( \frac{2}{3} \right)}{\left( \frac{7}{11} \right)} + {\left( \frac{1}{3} \right)}{\left( \frac{8}{11} \right)} \\ &= \frac{14}{33} + \frac{8}{33} \\ &= \frac{22}{33} \\ &= \frac{2}{3}. \end{align*}


El resultado que usamos al final del último ejemplo es muy importante, y es comocido como el teorema de probabilidad total. Lo veremos propiamente (y de manera más general) en una sección posterior.

Ejemplo. Considera el experimento de lanzar un dado $2$ veces consecutivas. En este caso, el espacio muestral $\Omega$ puede verse como

\[ \Omega = \{1,2,3,4,5,6\}^{2} = \begin{Bmatrix} (1,1), & (1,2), & (1,3), & (1,4), & (1,5), & (1,6), \\ (2,1), & (2,2), & (2,3), & (2,4), & (2,5), & (2,6), \\ (3,1), & (3,2), & (3,3), & (3,4), & (3,5), & (3,6), \\ (4,1), & (4,2), & (4,3), & (4,4), & (4,5), & (4,6), \\ (5,1), & (5,2), & (5,3), & (5,4), & (5,5), & (5,6), \\ (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix} \]

donde la primera entrada de cada par ordenado es el resultado del primer lanzamiento y la segunda entrada es el resultado del segundo lanzamiento. ¿Cuál será la probabilidad de que la suma de los dos resultados sea mayor a $6$ dado que en el primer lanzamiento se obtuvo un $3$?

Considera los siguientes eventos:

  • $A$: el evento de que el primer lanzamiento sea un $3$. Esto quiere decir que\[ A = \{ (3,1), (3,2), (3,3), (3,4), (3,5), (3,6) \}. \]
  • $B$: el evento de que la suma de ambos resultados sea mayor a $6$. Primero, podemos escribir a $B$ como\[ B = \{ (x,y) \in \Omega \mid x + y > 6 \}. \] Explícitamente, los elementos de $B$ son\[ B = \begin{Bmatrix} (1,6), & (2,5), & (2,6), & (3,4), & (3,5), & (3,6), & (4,3), \\ (4,4), & (4,5), & (4,6), & (5,2), & (5,3), & (5,4), & (5,5), \\ (5,6), & (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix},\]que son precisamente todos los pares ordenados en $\Omega$ cuyas entradas suman más de $6$.

Así, la probabilidad que queremos obtener es $\Prob{B \mid A}$. En este ejemplo no hemos especificado una medida de probabilidad, así que asumiremos equiprobabilidad. Por ello, el cálculo de \(\Prob{A}\) y \(\Prob{B}\) es muy sencillo en este caso. Para \(A\) tenemos que

\begin{align*} \Prob{A} &= \frac{|A|}{|\Omega|} = \frac{6}{36} = \frac{1}{6}. \end{align*}

Por otro lado, para \(B\) se tiene que

\begin{align*} \Prob{B} &= \frac{|B|}{|\Omega|} = \frac{21}{36} =\frac{7}{12}. \end{align*}

Además, para calcular \(\Prob{B \mid A}\) necesitamos \(\Prob{A \cap B}\). Realizando esta intersección obtenemos que \(A \cap B\) es

\begin{align*} A \cap B &= \{(3,4), (3,5), (3,6) \}, \end{align*}

por lo que \(\Prob{A \cap B} = \frac{3}{36} = \frac{1}{12}\). En consecuencia, tenemos que

\begin{align*} \Prob{B \mid A} &= \frac{\Prob{A \cap B}}{\Prob{B}} = \frac{\frac{1}{12}}{\frac{1}{6}} = \frac{6}{12} = \frac{1}{2}. \end{align*}

Es decir, la probabilidad de que la suma de los dos resultados sea mayor a \(6\) sabiendo que el primer lanzamiento fue un \(3\) es de \(0.5\). En contraste, la probabilidad (sin condicionar) de que la suma de los dos resultados sea mayor a \(6\) es \(\frac{7}{12} = 0.5833\ldots\)


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sea $A \in \mathscr{F}$ un evento tal que $\Prob{A} > 0$. Demuestra que la probabilidad condicional dado $A$ es una medida de probabilidad. Es decir, demuestra que la función $\mathbb{P}_{A}\colon \mathscr{F} \rightarrow \RR$ dada por: \[ \mathbb{P}_{A}(B) = \Prob{B \mid A}, \]para cada $B \in \mathscr{F}$, es una medida de probabilidad. Sugerencia: Usa la definición de $\Prob{B \mid A}$ y aprovecha que $\mathbb{P}$ es una medida de probabilidad.
  2. Repite lo que hicimos en el ejemplo de las latas en el refrigerador, pero asumiendo que hay $7$ latas de refresco y $3$ latas de cerveza.
  3. En el ejemplo de lanzar un dado $2$ veces, obtén la probabilidad de que la suma de los dos resultados sea mayor a $7$ dado que en le primer lanzamiento se obtuvo $2$ o $3$.
  4. Dados dos eventos $A$, $B$ con $\Prob{A}$, $\Prob{B} > 0$, ¿siempre es cierto que $\Prob{A \mid B} = \Prob{B \mid A}$? Si crees sí, demuéstralo; si crees que no, exhibe un contraejemplo.

Más adelante…

La probabilidad condicional resulta una herramienta fundamental en la teoría de la probabilidad. Habrá ejemplos y ejercicios (y, por consiguiente, aplicaciones) en los que la información que se te da está en términos de condicionales. Más adelante veremos algunas fórmulas que permiten calcular la probabilidad de eventos haciendo uso de probabilidades condicionales.

En la siguiente entrada veremos un concepto que está cercanamente relacionado con la probabilidad condicional: la noción de independencia de eventos.

Entradas relacionadas

Probabilidad I: La Probabilidad Clásica

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior concluimos nuestro estudio de los principios de conteo. Estos principios resultan muy útiles para el cálculo de cardinalidades de conjuntos. Además, la medida de probabilidad que veremos en esta entrada requiere precisamente de cardinalidades de conjuntos para ser calculada. Por ello, los principios de conteo que vimos serán cruciales para el cálculo de probabilidades bajo este enfoque.

Lo que veremos en esta entrada es el enfoque clásico de la probabilidad. A grandes rasgos, este enfoque centra su atención en la cantidad de resultados posibles de un experimento; es decir, la cardinalidad de su espacio muestral. A su vez, dado algún evento de ese espacio muestral, el enfoque clásico establecerá la probabilidad de ese evento es proporcional a su cardinalidad con respecto a la cardinalidad del espacio muestral. Esto significa que bajo el enfoque clásico, el espacio de probabilidad es equiprobable. Veamos qué queremos decir por esto.

Motivación

Ya vimos que en el enfoque frecuentista se propone que la medida de probabilidad debe de representar la «frecuencia relativa» de un evento. Por ello, en la definición de la medida de probabilidad frecuentista de un evento $A$ se toma el límite al infinito de la frecuencia relativa de $A$.

Continuando con nuestro paseo por los enfoques más importantes de la probabilidad, sigue el caso de la probabilidad clásica. En este caso partiremos de un enfoque distinto del frecuentista. Para empezar, motivaremos este enfoque con un ejemplo. Supón que nos interesa modelar el resultado de revolver una baraja inglesa y tomar $4$ cartas, sin reemplazo. Esta actividad se considera un experimento aleatorio pues se revuelve la baraja antes de tomar las $4$ cartas. Podemos representar a una baraja estándar como el conjunto

\begin{align*} \mathfrak{B} = \begin{Bmatrix} \textcolor{red}{\mathrm{A}\heartsuit}, & \textcolor{red}{1\heartsuit}, & \textcolor{red}{2\heartsuit}, & \textcolor{red}{3\heartsuit}, & \textcolor{red}{4\heartsuit}, & \textcolor{red}{5\heartsuit}, & \textcolor{red}{6\heartsuit}, & \textcolor{red}{7\heartsuit}, & \textcolor{red}{8\heartsuit}, & \textcolor{red}{9\heartsuit}, & \textcolor{red}{10\heartsuit}, & \textcolor{red}{\mathrm{J}\heartsuit}, & \textcolor{red}{\mathrm{Q}\heartsuit}, & \textcolor{red}{\mathrm{K}\heartsuit}, \\ \textcolor{red}{\mathrm{A}\blacklozenge}, & \textcolor{red}{1\blacklozenge}, & \textcolor{red}{2\blacklozenge}, & \textcolor{red}{3\blacklozenge}, & \textcolor{red}{4\blacklozenge}, & \textcolor{red}{5\blacklozenge}, & \textcolor{red}{6\blacklozenge}, & \textcolor{red}{7\blacklozenge}, & \textcolor{red}{8\blacklozenge}, & \textcolor{red}{9\blacklozenge}, & \textcolor{red}{10\blacklozenge}, & \textcolor{red}{\mathrm{J}\blacklozenge}, & \textcolor{red}{\mathrm{Q}\blacklozenge}, & \textcolor{red}{\mathrm{K}\blacklozenge}, \\ \mathrm{A}\spadesuit, & 1\spadesuit, & 2\spadesuit, & 3\spadesuit, & 4\spadesuit, & 5\spadesuit, & 6\spadesuit, & 7\spadesuit, & 8\spadesuit, & 9\spadesuit, & 10\spadesuit, & \mathrm{J}\spadesuit, & \mathrm{Q}\spadesuit, & \mathrm{K}\spadesuit, \\ \mathrm{A}\clubsuit, & 1\clubsuit, & 2\clubsuit, & 3\clubsuit, & 4\clubsuit, & 5\clubsuit, & 6\clubsuit, & 7\clubsuit, & 8\clubsuit, & 9\clubsuit, & 10\clubsuit, & \mathrm{J}\clubsuit, & \mathrm{Q}\clubsuit, & \mathrm{K}\clubsuit \end{Bmatrix} \end{align*}

donde cada elemento representa a cada uno de los elementos de la baraja. Por ejemplo, el elemento $\textcolor{red}{9\blacklozenge}$ es el $9$ de diamantes, $\mathrm{Q}\clubsuit$ es la reina de tréboles, $\mathrm{K}\spadesuit$ es el rey de espadas y $\textcolor{red}{\mathrm{J}\heartsuit}$ es la jota de corazones.

¡Atención! El conjunto $\mathfrak{B}$ no es el espacio muestral de nuestro experimento. Recuerda que el espacio muestral de un experimento aleatorio es el conjunto de todos sus posibles resultados. Así, como nuestro experimento consiste en extraer 4 cartas de una baraja revuelta, los elementos del espacio muestral debieran de ser manos de 4 cartas. Además, no importa el orden en el que tomemos las cartas, la mano resultante es la misma.

Por ello, las manos resultantes en este experimento pueden verse como subconjuntos de $\mathfrak{B}$. Por ejemplo, supón que $4$ cartas y te salen $6\clubsuit$, $\textcolor{red}{9\blacklozenge}$, $\mathrm{K}\clubsuit$ y $\textcolor{red}{8\heartsuit}$. El resultado del experimento en esta situación fue ${6\clubsuit, \textcolor{red}{9\blacklozenge}, \mathrm{K}\clubsuit, \textcolor{red}{8\heartsuit}}$, pues en un conjunto no importa el orden. Además, observa que el resultado tiene cardinalidad $4$. En consecuencia, podemos tomar al espacio muestral como

\[ \Omega = \{ M \in \mathscr{P}(\mathfrak{B}) \mid |M| = 4 \}. \]

Es decir, el espacio muestral $\Omega$ de este experimento es el conjunto de todos los subconjuntos de la baraja que tienen $4$ cartas. Como $\mathfrak{B}$ es un conjunto finito (se cumple que $|\mathfrak{B}|=52$), también $\Omega$ es un conjunto finito. De hecho, se cumple que $|\Omega| = {52 \choose 4} = 270{,}725$, pues hay ${52 \choose 4}$ combinaciones de tamaño $4$ de las $52$ cartas. Podemos tomar como σ-álgebra a $\mathscr{P}(\Omega)$, que siempre es un σ-álgebra.

Ahora, ¿qué probabilidad le asignamos a cada evento de $\Omega$? Por ejemplo, ¿cuál es la probabilidad de que en las $4$ cartas que tomamos no haya tréboles? Un posible resultado de este tipo es que las $4$ cartas que nos salgan sean $\{ \textcolor{red}{\mathrm{J}\heartsuit}, 10\spadesuit, \textcolor{red}{9\blacklozenge}, 5\spadesuit \}$. Para hacerlo, el enfoque clásico propone lo siguiente:

La probabilidad de un evento es la proporción entre el número de casos favorables a este, y el número de casos totales del experimento.

Esta hipótesis es conocida como equiprobabilidad. Así, para obtener la probabilidad de que en las $4$ cartas que tomemos no haya tréboles, debemos de obtener cuántas manos de $4$ cartas sin tréboles hay. Para ello, observa que en la baraja hay $13$ cartas que son tréboles. Por tanto, la combinación de cartas de nuestro evento está restringida a las $39$ cartas que no son tréboles. En consecuencia, hay ${39 \choose 4} = 82{,}251$ manos de $4$ cartas sin tréboles, pues hay ${39 \choose 4}$ combinaciones de tamaño $4$ de las $39$ cartas que no son tréboles. Así, desde el enfoque clásico de la probabilidad, la probabilidad de que en las $4$ cartas que tomemos no haya tréboles es

\[ \frac{\text{Número de casos favorables}}{\text{Número de casos totales}} = \frac{{39 \choose 4}}{{52 \choose 4}} = \frac{82{,}251}{270{,}725} \]

Definición de una medida equiprobable

De acuerdo con la motivación expuesta en la sección anterior, presentamos la definición formal de un espacio equiprobable. Esta definición resume las ideas del enfoque clásico de la probabilidad.


Definición. Sea $\Omega$ un conjunto finito. Definimos a $\mathbb{P}\colon \mathscr{P}(\Omega) \rightarrow \mathbb{R}$, la medida de probabilidad clásica, como sigue. Para cada $A \in \mathscr{P}(\Omega)$, se define la probabilidad de $A$ como

\[ \Prob{A} = \frac{|A|}{|\Omega|}. \]

Un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ con esta medida de probabilidad es conocido como un espacio equiprobable.


De acuerdo con la definición anterior, el enfoque clásico de la probabilidad tiene dos hipótesis importantes sobre el fenómeno aleatorio que se intenta describir:

  1. Primero, que $\Omega$ el espacio muestral del fenómeno es finito.
  2. Segundo, que se trata de un espacio equiprobable. Esto es, que si el fenómeno tiene $|\Omega|$ resultados posibles, entonces cada uno tiene una probabilidad de ocurrencia igual a $\frac{1}{|\Omega|}$.

En particular, el segundo supuesto puede ser problemático. ¿Qué nos asegura que al revolver la baraja del último ejemplo obtenemos efectivamente un espacio equiprobable? Hay que tener cuidado con esto, ya que es un supuesto muy fuerte que no necesariamente se cumple.

Importante. En la literatura referente a la probabilidad, es común encontrar la expresión «al azar» en la forma de «se escoge un estudiante del grupo al azar», o «se escoge(n) una(s) carta(s) de la baraja al azar». Sin embargo, no existe una manera única de hacer una tarea «al azar», ya que hay muchísimas medidas de probabilidad, así que podría resultar ambiguo. Por ello, es común que la expresión «al azar» se refiera a asumir que el espacio es equiprobable, a menos que se indique lo contraro.

Ejemplos con el enfoque clásico

Ejemplo 1. En una encuesta a 120 comensales, un restaurante encontró que \(48\) personas consumen vino con sus alimentos, \(78\) consumen refresco, y \(66\) consumen té helado. Además, se encontró que \(36\) personas consumieron cada par de bebidas con sus alimentos. Es decir, \(36\) personas consumieron vino y refresco; \(36\) consumieron vino y té helado; etcétera. Finalmente, el último hallazgo fue que \(24\) personas consumieron todas las bebidas.

Si se eligen \(2\) comensales al azar, de manera equiprobable, de este grupo de \(120\), cuál es la probabilidad de que

  • ambos quieran únicamente té helado con sus alimentos? (Evento \(A\))
  • ambos consuman exactamente dos de las tres opciones de bebidas? (Evento \(B\))

Utilizando la información provista por la encuesta, podemos construir el siguiente diagrama de Venn-Euler:

Figura. Diagrama que representa los conjuntos de personas dentro de la encuesta. \(U\) es la muestra de \(120\) personas, \(V\) son las que consumieron vino, \(T\) las que consumieron té helado, y \(R\) las que consumieron refresco.

Sin embargo, nota que nuestro espacio muestral no es \(U\), porque lo que hacemos es tomar dos personas al azar. Por ello, el espacio muestral \(\Omega\) consiste de todos los pares de comensales que se pueden elegir de la muestra de \(120\). Por ello, \(|\Omega| = \binom{120}{2} = 7140\). Por otro lado, el diagrama nos dice que hay \(18\) comensales que consumieron únicamente té helado con sus alimentos. Por ello, el número de pares de comensales que consumieron únicamente té helado es \(\binom{18}{2}\). Esto quiere decir que \(|A| = \binom{18}{2} = 153\). En consecuencia,

\begin{align*} \Prob{A} &= \frac{|A|}{|\Omega|} = \frac{153}{7140} \approx 0.02143. \end{align*}

Esto es, la probabilidad de que las dos personas escogidas consuman únicamente té helado es aproximadamente \(2.143\%\).


Ejemplo 2. Sea \(X = \{1,2,3,\ldots,99,100\}\). Imagina que seleccionamos \(2\) elementos de \(X\) al azar, sin reemplazo. ¿Cuál será la probabilidad de que la suma de esos dos números sea par?

Para encontrar esta probabilidad, primero hay que plantear nuestro espacio muestral y el evento cuya probabilidad queremos. Lo que hacemos es seleccionar \(2\) elementos de \(X\) sin reemplazo, así que nuestro espacio muestral \(\Omega\) debe de tener pares de números. Sin embargo, nota que son pares en los que no importa el orden, pues elegir los números \(14\) y \(73\) es lo mismo que escoger los números \(73\) y \(14\). Por ello, \(\Omega\) es el conjunto de subconjuntos de \(X\) que tienen exactamente dos elementos. Esto es,

\begin{align*} \Omega &= \{ A \in \mathscr{P}(X) \mid |A| = 2 \}. \end{align*}

En consecuencia, tenemos que \(|\Omega| = \binom{100}{2} = 4950\). Ahora, queremos la probabilidad del evento de que la suma de los \(2\) números escogidos sea par. Es decir, buscamos la probabilidad de \mathcal{B} definido como

\begin{align*} \mathcal{B} &= \{ \{a, b\} \in \Omega \mid \text{\(a + b\) es par} \}. \end{align*}

Sin embargo, no parece haber una forma inmediata de calcular \(|\mathcal{B}|\), con lo que podríamos calcular \(\Prob{\mathcal{B}}\). No obstante, podemos descomponer a \(|\mathcal{B}|\) en dos conjuntos cuya cardinalidad sí es posible calcular. Para ello, observa que los elementos de \(X\) pueden ser pares o impares, sin otra opción. En consecuencia, hay \(3\) casos posibles al elegir \(2\) elementos de \(X\). Sea \(A = \{a, b\} \in \Omega\). Entonces puede pasar que

  1. \(a\) y \(b\) son ambos pares. Es decir, existen \(p, q \in \mathbb{Z}\) tales que \(a = 2p\) y \(b = 2q\). En consecuencia, \(a + b = 2p + 2q = 2(p + q)\). En conclusión, si \(a\) y \(b\) son pares, entonces \(a + b\) es par.
  2. \(a\) es par y \(b\) es impar (y viceversa). En este caso, existen \(p, q \in \mathbb{Z}\) tales que \(a = 2p\) y \(b = 2q + 1\). Por ello, \(a + b = 2p + 2q + 1 = 2(p+q) + 1\). Por lo tanto, si \(a\) es par y \(b\) es impar, entonces \(a + b\) es impar.
  3. \(a\) y \(b\) son impares. Esto implica que existen \(p, q \in \mathbb{Z}\) tales que \(a = 2p + 1\) y \(b = 2q + 1\). Por tanto, \(a + b = 2p + 1 + 2q + 1 = 2(p+q+ 1)\). Así, si \(a\) y \(b\) son impares, entonces \(a+b\) es impar.

De este modo, tenemos que \(\mathcal{B}\) se puede descomponer en la unión de dos eventos:

  • \(\mathcal{E}_{1}\) : El evento de que los dos números escogidos sean pares:\begin{align*}\mathcal{E}_{1} = \{\{a, b\} \in \Omega \mid \text{\(a, b\) son pares}\}.\end{align*}
  • \(\mathcal{E}_{2}\) : El evento de que los dos números escogidos sean impares:\begin{align*}\mathcal{E}_{2} = \{\{a, b\} \in \Omega \mid \text{\(a, b\) son impares}\}.\end{align*}

Como en \(X\) hay \(50\) pares y \(50\) impares, se tiene que \(|\mathcal{E}_{1}| = |\mathcal{E}_{2}| = \binom{50}{2} = 1225\). Además, observa que \(\mathcal{E}_{1} \cup \mathcal{E}_{2} = \mathcal{B}\), y que además son eventos ajenos. En consecuencia,

\begin{align*}|\mathcal{B}| &= | \mathcal{E}_{1} \cup \mathcal{E}_{2} | = | \mathcal{E}_{1} | + | \mathcal{E}_{2} | = \binom{50}{2} + \binom{50}{2} = 2450.\end{align*}

Finalmente, con esta información podemos calcular \(\Prob{\mathcal{B}}\). En efecto,

\begin{align*} \Prob{ \mathcal{B}} &= \frac{|\mathcal{B}|}{|\Omega|} = \frac{2450}{4950} = \frac{49}{99} = 0.4949494949\ldots \end{align*}


Un consejo: En los problemas donde se utiliza la probabilidad clásica (es decir, se asume equiprobabilidad en un espacio finito), es recomendable que dejes el cálculo de las probabilidades hasta el final. Realmente el meollo de estos problemas es contar la cantidad de resultados que tiene el espacio muestral \(\Omega\), así como el número de resultados que tiene un evento \(A\). Por ello, centra tu atención en esos cálculos antes de calcular probabilidades.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que la medida de probabilidad clásica es una medida de probabilidad.
  2. En el ejemplo de la encuesta a los comensales, verifica que
    1. los números en el diagrama de Venn-Euler son las cardinalidades correctas.
    2. la probabilidad del evento \(B\) es \(3/34 \approx 0.08824\).
  3. Usando el conjunto \(X = \{1,2,\ldots,99,100\}\) del Ejemplo 2, si se eligen 3 elementos de \(X\) al azar y sin reemplazo, ¿cuál es la probabilidad de que la suma de estos 3 números sea par? Sugerencia: Procede de manera similar a como hicimos aquí, y obtén los casos en los que la suma de los \(3\) números resulta en un número par.

Más adelante…

Esta entrada concluye nuestro estudio de los tres enfoques que contempla el temario de la Facultad de Ciencias para Probabilidad I. Es importante entender que los enfoques (o interpretaciones) de la probabilidad que hemos visto tienen gran importancia histórica. Sin embargo, pueden ser escritos matemáticamente a través de las herramientas que construimos al principio, que conforman el enfoque más moderno de este curso: la probabilidad axiomática. Es conocida de esta manera pues se parte de ciertos objetos matemáticos que satisfacen ciertas reglas (conocidas como axiomas). Este enfoque axiomático, que rige sobre el contenido de estas notas, se atribuye al matemático ruso Andrey Nikolaevich Kolmogorov. Además, es un enfoque flexible que nos ha permitido revisar los enfoques históricos de la probabilidad como casos particulares dentro de la teoría que hemos desarrollado.

Si te interesa saber más sobre la historia de la probabilidad, el libro Introducción a la Teoría de la Probabilidad, Vol. I, del Dr. Miguel Ángel García Álvarez tiene una sección no muy larga dedicada al panorama histórico de esta rama de las matemáticas. Además, al final de esta sección incluye varias referencias de matemáticos de suma importancia en el desarrollo de la probabilidad, como Bernoulli y Laplace, o el mismo Kolmogorov.

Entradas relacionadas

Probabilidad I: Principios de Conteo 3 – Combinaciones

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior vimos lo que son las permutaciones de tamaño $r$ de una colección de $n$ objetos. Además, observamos que al momento de calcular la cantidad de permutaciones de ese tipo, se toman en cuenta los arreglos lineales que tienen los mismos objetos, pero ordenados de distinta manera. Por ejemplo, recuerda el problema de los $10$ estudiantes. Ahí, vimos que al momento de contar las permutaciones de tamaño $5$ de los $10$ estudiantes, se contabilizaban $\mathrm{BCEFI}$ y $\mathrm{CEFIB}$. Esto pues aunque tienen los mismos objetos, el orden en el que se encuentran es diferente.

Por otra parte, también puede interesarnos encontrar la cantidad de arreglos lineales en donde los elementos son distintos. Es decir, considerar a aquellos arreglos que tienen los mismos elementos como indistinguibles, incluso si se encuentran en un orden distinto. Esto es precisamente lo que haremos en esta entrada: desarrollar un concepto que nos permita contar nada más eso.

Motivación

Para comenzar, veamos un ejemplo clásico de conteo. Una baraja inglesa estándar está formada por $52$ cartas que comprenden $4$ palos: tréboles, diamantes, corazones y espadas. Cada palo tiene $13$ cartas: As, $2$, $3$, $4$, …, $9$, $10$, jota, reina y rey. Si se nos pide tomar tres cartas de una baraja inglesa, una después de otra y sin reemplazo (es decir, sin devolver las cartas que ya hemos tomado), entonces por el principio del producto hay

\[ 52 \cdot 51 \cdot 50 = \frac{52!}{49!} = P(52, 3) = 132{,}600 \]

posibles resultados. Por ejemplo, una de las posibles ternas de cartas que te pueden salir es $\color{red}{\mathrm{A}\heartsuit}$ (as de corazones), $9\clubsuit$ (nueve de tréboles), $\color{red}{\mathrm{K}\blacklozenge}$ (rey de diamantes). Pero, cuidado, recuerda que en el contexto de las permutaciones, «$\textcolor{red}{\mathrm{A}\heartsuit}\text{-}{9\clubsuit}\text{-}\textcolor{red}{\mathrm{K}\blacklozenge}$» se considera como un resultado distinto a «${9\clubsuit}\text{-}\textcolor{red}{\mathrm{A}\heartsuit}\text{-}\textcolor{red}{\mathrm{K}\blacklozenge}$» o «$\textcolor{red}{\mathrm{K}\blacklozenge}\text{-}\textcolor{red}{\mathrm{A}\heartsuit}\text{-}{9\clubsuit}$».

Sin embargo, observa que las cartas con las que terminas son las mismas sin importar el orden en el que las sacaste. Es decir, en tu mano estarán el as de corazones, el nueve de tréboles y el rey de diamantes sin importar el orden en el que se extraen. Por ello, podríamos considerar a todas las cadenas de cartas que tienen los mismos elementos como indistinguibles. Esto es, «$\textcolor{red}{\mathrm{A}\heartsuit} \text{-} {9\clubsuit} \text{-} \textcolor{red}{\mathrm{K}\blacklozenge}$», «$\textcolor{red}{\mathrm{A}\heartsuit} \text{-} \textcolor{red}{\mathrm{K}\blacklozenge} \text{-} {9\clubsuit}$», «${9\clubsuit} \text{-} \textcolor{red}{\mathrm{K}\blacklozenge} \text{-} \textcolor{red}{\mathrm{A}\heartsuit}$», «${9\clubsuit} \text{-} \textcolor{red}{\mathrm{A}\heartsuit} \text{-} \textcolor{red}{\mathrm{K}\blacklozenge}$», «$\textcolor{red}{\mathrm{K}\blacklozenge} \text{-} {9\clubsuit} \text{-} \textcolor{red}{\mathrm{A}\heartsuit}$» y «$\textcolor{red}{\mathrm{K}\blacklozenge} \text{-} \textcolor{red}{\mathrm{A}\heartsuit} \text{-} {9\clubsuit}$», las $6$ permutaciones posibles de las $3$ cartas, corresponden a una sola selección (sin orden) de cartas. En consecuencia, cada selección, o combinación, de $3$ cartas, sin tomar en cuenta el orden, corresponde a $3!$ permutaciones de $3$ cartas. En forma de ecuación, esto es:

\begin{align*} (3!)\cdot (\text{No. de combinaciones} \; &\text{de} \; \text{tamaño $3$ de una baraja de $52$}) \\ &= \text{No. de permutaciones de tamaño $3$ de una baraja de $52$} \\ &= P(52, 3) \\ &= \frac{52!}{49!}. \end{align*}

En conclusión, se pueden extraer, sin reemplazo, $3$ cartas sin reemplazo de una baraja inglesa estándar de $\frac{132{,}600}{3!} = 22{,}000$ maneras distintas.

Fórmula para el número de combinaciones sin repetición

Con la idea desarrollada en el ejemplo anterior, podemos presentar una fórmula para el cálculo del número de combinaciones de tamaño $r$ de una colección de $n$ objetos objetos.


Número de Combinaciones. Si tenemos $n$ objetos distintos, una combinación de $r$ de esos objetos, sin tomar en cuenta el orden, corresponde a $r!$ permutaciones de tamaño $r$ de los $n$ objetos. Por ello, el número de combinaciones de tamaño $r$ de una colección de $n$ objetos es

\[ C(n,r) = \frac{P(n,r)}{r!} = \frac{n!}{r!(n − r)!}, \]

para $n, r \in \mathbb{N}$ tales que $0 \leq r \leq n$.


Para denotar al número de combinaciones de tamaño $r$ de una colección de $n$ objetos también se utiliza el símbolo ${n \choose r}$, y en algunas ocasiones el símbolo $\mathrm{C}_{r}^{n}$.

Algunas observaciones importantes:

  1. ${n \choose k}$ es también conocido como coeficiente binomial.
  2. Para cualquier $n \geq 0$ se cumple que $C(n,0) = C(n,n) = 1$. Por un lado, el número de combinaciones de tamaño $0$ es $1$ porque sólo hay una combinación vacía. Por otro lado, el número de combinaciones de tamaño $n$ es $1$ porque la única combinación de tamaño $n$ es la colección misma.
  3. Para cualquier $n \geq 1$, $C(n,1) = C(n,n−1) = n$.
  4. En general, para cualesquiera $n, r \in \mathbb{N}$ tales que $0 \leq r \leq n$ se cumple que \[ C(n,r) = C(n, n−r). \]
  5. Cuando $n < r$, se tiene que $C(n,r) = 0$.

¡Observación importante! – Cuando te enfrentes a cualquier problema de conteo, la primera pregunta que debes de hacerte es: «¿importa el orden?» Cuando el orden sí es relevante, deberás pensar en términos de permutaciones y el principio del producto. Por otro lado, cuando el orden no es relevante, las combinaciones serán una parte importante para resolver el problema.


Ejemplos de problemas con combinaciones sin repetición

Ejemplo. Una primera aplicación interesante es la siguiente. Sean $n \in \mathbb{N}$ y $A$ un conjunto finito tal que $|A| = n$. En consecuencia, podemos escribir a $A$ como sigue:

\[ A = \{ a_{1}, a_{2}, \ldots, a_{n} \}. \]

Es decir, $A$ es una colección de $n$ objetos distintos. Para $r \leq n$, podemos preguntarnos: «¿cuántos subconjuntos de $A$ hay cuya cardinalidad es $r$?» Los conjuntos (en la teoría matemática) son colecciones de objetos en donde el orden en el que se escriben sus elementos no importa. Por ejemplo, se cumple que

\[ \{ a_{1}, a_{2} \} = \{ a_{2}, a_{1} \}. \]

Esto obedece al principio intuitivo que dice que «un conjunto está determinado por sus elementos». Por ello, un subconjunto de cardinalidad $r$ de $A$ es un ejemplo de una combinación de tamaño $r$ de los objetos en la colección $A$. Así, la cantidad de subconjuntos de cardinalidad $r$ de $A$ es simplemente $C(n,r) = {n \choose r}$.

Por ejemplo, para el conjunto $A = \{ 1, 2, 3, 4, 5 \}$, se cumple que $|A| = 5$. En consecuencia, hay $C(5,2) = {5 \choose 2} = \frac{5!}{(2!)(3!)} = 10$ subconjuntos de cardinalidad $2$ de $A$. Estos son:

\begin{align*} \{1,2\} &\qquad \{2,4\} \\ \{1,3\} &\qquad \{2,5\} \\ \{1,4\} &\qquad \{3,4\} \\ \{1,5\} &\qquad \{3,5\} \\ \{2,3\} &\qquad \{4,5\} \end{align*}


Ejemplo. En un curso de cálculo, la profesora se encuentra redactando el examen final que constará de $10$ preguntas a escoger.

  1. Primero, la profesora decide que las instrucciones digan que escojas cualesquiera $7$ de las $10$ preguntas. Como no importa el orden en el que las respondas, puedes responder el examen de \[ {10 \choose 7} = \frac{10!}{(7!)(3!)} = \frac{10 \cdot 9 \cdot 8}{3 \cdot 2 \cdot 1} = 120 \]maneras distintas.
  2. Sin embargo, la profesora se da cuenta de que quizás sus alumnos tendrán un sesgo por las primeras $5$ preguntas, que son más sencillas. Por ello, decide dividir el examen en dos secciones, cada una con $5$ preguntas. Además, el alumno deberá de escoger $3$ preguntas de la primera sección y $4$ preguntas de la segunda sección. Las $3$ preguntas de la primera sección se pueden escoger de ${5 \choose 3} = 10$ maneras, y las $4$ preguntas de la segunda sección pueden escogerse de ${5 \choose 4} = 5$ maneras. Así, por el principio del producto, el examen puede completarse de ${5 \choose 3}{5 \choose 4} = 10 \cdot 5 = 50$ maneras.
  3. Finalmente, la profesora decide restringir un poco menos las cosas para su grupo, y opta por lo siguiente: para resolver el examen, el alumno debe escoger $7$ preguntas tales que al menos $3$ de ellas vienen de la segunda sección. De esta manera, hay tres casos a considerar:
    1. Si el alumno escoge $3$ preguntas de la segunda sección y $4$ preguntas de la primera sección, por el principio del producto hay ${5 \choose 3}{5 \choose 4} = 10 \cdot 5 = 50$ maneras de hacerlo.
    2. Por otro lado, si el alumno decide escoger $4$ preguntas de la segunda sección y $3$ preguntas de la primera sección, puede hacerlo de ${5 \choose 4}{5 \choose 3} = 5 \cdot 10 = 50$ maneras.
    3. Si decide responder las $5$ preguntas de la segunda sección y $2$ de la primera sección, entonces por el principio del producto, hay ${5 \choose 5}{5 \choose 2} = 1 \dot 10 = 10$ maneras posibles de hacerlo.

      Así, combinando los resultados de los tres casos, por el principio de la suma encontramos que el examen puede formar \[ {5 \choose 3}{5 \choose 4} + {5 \choose 4}{5 \choose 3} + {5 \choose 5}{5 \choose 2} = 50 + 50 + 10 = 110 \] combinaciones de $7$ preguntas donde cada combinación incluye al menos $3$ preguntas de la segunda sección.

¡Otra observación importante! – Hay problemas que requieren los conceptos de permutaciones y combinaciones para su resolución. Esto puede observarse en el siguiente ejemplo.

Ejemplo. El número de permutaciones de las letras en la palabra $\mathrm{CHACHALACA}$ es

\begin{align*} \frac{10!}{(4!)(3!)(2!)(1!)} = 12{,}600. \end{align*}

Ahora, ¿cuántas de estas permutaciones no tienen $\mathrm{C}$’s consecutivas? Sin considerar a las $\mathrm{C}$’s, el número de permutaciones de las letras que quedan ($\mathrm{HAHALAA}$) es

\begin{align*} \frac{7!}{(4!)(2!)(1!)} = 105. \end{align*}

Por ejemplo, una de estas $105$ permutaciones es la cadena de letras $\mathrm{LAHAAHA}$. Ahora, podemos acomodar esta permutación como sigue:

\begin{align*} \square \; \mathrm{L} \; \square \; \mathrm{A} \; \square \; \mathrm{H} \; \square \; \mathrm{A} \; \square \; \mathrm{A} \; \square \; \mathrm{H} \; \square \; \mathrm{A} \; \square \end{align*}

Observa que podemos poner las $3$ $\mathrm{C}$’s en cualesquiera de los $8$ espacios en blanco y se cumplirá que no hay $\mathrm{C}$’s consecutivas. Además, $3$ de esos $8$ espacios pueden escogerse de ${8 \choose 3} = 56$ maneras distintas. Esto se puede hacer para cada una de las $105$ permutaciones de las letras $\mathrm{HAHALAA}$, así que por el principio del producto se tienen $105 \cdot 56 = 5{,}880$ permutaciones de las letras en la palabra $\mathrm{CHACHALACA}$ que no tienen $\mathrm{C}$’s consecutivas.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Sea $X = \{2, 4, 6, 8 \}$. ¿Cuántos subconjuntos de cardinalidad $2$ de $X$ hay?
  2. ¿Cómo se relaciona el coeficiente multinomial (visto en la entrada pasada) con el coeficiente binomial? Para verlo, ¿qué pasa cuando sólo se tiene $2$ tipos de objetos en el coeficiente multinomial?
  3. Existen algunos ejercicios geométricos que pueden resolverse con las herramientas de esta entrada. Por ejemplo, considera los puntos $(2,1)$ y $(7,4)$ sobre una cuadrícula y conéctalos con un camino sobre esta, utilizando únicamente movimientos hacia la derecha y hacia arriba. Visualmente:

    El anterior es un ejemplo de los muchos caminos posibles. ¿Cuántos caminos posibles existen entre estos dos puntos? Sugerencia: Considera a cada camino como una secuencia (o cadena) de pasos hacia la derecha ($\mathrm{D}$) y hacia arriba ($\mathrm{A}$). Así, el camino mostrado en la gráfica corresponde a la cadena $\mathrm{ADDDAADD}$.

Más adelante…

Con esto damos por terminada la parte del curso que corresponde a los principios de conteo. Sin embargo, hay otros resultados de conteo que no revisamos aquí, como las combinaciones con reemplazo. Por otro lado, es posible que los ejemplos aquí expuestos no sean suficientes para representar todas las complejidades de los problemas de conteo. Por ello, te recomendamos buscar la mayor cantidad de ejemplos de conteo y combinatoria posibles. En particular, puedes revisar el libro que utilizamos como base para esta parte del curso: Discrete And Combinatorial Mathematics: An Applied Introduction (5ta Edición) de Ralph P. Grimaldi, tiene una gran cantidad de ejemplos de todos los temas de conteo vistos (algunos de esos ejemplos los incluímos aquí).

En la siguiente entrada veremos otro de los enfoques más importantes en la historia de la probabilidad: la probabilidad clásica, que está basada en el cálculo de cardinalidades. Como con los enfoques pasados, este enfoque puede representarse de manera formal como una medida de probabilidad.

Entradas relacionadas

Probabilidad I: Principios de Conteo 2 – Permutaciones

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada vimos dos principios básicos de conteo: el de la suma y el del producto. En particular, el principio del producto tiene aplicaciones más especializadas. Tal es el caso de las permutaciones y las combinaciones. Dada una colección de objetos, es posible extraer una cantidad fija $k$ de ellos y formar arreglos de tamaño $k$. De estos arreglos puede o no importarnos el orden de los objetos que los forman. Esto da lugar al concepto que veremos en esta entrada: las permutaciones.

Motivación

Comenzaremos con el concepto de permutación. Dada una colección de $n$ objetos, es posible extraer $k$ (con $k \leq n$) de ellos para formar un arreglo lineal. Es decir, se acomodan los elementos en una línea. Lo que nos interesa es ver la cantidad de arreglos lineales de tamaño $k$ que pueden obtenerse de una colección de $n$ objetos. Sin embargo, en un arreglo nos importa el orden en el que se acomodan los objetos. Así, dos arreglos lineales con los mismos elementos pero ordenados de diferente manera se consideran como distintos. Por ello, si queremos la cantidad de arreglos lineales ordenados posibles, estas diferencias se toman en cuenta. Comencemos con un ejemplo.

Ejemplo. En un grupo de $10$ estudiantes, se escoge a $5$ de ellos y se sientan en una fila para una fotografía. ¿Cuántos arreglos lineales pueden formarse?

Como mencionamos anteriormente, la palabra arreglo designa una importancia al orden de los elementos. Si $\mathrm{A}$, $\mathrm{B}$, $\mathrm{C}$, …, $\mathrm{I}$, $\mathrm{J}$ denotan a los $10$ estudiantes, entonces $\mathrm{BCEFI}$, $\mathrm{CEFIB}$ y $\mathrm{ABCFG}$ son tres arreglos lineales distintos. Además, observa que los dos primeros arreglos constan de los mismos $5$ estudiantes, lo que los hace distintos es el orden en el que están acomodados sus elementos.

Ahora, para responder a la pregunta que hicimos, vamos a valernos del principio del producto. Tenemos que considerar las $5$ posiciones (porque estamos tomando $5$ de los $10$ estudiantes que tiene el grupo) y debemos de considerar además cuántos estudiantes hay disponibles para ocupar cada posición.

\[ \underset{\substack{ \phantom{x} \\ \text{1a} \\ \text{Posicion}}}{10} \cdot \underset{\substack{ \phantom{x} \\ \text{2a} \\ \text{Posicion}}}{9} \cdot \underset{\substack{ \phantom{x} \\ \text{3a} \\ \text{Posicion}}}{8} \cdot \underset{\substack{ \phantom{x} \\ \text{4a} \\ \text{Posicion}}}{7} \cdot \underset{\substack{ \phantom{x} \\ \text{5a} \\ \text{Posicion}}}{6} \]

En la 1ᵃ posición puede ir cualquiera de los $10$ estudiantes. No es posible duplicar a los estudiantes, por lo que las repeticiones no son posibles aquí. Por ello, podemos seleccionar únicamente a alguno de los $9$ estudiantes restantes para ocupar la 2ᵃ posición. Similarmente, ahora nos quedan $8$ estudiantes para ocupar la 3ᵃ posición. Continuamos así hasta llegar a que sólo $6$ estudiantes pueden ocupar la 5ᵃ posición. Así, tenemos un total de $30{,}240$ arreglos posibles de $5$ estudiantes tomados del grupo de $10$.


Permutaciones de objetos distintos

Seguramente ya notaste que en este tipo de problemas surgen productos de enteros consecutivos (observa el ejemplo que acabamos de ver, y el ejemplo de las placas de la entrada anterior). En Álgebra Superior I puede que hayas visto el concepto de factorial. Este concepto permite una escritura más sencilla de las operaciones que aparecen en los problemas de conteo. Por ello, lo incluimos como recordatorio:


Recordatorio. Sea $n \in \mathbb{N}$. Se define el número $n$ factorial (denotado por $n!$) como sigue:

\begin{align*} 0! &= 1, \\ n! &= (n)(n − 1)(n − 2) \cdots (3)(2)(1), & \text{para $n \geq 1$}. \end{align*}


Así, se puede observar que

\begin{align*} 1! &= 1, \\ 2! &= 2 \cdot 1 = 2, \\ 3! &= 3 \cdot 2 \cdot 1 = 6, \\ 4! &= 4 \cdot 3 \cdot 2 \cdot 1 = 24, \\ 5! &= 5 \cdot 4 \cdot 3 \cdot 2 \cdot 1 = 120. \\ \end{align*}

Además, para cualquier $n \in \mathbb{N}$ se cumple que $(n + 1)! = (n+1)(n!)$.

Utilizando la notación del factorial podemos simplificar el resultado obtenido en el último ejemplo.

\begin{align*} 10 \cdot 9 \cdot 8 \cdot 7 \cdot 6 = 10 \cdot 9 \cdot 8 \cdot 7 \cdot 6 \cdot \frac{5 \cdot 4 \cdot 3 \cdot 2\cdot 1}{5 \cdot 4 \cdot 3 \cdot 2\cdot 1} = \frac{10!}{5!}. \end{align*}

Esto es, al dividir $10!$ entre $5!$ se cancelan los últimos términos de $10!$. Efectivamente, la expresión resultante coincide con lo que obtuvimos en el ejemplo.


Definición 1.18. Dada una colección de $n$ objetos distintos, cualquer arreglo lineal formado con estos objetos es llamado una permutación de la colección.


Por ejemplo, si tenemos las letras $\mathrm{a}$, $\mathrm{b}$ y $\mathrm{c}$, hay $6$ maneras de acomodar (o permutar) estas letras: $\mathrm{abc}$, $\mathrm{acb}$, $\mathrm{bac}$, $\mathrm{bca}$, $\mathrm{cab}$ y $\mathrm{cba}$. Por otro lado, si nos interesa tomar arreglos de $2$ letras, entonces hay $6$ permutaciones de tamaño $2$ de la colección: $\mathrm{ab}$, $\mathrm{ac}$, $\mathrm{ba}$, $\mathrm{bc}$, $\mathrm{ca}$ y $\mathrm{cb}$.


Principio de las permutaciones. Sean $n, r \in \mathbb{N}$ tales que $1 \leq r \leq n$. Si tenemos $n$ objetos distintos, entonces por la regla del producto, el número de permutaciones de tamaño $r$ de los $n$ objetos es

\begin{align*} P(n,r) &= \underset{\substack{ \phantom{x} \\ \text{1a} \\ \text{Posicion}}}{(n)} \cdot \underset{\substack{ \phantom{x} \\ \text{2a} \\ \text{Posicion}}}{(n − 1)} \cdot \underset{\substack{ \phantom{x} \\ \text{3a} \\ \text{Posicion}}}{(n − 2)} \cdots \underset{\substack{ \phantom{x} \\ \text{$r$-esima} \\ \text{Posicion}}}{(n − r + 1)} \\ &= (n)(n−1)(n−2) \cdots (n−r+1) \cdot \frac{(n−r)(n−r−1) \cdots (3)(2)(1)}{(n−r)(n−r−1) \cdots (3)(2)(1)} \\ &= \frac{n!}{(n−r)!}. \end{align*}


Como mencionamos previamente, aplicamos el principio del producto para determinar el número de permutaciones que pueden hacerse a partir de una colección dada.

Algunas propiedades importantes que observar.

  1. Cuando $r = 0$, $P(n, 0) = 1 = \frac{n!}{(n−0)!}$, por lo que $P(n, r)$ está bien definido incluso para $r = 0$.
  2. Al permutar todos los $n$ objetos de la colección, se tiene $r = n$. Por ello, $P(n,n) = \frac{n!}{0!} = n!$ es el número de permutaciones posibles de todos los objetos de la colección.
  3. Es importante notar que el número de permutaciones de tamaño $r$ de una colección de $n$ objetos es un resultado del principio del producto cuando no permitimos repetición. En consecuencia, $P(n,r)$ es el número de arreglos lineales de tamaño $r$ en los que no se permiten repeticiones. Sin embargo, cuando sí permitimos las repeticiones, por el principio del producto hay $n^{r}$ arreglos lineales posibles.

Ejemplo. El número de permutaciones de las letras en la palabra $\mathrm{CARMESI}$ es $7!$, pues todas las letras son distintas entre sí. Si queremos formar permutaciones de tamaño $4$, entonces el número de permutaciones de tamaño $4$ es $P(7,4) = \frac{7!}{(7 − 4)!} = \frac{7!}{3!} = 840$. Por otro lado, si permitimos repeticiones de letras, entonces el número de cadenas de $11$ letras que podemos formar es $7^{11} = 1{,}977{,}326{,}743$.


Permutaciones con objetos repetidos

Ejemplo. ¿Qué pasa cuando nuestra colección tiene objetos repetidos o indistinguibles? Por ejemplo, ¿cuál es el número de permutaciones de las $4$ letras en la palabra $\mathrm{PALA}$? En este caso, la letra $\mathrm{A}$ se repite. Veamos cómo se ven todas las permutaciones de estas letras.

Tabla de Arreglos
$\mathrm{A \, A \, L \, P}$$\mathrm{A_{1} \, A_{2} \, L \, P}$$\mathrm{A_{2} \, A_{1} \, L \, P}$
$\mathrm{A \, A \, P \, L}$$\mathrm{A_{1} \, A_{2} \, P \, L}$$\mathrm{A_{2} \, A_{1} \, P \, L}$
$\mathrm{A \, L \, A \, P}$$\mathrm{A_{1} \, L \, A_{2} \, P}$$\mathrm{A_{2} \, L \, A_{1} \, P}$
$\mathrm{A L \, P \, A}$$\mathrm{A_{1} \, L \, P \, A_{2}}$$\mathrm{A_{2} \, L \, P \, A_{1}}$
$\mathrm{A \, P \, A \, L}$$\mathrm{A_{1} \, P \, A_{2} \, L}$$\mathrm{A_{2} \, P \, A_{1} \, L}$
$\mathrm{A \, P \, L \, A}$$\mathrm{A_{1} \, P \, L \, A_{2}}$$\mathrm{A_{2} \, P \, L \, A_{1}}$
$\mathrm{L \, A \, A \, P}$$\mathrm{L \, A_{1} \, A_{2} \, P}$$\mathrm{L \, A_{2} \, A_{1} \, P}$
$\mathrm{L \, A \, P \, A}$$\mathrm{L \, A_{1} \, P \, A_{2}}$$\mathrm{L \, A_{2} \, P \, A_{1}}$
$\mathrm{L \, P \, A \, A}$$\mathrm{L \, P \, A_{1} \, A_{2}}$$\mathrm{L \, P \, A_{2} \, A_{1}}$
$\mathrm{P \, A \, A \, L}$$\mathrm{P \, A_{1} \, A _{2}\, L}$$\mathrm{P \, A_{2} \, A _{1}\, L}$
$\mathrm{P \, A \, L \, A}$$\mathrm{P \, A_{1} \, L \, A_{2}}$$\mathrm{P \, A_{2} \, L \, A_{1}}$
$\mathrm{P \, L \, A \, A}$$\mathrm{P \, L \, A_{1} \, A_{2}}$$\mathrm{P \, L \, A_{2} \, A_{1}}$
(a)(b)

En la tabla de la izquierda (a) pusimos todos los arreglos distintos que se pueden formar con las letras que tenemos. Por otro lado, si distinguimos a las dos letras $\mathrm{A}$ como $\mathrm{A_{1}}$ y $\mathrm{A_{2}}$, nuestra colección se vuelve una colección de objetos distintos. Así, en la tabla de la derecha (b) pusimos todos los arreglos con las letras de la palabra $\mathrm{PA_{1}LA_{2}}$. En este caso sí sabemos calcular el número de permutaciones posibles, es $P(4,4) = 4! = 24$. La tabla revela que para cada arreglo en el que las $\mathrm{A}$’s son indistinguibles le corresponden dos permutaciones con $\mathrm{A}$’s distintas. En consecuencia,

\begin{align*} 2 \cdot (\text{Arreglos distintos con las letras $\mathrm{P}$, $\mathrm{A}$, $\mathrm{L}$, $\mathrm{A}$}) = (\text{Permutaciones de los simbolos $\mathrm{P}$, $\mathrm{A_{1}}$, $\mathrm{L}$, $\mathrm{A_{2}}$}), \end{align*}

por lo que la respuesta a nuestra pregunta original de encontrar todas las permutaciones de las $4$ letras en la palabra $\mathrm{PALA}$ es $\frac{4!}{2} = 12$.


Ejemplo. Usando la misma idea que desarrollamos en el ejemplo anterior, considera ahora las permutaciones de las $9$ letras de la palabra $\mathrm{COCODRILO}$.

Primero, observa que hay $3! = 6$ maneras de acomodar a las $\mathrm{O}$’s distinguidas por cada arreglo en el que las $\mathrm{O}$’s no están distinguidas. Por ejemplo, observa la siguiente tabla:

Tabla de arreglos
$\mathrm{C \, O \, C \, O \, D \, R \, I \, L \, O}$$\mathrm{C \, O_{1} \, C \, O_{2} \, D \, R \, I \, L \, O_{3}}$
$\mathrm{C \, O_{1} \, C \, O_{3} \, D \, R \, I \, L \, O_{2}}$
$\mathrm{C \, O_{2} \, C \, O_{1} \, D \, R \, I \, L \, O_{3}}$
$\mathrm{C \, O_{2} \, C \, O_{3} \, D \, R \, I \, L \, O_{1}}$
$\mathrm{C \, O_{3} \, C \, O_{1} \, D \, R \, I \, L \, O_{2}}$
$\mathrm{C \, O_{3} \, C \, O_{2} \, D \, R \, I \, L \, O_{1}}$
(a) Arreglo sin distinguir las $\mathrm{O}$’s.(b) Arreglos distinguendo a las tres letras $\mathrm{O}$.

Por cada permutación de las letras en la palabra $\mathrm{COCODRILO}$ sin distinguir a las $\mathrm{O}$’s, hay $3$ espacios ocupados por letras $\mathrm{O}$. Por ello, al distinguir a cada una, estamos permutando esas $3$ $\mathrm{O}$’s, que pueden acomodarse de $P(3,3) = 3! = 6$ maneras. Por otro lado, lo mismo pasa con las $\mathrm{C}$’s. En este caso, hay $2!$ maneras de acomodar las $\mathrm{C}$’s distinguidas por cada arreglo sin distinguir las $\mathrm{C}$’s. Por lo tanto, se tiene que

\begin{align*} (3!)(2!)(\text{Arreglos distintos con las letras en $\mathrm{COCODRILO}$}) = (\text{Permutaciones de los simbolos $\mathrm{C}_{2}$, $\mathrm{O_{1}}$, $\mathrm{C}_{2}$, $\mathrm{O_{2}}$, $\mathrm{D}$, $\mathrm{R}$, $\mathrm{I}$, $\mathrm{L}$, $\mathrm{O_{3}}$}), \end{align*}

así que el número de arreglos distintos de las $9$ letras en $\mathrm{COCODRILO}$ es $\frac{9!}{(3!)(2!)} = 30{,}240$.


Podemos enunciar un principio general para arreglos con objetos que se repiten siguiendo la idea desarrollada en los últimos ejemplos.


Permutaciones con objetos repetidos. Si tenemos una colección de $n$ objetos y dentro de esta colección tenemos $n_{1}$ objetos indistinguibles de un $1$er tipo, $n_{2}$ objetos indistinguibles de un $2$do tipo, …, y $n_{r}$ objetos indistinguibles de un $r$-ésimo tipo, de tal manera que

\[ n_{1} + n_{2} + \cdots + n_{r} = n, \]

entonces la cantidad de permutaciones de los $n$ objetos dados es

\[\frac{n!}{(n_{1}!)(n_{2}!) \cdots (n_{r}!)}. \]

Este valor es conocido como el coeficiente multinomial de $n_{1}$, $n_{2}$, …, $n_{r}$.


Ejemplo. La ciudad de $\mathrm{CONSTANTINOPLA}$ fue la ciudad capital del imperio bizantino entre los años 395 y 1204. Podemos aplicar el último principio de conteo que desarrollamos para encontrar la cantidad de permutaciones de las letras en la palabra $\mathrm{CONSTANTINOPLA}$.

Para ello, primero hay que encontrar cuántas letras distintas tiene. Observa que en total tiene $9$ letras distintas. En consecuencia, podemos pensar de cada letra distinta como un tipo de objeto. Así, tenemos $9$ tipos de objetos en la colección, y hay que contar cuántos objetos de cada tipo hay. Esto lo podemos ver en la siguiente tabla.

TipoLetraNúmero de letras de ese tipo
$1$$\mathrm{A}$$n_{1} = 2$
$2$$\mathrm{C}$$n_{2} = 1$
$3$$\mathrm{I}$$n_{3} = 1$
$4$$\mathrm{L}$$n_{4} = 1$
$5$$\mathrm{N}$$n_{5} = 3$
$6$$\mathrm{O}$$n_{6} = 2$
$7$$\mathrm{P}$$n_{7} = 1$
$8$$\mathrm{S}$$n_{8} = 1$
$9$$\mathrm{T}$$n_{9} = 2$

Además, el número de letras en $\mathrm{CONSTANTINOPLA}$ es $14$, precisamente el resultado de sumar todos los $n_{i}$. Así, obtenemos que la cantidad de premutaciones posibles de las letras en $\mathrm{CONSTANTINOPLA}$ es

\[ \frac{14!}{(2!)(1!)(1!)(1!)(3!)(2!)(1!)(1!)(2!)} = \frac{14!}{(2!)(3!)(2!)(2!)} = 1{,}816{,}214{,}400. \]

Otra pregunta que podemos resolver es, ¿cuántas permutaciones tienen a las $3$ $\mathrm{N}$’s juntas? Para verlo, podemos pensar en que la cadena de letras $\mathrm{NNN}$ es un solo símbolo, y partir de la colección de símbolos $\mathrm{A}$, $\mathrm{A}$, $\mathrm{C}$, $\mathrm{I}$, $\mathrm{L}$, $\mathrm{NNN}$ (como un solo símbolo), $\mathrm{O}$, $\mathrm{O}$, $\mathrm{P}$, $\mathrm{S}$, $\mathrm{T}$, $\mathrm{T}$, y hacer lo mismo. Así, el número de permutaciones que tiene a las $3$ $\mathrm{N}$’s juntas es

\[ \frac{12!}{(2!)(1!)(1!)(1!)(1!)(2!)(1!)(1!)(2!)} = \frac{12!}{(2!)(2!)(2!)} = 59{,}875{,}200. \]


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. ¿Cuántas permutaciones de los dígitos $0$, $1$, $2$, …, $9$ hay cuyo primer dígito es $3$ o cuyo último dígito es $7$?
  2. Encuentra el número de permutaciones de la palabra $\mathrm{MISSISSIPPI}$.
  3. ¿Cuántas cadenas de $13$ símbolos pueden hacerse con $6$ estrellas $*$ y $7$ barras $|$? Por ejemplo:\[ |*|*|***|*|||, \qquad ******|||||||, \qquad |*|*|*|*|*|*|. \]

Más adelante…

En la siguiente entrada continuaremos con nuestro estudio de los principios de conteo. El siguiente concepto será el de combinación, que se deriva del concepto de permutación, siendo la combinación un concepto un poco más especializado.

Por otro lado, el concepto de permutación con objetos repetidos te será de utilidad en el curso de Probabilidad II para algo que se conoce como la distribución multinomial. Cuando veamos lo que son las variables aleatorias y las funciones de distribución te quedará claro a qué nos referimos por «distribución multinomial».

Entradas relacionadas