Probabilidad I: Variables Aleatorias Discretas

Por Octavio Daniel Ríos García

Introducción

En las entradas pasadas introdujimos los conceptos de variable aleatoria y función de distribución. Además, al final de la entrada pasada comentamos que las variables aleatorias pueden clasificarse como discretas o continuas, dependiendo de la cardinalidad del conjunto de valores que pueden tomar.

En esta entrada trataremos el caso de las variables aleatorias discretas. En el contexto de las matemáticas se usa el término «discreta» para hacer referencia a conjuntos finitos o infinitos numerables. Por ello, a grandes rasgos, las variables aleatorias discretas son aquellas cuyo conjunto de valores que pueden tomar es a lo más infinito numerable.

¡IMPORTANTE! Algunas convenciones que usaremos

De ahora en adelante, escribiremos «variable aleatoria» simplemente como v.a. De este modo, por ejemplo, cuando digamos «sea $X$ una v.a.», deberás de leerlo como «sea $X$ una variable aleatoria».

Por otro lado, usaremos los límites laterales (por la derecha y por la izquierda) de la función de distribución, por lo que introduciremos la siguiente notación: si $F\colon\RR\to\RR$ es una función, entonces

\begin{align*}F(a+) &:= \lim_{x\to a^{+}} F(x), \\ F(a-) &:= \lim_{x\to a^{-}} F(x). \end{align*}

En otras palabras,

  • $F(a+)$ es el límite de $F(x)$ cuando $x$ tiende a $a$ por la derecha.
  • $F(a-)$ es el límite de $F(x)$ cuando $x$ tiende a $a$ por la izquierda.

Esta convención facilita la escritura de las fórmulas que involucran a estos límites.

Definición de variable aleatoria discreta

Como su nombre lo indica, una v.a. discreta es aquella v.a. cuyo conjunto de valores que puede tomar es un conjunto de cardinalidad a lo más numerable. Es decir, que la cantidad de valores distintos que puede tomar la v.a. es finito, o infinito numerable.


Definición. Sea $X$ una v.a. sobre $(\Omega, \mathscr{F}, \mathbb{P})$. Diremos que $X$ es una variable aleatoria discreta si el conjunto de valores que puede tomar $X$ es finito o infinito numerable.

De manera más formal, un conjunto $S \in \mathscr{B}(\RR)$ es llamado un soporte de la v.a. $X$ si $\Prob{X \in S} = 1$. Así, $X$ es una v.a. discreta si tiene un soporte finito o infinito numerable.


Cuando $X$ es una v.a. discreta, y el conjunto de valores que toma $X$ es $\{ x_{n} \}_{n\in\mathbb{N}^{+}}$ de tal manera que $x_{n} < x_{n+1}$ para cada $n \in \mathbb{N}^{+}$, la función de distribución de $X$, $F_{X}$, es una función escalonada con una discontinuidad de magnitud $\Prob{X = x_{n}}$ en cada $x_{n}$. Además, $F_{X}$ es constante entre los $x_{n}$, y toma el valor mayor en cada discontinuidad. Esto es algo que puedes observar en el ejemplo 4 de la entrada anterior.

Además, si $X$ es una variable aleatoria cualquiera, se cumple que

\[ \Prob{X = a} = \Prob{X \leq a} − \Prob{X < a} = F_{X}(a) − F_{X}(a-). \]

En particular, cuando $X$ es una variable aleatoria discreta, $\Prob{X = a} > 0$ cuando $a$ es alguno de los valores que puede tomar $X$; y es $0$ en cualquier otro caso. La demostración de que $F_{X}(a-) = \Prob{X < a}$ te la dejamos como parte de la tarea moral.

Más aún, como vimos que la función de distribución de una v.a. contiene toda la información sobre una v.a. $X$, entonces si $X$ es una v.a. discreta, los valores $\Prob{X = a}$ para cada $a \in \RR$ capturan toda la información sobre el comportamiento probabilístico de $X$. ¡Cuidado! Esto sólamente pasa con las v.a.’s discretas, veremos que con las continuas no es así.

Función de masa de probabilidad de una v.a. discreta

A la función que manda a cada $a\in\RR$ al valor $\Prob{X=a}$ se le conoce como la función de masa de probabilidad (en inglés, probability mass function), que definimos a continuación.


Definición. Sea $X$ una v.a. discreta que toma los valores $\{ x_{n} \}_{n\in\mathbb{N}^{+}}$. Se define la función de masa de probabilidad (f.m.p.) de $X$, denotada por $p_{X}\colon\RR\to\RR$, como sigue.

\[ p_{X}(x) = \Prob{X = x}. \]

Esta función también es conocida simplemente como función de probabilidad.


Observa que $p_{X}(x) > 0$ cuando $x$ es alguno de los valores en $\{ x_{n} \}_{n\in\mathbb{N}^{+}}$; y $p_{X}(x) = 0$ en cualquier otro caso. De acuerdo con lo anterior, para cualquier $A \in \mathscr{B}(\RR)$ se tendrá que

\[ \Prob{X \in A} = \sum_{x\in A} p_{X}(x). \]

La suma anterior es discreta, pues $p_{X}(x)$ es mayor a $0$ en a lo más en una cantidad numerable de valores.

Ejemplo 1. Sea $X$ una v.a. con distribución $F\colon\RR\to\RR$ dada por

\[ F(x) = \begin{cases} 0 & \text{si $x < -1$,} \\[1em] 0.1 & \text{si $-1 \leq x < 0$,} \\[1em] 0.3 & \text{si $0 \leq x < 1$,} \\[1em] 0.8 & \text{si $1 \leq x < 2$,} \\[1em] 1 & \text{si $2 \leq x$.}\end{cases} \]

Es decir, la función de distribución de $X$ es $F$. Gráficamente, la función $F$ se ve como sigue:

Figura. Gráfica de la función $F$.

Los puntos en los que $F$ presenta una discontinuidad son los valores que toma la variable aleatoria $X$, y la magnitud de los saltos es la probabilidad de que tome cada respectivo valor. La magnitud del salto corresponde precisamente a

\[ \Prob{X = a} = F(a) − F(a-), \]

pues en aquellos valores de $a$ en los que hay una discontinuidad, $F(a)$ y $F(a-)$ son valores distintos. Además, observa que para cada $a \in \RR$, $F(a)$ es la probabilidad acumulada por todos los valores menores o iguales a $a$. Por ejemplo, $F(-2) = 0$, que significa que $F$ no ha acumulado probabilidad hasta el valor $-2$. Es decir, todos los números reales menores o iguales a $-2$ acumulan $0$ de probabilidad. Por otro lado, $F(0) = 0.3$, por lo que la probabilidad acumulada hasta $0$ es de $0.3$. Esto es, los números reales que son menores o iguales a $0$ acumulan $0.3$ de la probabilidad.

A partir de la distribución $F$ podemos obtener la función de masa de probabilidad de $X$. Para ello, tenemos que usar la fórmula

\[ \Prob{X = a} = F(a) − F(a-). \]

Esta expresión es distinta de $0$ en todos los valores de $a$ en los que $F$ presenta una discontinuidad, y es $0$ en otro caso. En los puntos de discontinuidad se tiene que:

\begin{array}{lclclcl} \Prob{X =-1} &= & F(-1) − F((-1)-) & = & 0.1 − 0 & = & 0.1, \\
\Prob{X = 0} &= & F(0) − F(0-) & = & 0.3 − 0.1 & = & 0.2, \\
\Prob{X = 1} &= & F(1) − F(1-) & = & 0.8 − 0.3 & = & 0.5, \\ \Prob{X = 2} &= & F(2) − F(2-) & = & 1 − 0.8 & = & 0.2. \\ \end{array}

De este modo, la función de masa de probabilidad de $X$ es la función $p_{X}\colon\RR\to\RR$ dada por

\[ p_{X}(x) = \begin{cases} 0.1 & \text{si $x = -1$,} \\[1em] 0.2 & \text{si $x = 0$ o $x = 2$,} \\[1em] 0.5 & \text{si $x = 1$,} \\[1em] 0 & \text{en otro caso.} \end{cases} \]

Esto significa que la variable aleatoria $X$ toma valores en el conjunto $\{ -1, 0, 1, 2 \}$, que son precisamente los puntos en los que $F$ tiene una discontinuidad.


Conexión entre la función de masa de probabilidad y la función de distribución

En el ejemplo anterior puede observarse que la función de masa de probabilidad de $X$ contiene toda la información sobre el comportamiento probabilístico de $X$, pues gracias a ella podemos saber:

  • El conjunto de valores que puede tomar $X$, que son aquellos cuya probabilidad es mayor a $0$.
  • La probabilidad de que tome cada uno de estos valores.

Además, es posible recuperar la función de distribución de $X$ en cada $x \in \RR$ sumando los valores que toma $p_{X}$ hasta $x$.

\[ F(x) = \sum_{y \in (-\infty, x]} p_{X}(y). \]

La suma anterior tendrá a lo más una cantidad numerable de términos, pues $p_{X}(y) > 0$ en a lo más una cantidad numerable de valores. Además, como la función de masa de probabilidad permite recuperar una función de distribución, es suficiente con tener la f.m.p. para conocer el comportamiento probabilístico de una v.a. discreta. Por ello, usualmente en los ejercicios se te dará la función de masa de probabilidad.

Ejemplo 2. Una variable aleatoria que toma una cantidad infinita numerable de valores también es discreta. Por ejemplo, sea $Y$ una v.a. con función de masa de probabilidad $p_{Y}\colon\RR\to\RR$ dada por

\[ p_{Y}(y) = \begin{cases} \dfrac{1}{2^{y}} & \text{si $y \in \mathbb{N}^{+}$,} \\[1em] 0 & \text{en otro caso.} \end{cases} \]

De este modo, tenemos que

\begin{align*} p_{Y}(1) = \Prob{Y = 1} = \frac{1}{2^{1}} = \frac{1}{2}, \\[1em] p_{Y}(2) = \Prob{Y = 2} = \frac{1}{2^{2}} = \frac{1}{4}, \\[1em] p_{Y}(3) = \Prob{Y = 3} = \frac{1}{2^{3}} = \frac{1}{8}, \end{align*}

etcétera. Sin embargo, observa que ahora te estamos dando una función de masa de probabilidad, y no te damos una función de distribución. ¿Cómo podemos estar seguros de que la función que nos están dando representa el comportamiento probabilístico de manera correcta? Hay dos cosas de tenemos que revisar:

  • Para cada $y \in \RR$, se debe de cumplir que $p_{Y}(y) \geq 0$. Recuerda, $p_{Y}(y)$ es una probabilidad, así que debe de ser mayor o igual a $0$.
  • Que la suma de todos los valores que toma $p_{Y}$ es $1$. Esto debe de pasar porque la probabilidad de que $Y$ tome alguno de los valores que puede tomar debe de ser $1$.

La primera propiedad se cumple, pues $p_{Y}(y)$ es $0$ o una potencia de $\frac{1}{2}$. La segunda propiedad hay que verificarla. Para ello, hay que obtener

\[ \sum_{k=1}^{\infty} p_{Y}(k) = \sum_{k=1}^{\infty} {\left(\frac{1}{2}\right)}^{k}. \]

Podemos hacer uso de la fórmula para una serie geométrica, modificando un poco la expresión anterior. Así,

\begin{align*} \sum_{k = 1}^{\infty} {\left(\frac{1}{2}\right)}^{k} &= \sum_{k = 0}^{\infty} {\left(\frac{1}{2}\right)}^{k+1} \\[1em] &= \sum_{k = 0}^{\infty} {\left(\frac{1}{2}\right)}{\left(\frac{1}{2}\right)}^{k} \\[1em] &= {\left(\frac{1}{2}\right)} \sum_{k = 0}^{\infty} {\left(\frac{1}{2}\right)}^{k} \\[1em] \end{align*}

Así, nos queda una serie geométrica de la forma $\sum_{k=0}^{\infty} ar^{k}$, con $0 < r < 1$, por lo que resulta

\begin{align*} {\left(\frac{1}{2}\right)} \sum_{k = 0}^{\infty} {\left(\frac{1}{2}\right)}^{k} &= {\left(\frac{1}{2}\right)}{\left(\frac{1}{1 − \frac{1}{2} }\right)} \\[1em] &= {\left(\frac{1}{2}\right)}{\left(2\right)} \\[1em] &= 1.\end{align*}

Esto garantiza que $p_{Y}$ es una función que describe el comportamiento probabilístico de una v.a.

Podemos hacer el cálculo de probabilidades de $Y$. Por ejemplo, ¿cuál es la probabilidad de que $Y$ sea $2$ o sea $6$? Para verlo, tenemos que obtener la probabilidad de $(X =2) \cup (X = 6)$. Estos dos conjuntos son ajenos, pues

\[ (X = 2) \cap (X = 6) = X^{-1}[\{ 2 \}] \cap X^{-1}[\{ 6 \}] = X^{-1}[\{ 2 \} \cap \{ 6 \}] = X^{-1}[\emptyset] = \emptyset, \]

así que $\Prob{(X = 2) \cup (X = 6)} = \Prob{X = 2} + \Prob{X = 6}$. Así, tenemos que

\begin{align*} \Prob{(X = 2) \cup (X = 6)} &= \Prob{X = 2} + \Prob{X = 6} \\[1em]
&= p_{Y}(2) + p_{Y}(6) \\[1em] &= \frac{1}{2^{2}} + \frac{1}{2^{6}} \\[1em] &= \frac{1}{4} + \frac{1}{64} \\[1em] &= \frac{17}{64} \approx 0.2656, \\[1em] \end{align*}

así que la probabilidad de que $Y$ tome el valor $2$ o tome el valor $6$ es de aproximadamente $0.2656$, o $26.56\%$. Por otro lado, ¿cuál será la probabilidad de que $Y \geq 5$? Esta es la probabilidad de que tome alguno de los valores $1$, $2$, $3$, $4$ o $5$. En consecuencia, tenemos que

\begin{align*} \Prob{Y \leq 5} &= \Prob{Y = 1} + \Prob{Y = 2} + \Prob{Y = 3} + \Prob{Y = 4} + \Prob{Y = 5} \\[1em] &= \sum_{k=1}^{5} \Prob{Y = k} \\[1em] &= \sum_{k=1}^{5} p_{Y}(k) \\[1em] &= \sum_{k=1}^{5} {\left(\frac{1}{2}\right)}^{k} \\[1em] &= {\left(\frac{1}{2}\right)}\sum_{k=1}^{5} {\left(\frac{1}{2}\right)}^{k−1} \\[1em] &= {\left(\frac{1}{2}\right)}\sum_{k=0}^{4} {\left(\frac{1}{2}\right)}^{k} \\[1em] &= {\left(\frac{1}{2}\right)} {\left(\dfrac{1 − {\left(\frac{1}{2}\right)}^{4+1}}{1 − \frac{1}{2}}\right)} \\[1em] &= {\left(\frac{1}{2}\right)} {\left(\dfrac{1 − {\left(\frac{1}{2}\right)}^{5}}{\frac{1}{2}}\right)} \\[1em] &= {1 − {\left(\frac{1}{2}\right)}^{5}} = 0.96875, \end{align*}

así que la probabilidad de que $Y$ sea menor o igual a $5$ es de $0.96875$, o $96.875\%$. Otra pregunta interesante es, ¿cuál es la probabilidad de que $Y$ sea un número par? Es decir, si $P$ es el conjunto de números naturales pares,

\[ P = \{ n \in \mathbb{N}^{+} \mid \exists k \in \mathbb{N}\colon n = 2k \}, \]

¿cuál es el valor de $\Prob{Y \in P}$? Para verlo, observa que como en las probabilidades anteriores, la probabilidad que queremos calcular puede verse como la suma de las probabilidades de todos los valores en $P$. De este modo, se tiene que

\begin{align*} \Prob{Y \in P} &= \sum_{n \in P} \Prob{Y = n} \\[1em] &= \sum_{k = 1}^{\infty} \Prob{Y = 2k} \\[1em] &= \sum_{k = 1}^{\infty} p_{Y}(k) \\[1em] &= \sum_{k=1}^{\infty} {\left(\frac{1}{2}\right)}^{2k} \\[1em] &= {\left(\frac{1}{2}\right)}^{2}\sum_{k=1}^{\infty} {\left(\frac{1}{2}\right)}^{2k−2} \\[1em] &= {\left(\frac{1}{2}\right)}^{2}\sum_{k=1}^{\infty} {\left(\frac{1}{2}\right)}^{2(k−1)} \\[1em] &= {\left(\frac{1}{2}\right)}^{2}\sum_{k=1}^{\infty} {\left(\frac{1}{2^{2}}\right)}^{k−1} \\[1em] &= {\left(\frac{1}{2}\right)}^{2}\sum_{k=1}^{\infty} {\left(\frac{1}{4}\right)}^{k−1} \\[1em] &= {\left(\frac{1}{2}\right)}^{2}\sum_{k=0}^{\infty} {\left(\frac{1}{4}\right)}^{k} \\[1em] &= {\left(\frac{1}{4}\right)}{\left(\dfrac{1}{1 − \frac{1}{4}}\right)} \\[1em] &= {\left(\frac{1}{4}\right)}{\left(\dfrac{1}{\frac{3}{4}}\right)} \\[1em] &= {\left(\frac{1}{4}\right)}{\left(\dfrac{4}{3}\right)} = \frac{1}{3},\end{align*}

así que la probabilidad de que $Y$ tome como valor un número par es de $\frac{1}{3}$, o $33.333\ldots\%$.

Finalmente, observa que $\mathbb{N}$ y $\mathbb{N}^{+}$ son soportes de $Y$, pues $\Prob{Y \in \mathbb{N}^{+}} = 1$, y como $\mathbb{N}^{+} \subseteq \mathbb{N}$, se tiene que $\Prob{Y \in \mathbb{N}^{+}} \leq \Prob{Y \in \mathbb{N}}$, que implica $\Prob{Y \in \mathbb{N}} = 1$. Esto exhibe que cuando $S$ es un soporte de una v.a. discreta, está asegurado que contiene a todos los valores que puede tomar la v.a., pero no significa que todos los elementos de $S$ tienen probabilidad positiva. Por ejemplo, en este caso tenemos que $\Prob{Y = 0} = 0$ y $0 \in \mathbb{N}$.


Propiedades de una función de masa de probabilidad

Como vimos en el ejemplo anterior (y en la discusión que le precede), la función de masa de probabilidad es suficiente para conocer el comportamiento probabilístico de una v.a. discreta. Por ello, es necesario saber qué propiedades necesita una función cualquiera para ser la función de masa de probabilidad de alguna v.a. discreta $X$.

Sea $p\colon\RR\to\RR$ una función y sea $S = \{ \, s_{i} \mid i \in I \, \} \in \mathscr{B}(\RR)$ un conjunto a lo más numerable de números reales y sea $\{ \pi_{i} \mid i \in I \}$ una colección de números reales tales que

  1. Para cada $i \in I$ se cumple que $\pi_{i} \geq 0$.
  2. Se cumple que\[ \sum_{i \in I} \pi_{i} = 1, \]

si definimos $p\colon\RR\to\RR$ como

\[ p(x) = \begin{cases} \pi_{i} & \text{si $x = s_{i}$, con $i \in I$,} \\[1em] 0 & \text{si $x \notin S$,}\end{cases} \]

entonces existe una v.a. discreta $X$ tal que $p$ es la función de masa de probabilidad de $X$. En efecto, al tomar $F\colon\RR\to\RR$ dada por

\[ F(x) = \sum_{s \in (-\infty, x]} p(s), \quad \text{para cada $x \in \RR$,} \]

se tiene que $F$ es una función de distribución, así que la existencia de $X$ está garantizada por lo que vimos en la entrada de Funciones de Distribución.

En conclusión, si tu cuentas con una colección a lo más numerable $S = \{ \, s_{i} \mid i \in I \, \}$ de números reales, y $\{ \, \pi_{i} \mid i \in I \, \}$ son números reales que se pueden usar como la probabilidad de los elementos de $S$ (de tal manera que $\pi_{i}$ es la probabilidad de $s_{i}$), estos valores definen las probabilidades de que alguna v.a. discreta tome los valores en $S$.

Esto es, existe una v.a. discreta $X$ tal que

\begin{align*} \Prob{X = s_{i}} &= \pi_{i}, \quad \text{para cada $i \in I$.}\end{align*}

Fórmula para la función de distribución a partir de la función de masa de probabilidad

Más adelante veremos algunas v.a.’s que tienen a $\mathbb{N}$ como un soporte. Esto es, la probabilidad de que esas v.a.’s caigan en $\mathbb{N}$ es $1$. Por ello, el conjunto de valores que puede tomar una v.a. de ese tipo es el conjunto de los números naturales, o algún subconjunto de este, como $\mathbb{N}^{+}$ o $\{ 0, 1, \ldots, n \}$, para algún $n \in \mathbb{N}^{+}$. Por ejemplo, ya vimos que $\mathbb{N}$ es un soporte de la v.a. $Y$ del último ejemplo; aún cuando el conjunto de valores que puede tomar $Y$ es $\mathbb{N}^{+}$.

En tales casos, la función de distribución de una v.a. discreta puede escribirse a partir de la función de masa de probabilidad de manera ordenada como sigue. Si $X$ es una v.a. discreta tal que su función de masa de probabilidad es $p_{X}\colon\RR\to\RR$ dada por

\[p_{X}(x) = \begin{cases} \pi_{x} & \text{para cada $x \in \mathbb{N}$,} \\[1em] 0 & \text{si $x \notin \mathbb{N}$}, \end{cases} \]

donde $\{ \pi_{i} \mid i \in \mathbb{N} \}$ son números reales tales que $\pi_{i} \geq 0$ para cada $i \in \mathbb{N}$ y $\sum_{k=0}^{\infty} \pi_{k} = 1$. Entonces la función de distribución de $X$ puede escribirse como

\[ F_{X}(x) = \begin{cases} 0 & \text{si $x < 0$,} \\[1em] \pi_{0} + \pi_{1} + \cdots + \pi_{\lfloor x \rfloor} & \text{si $x \geq 0$}. \end{cases} \]

donde $\lfloor x \rfloor$ es el mayor entero que es menor o igual a $x$. Por ejemplo, $\lfloor \pi \rfloor = 3$ y $\lfloor 6.34 \rfloor = 6$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que si $X$ es una v.a., entonces se para cada $a \in \RR$ se cumple que\[ F_{X}(a-) = \Prob{X < a}. \]Sugerencia: Aplica el teorema de continuidad de la probabilidad a la sucesión de conjuntos $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$, donde para cada $n\in\mathbb{N}^{+}$ definimos $A_{n} = (-\infty, a − \frac{1}{n}]$.
  2. Retomando el Ejemplo 1, encuentra la probabilidad de que «$X$ tome el valor $1$ o el valor $-1$».
  3. Encuentra la función de distribución de la variable aleatoria $Y$ del Ejemplo 2. Sugerencia: Nosotros obtuvimos $\Prob{Y \leq 5}$, ¿qué pasa si en vez de hacerlo para $5$, lo haces para cualquier $x \in \RR$?

Más adelante…

Más adelante veremos muchas v.a.’s discretas para las cuales $\mathbb{N}$ es un soporte. Como comentamos en la última sección de esta entrada, esto significará que el conjunto de valores que pueden tomar esas v.a.’s es $\mathbb{N}$ o algún subconjunto de $\mathbb{N}$. Por ello, la función de distribución de esas v.a.’s podrá escribirse utilizando la fórmula que obtuvimos en esa sección.

En la siguiente entrada abordaremos las v.a.’s continuas. Así como las v.a.’s discretas, las v.a.’s continuas tienen ciertas peculiaridades importantes que tenemos que analizar.

Entradas relacionadas

Probabilidad I: Funciones de Distribución de Probabilidad

Por Octavio Daniel Ríos García

Introducción

Una vez que hemos introducido el concepto de variable aleatoria, nos toca ver qué nuevas definiciones surgen a partir de este. Un primer concepto que surge es la función de distribución. A grandes rasgos, dado un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$, en la entrada anterior vimos que una función $X\colon\Omega\to\RR$ debe de satisfacer que para cualquier $x \in \RR$, $X^{-1}[(-\infty, x]]$ es un evento de $\Omega$. Básicamente, esta condición era suficiente para concluir que para cada $B \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[B] \in \mathscr{F}$. En otras palabras, la imagen inversa de cualquier evento de $\RR$ es un evento de $\Omega$.

De manera similar, lo que haremos será definir la probabilidad de los eventos de la forma $(X \leq x)$, con $x \in \RR$. No lo veremos aquí (porque no tenemos las herramientas suficientes para hacerlo), pero resulta que asignarle probabilidad a esos eventos captura toda la información relevante sobre una variable aleatoria. Esto nos permitirá prescindir por completo de muchos detalles de la variable aleatoria, y centrar nuestra atención en el conjunto de valores que puede tomar.

Funciones de distribución de probabilidad

De manera general, existe un tipo de función que nos va a interesar a partir de ahora, que corresponde a las funciones de distribución de probabilidad. Estas se definen como sigue.


Definición. Sea $F\colon\RR\to\RR$ una función. Diremos que $F$ es una función de distribución de probabilidad si:

  1. $F$ es no-decreciente. Esto es, para cada $a, b \in \RR$, si $a < b$ entonces $F(a) \leq F(b)$.
  2. $F$ es continua por la derecha. Es decir, para cada $a \in \RR$ se cumple que\[ \lim_{x\to a^{+}} F(x) = F(a). \]
  3. Se cumple que\[ \lim_{x\to\infty} F(x) = 1 \quad\text{y}\quad \lim_{x\to -\infty} F(x) = 0. \]

Una función no requiere de ningún contexto adicional para considerarse una función de distribución de probabilidad. Es decir, para que una función $F\colon\RR\to\RR$ sea considerada una función de distribución de probabilidad, simplemente debe de ser no-decreciente, continua por la derecha y sus límites a $\infty$ y $-\infty$ deben de ser $1$ y $0$, respectivamente.

Ejemplo 1. Sean $a, b \in \RR$ tales que $a < b$. La función $F\colon\RR\to\RR$ dada por

\[ F(x) = \begin{cases} 0 & \text{si $x < a$,} \\[1em] \cfrac{x − a}{b − a} & \text{si $a \leq x \leq b$,} \\[1em] 1 & \text{si $b < x$.} \end{cases} \]

es no-decreciente, continua por la derecha y sus límites a $\infty$ y $-\infty$ son $1$ y $0$, así que es una función de distribución de probabilidad. Gráficamente, se ve como sigue.

Figura. Gráfica de la función de distribución de probabilidad expuesta en este ejemplo.

Ejemplo 2. Sea $\lambda \in \RR$ tal que $\lambda > 0$. La función $F\colon\RR\to\RR$ dada por

\[ F(x) = \begin{cases} 0 & \text{si $x < 0$,} \\[1em] 1 − e^{-\lambda x} & \text{si $x \geq 0$.} \end{cases} \]

es una función de distribución de probabilidad. Gráficamente:

Figura. Gráfica de la función de distribución de probabilidad de este ejemplo.

Función de distribución de una variable aleatoria

Dada cualquier variable aleatoria $X$ sobre un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$, hay una función muy importante asociada a $X$: su función de distribución, definida como sigue.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sea $X\colon\Omega\to\RR$ una variable aleatoria. La función de distribución de $X$ es la función $F_{X}\colon\RR\to[0,1]$ dada por

\[ F_{X}(x) = \Prob{\{\, \omega\in\Omega \mid X(\omega) \leq x \,\}} = \Prob{X \leq x}, \quad \text{para cada $x \in \RR$}. \]

$F_{X}$ también es llamada la función de distribución acumulada de $X$, que en inglés se abrevia como CDF (cumulative distribution function).


Es decir, dada una variable aleatoria $X$, su función de distribución devuelve la probabilidad de que $X$ sea menor o igual a $x$, para cada $x \in\RR$. Como seguramente ya sospechas por el nombre de $F_{X}$, resulta que $F_{X}$ es una función de distribución de probabilidad. Este hecho es demostrado en el siguiente teorema.


Teorema. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sea $X\colon\Omega\to\RR$ una variable aleatoria. Entonces $F_{X}\colon\RR\to[0,1]$ es una función de distribución de probabilidad.


Demostración. De acuerdo con la definición, para demostrar que $F_{X}\colon\RR\to\RR$ es una función de distribución de probabilidad, tenemos que demostrar 3 cosas:

  1. $F_{X}$ es no-decreciente: para cada $a, b \in \RR$, si $a < b$ entonces $F_{X}(a) \leq F_{X}(b)$.
  2. $F_{X}$ es continua por la derecha: que para cada $a \in \RR$ se cumple que\[ \lim_{x\to a^{+}} F_X(x) = F_{X}(a). \]
  3. Se cumple que\[ \lim_{x\to\infty} F_{X}(x) = 1 \quad\text{y}\quad \lim_{x\to -\infty} F_{X}(x) = 0. \]

Veamos que se cumple 1. Sean $a, b \in \RR$ tales que $a < b$. Ahora, observa que $(a, b] = (-\infty, b] \smallsetminus (-\infty, a]$, por lo que

\begin{align*} \Prob{X^{-1}[(a, b]]} &= \Prob{X^{-1}[(-\infty, b] \smallsetminus (-\infty, a]]} \\[0.5em] &= \Prob{X^{-1}[(-\infty, b]] \smallsetminus X^{-1}[(-\infty, a]]}. \end{align*}

Como $a < b$, se cumple que $(-\infty, a] \subseteq (-\infty, b]$, por lo que

\[ X^{-1}[(-\infty, a]] \subseteq X^{-1}[(-\infty, b]], \]

así que $\Prob{X^{-1}[(-\infty, b]] \smallsetminus X^{-1}[(-\infty, a]]} = \Prob{X^{-1}[(-\infty, b]]} − \Prob{X^{-1}[(-\infty, a]]}$. En consecuencia, tenemos que

\begin{align*} \Prob{X^{-1}[(a, b]]} &= \Prob{X^{-1}[(-\infty, b]]} − \Prob{X^{-1}[(-\infty, a]]} \\[0.5em] &= \Prob{X \leq b} − \Prob{X \leq a} \\[0.5em] &= F_{X}(b) − F_{X}(a). \end{align*}

Recuerda que $\mathbb{P}$ es una medida de probabilidad, por lo que $\Prob{X^{-1}[(a, b]]} \geq 0$; que implica $F_{X}(b) − F_{X}(a) \geq 0$, o equivalentemente, que $F_{X}(b) \geq F_{X}(a)$. En conclusión, para cualesquiera $a, b \in \RR$ tales que $a < b$, se cumple que $F_{X}(a) \leq F_{X}(b)$, que es justamente lo que queríamos demostrar. Por lo tanto, $F_{X}$ es una función no-decreciente.

Para demostrar 2, sea $(x_{n})_{n\in\mathbb{N}^{+}} \subseteq \RR$ una sucesión monótona decreciente de números reales tal que su límite es $0$. Es decir, $x_{1} > x_{2} > x_{3} > \cdots$ y

\[ \lim_{n\to\infty} x_{n} = 0. \]

Ahora, sea $a \in \RR$. Definimos la sucesión de eventos $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ tal que para cada $n \in \mathbb{N}^{+}$, $A_{n} = ( X \leq a + x_{n} )$. De este modo, se tiene que

\[ \bigcap_{n=1}^{\infty} A_{n} = (X \leq a), \]

pues la sucesión $(x_{n})_{n\in\mathbb{N}^{+}}$ converge a $0$. Ahora, por el teorema de continuidad de la probabilidad, tenemos que

\[ F_{X}(a) = \Prob{X \leq a} = \Prob{\bigcap_{n=1}^{\infty} A_{n}} = \lim_{n\to\infty} \Prob{A_{n}} = \lim_{n\to\infty} \Prob{X \leq a + x_{n}} = \lim_{n\to\infty} F_{X}(a + x_{n}), \]

es decir, $\lim_{n\to\infty} F_{X}(a + x_{n}) = F_{X}(a)$, para cualquier $a \in \RR$ y cualquier sucesión monótona decreciente $(x_{n})_{n\in\mathbb{N}^{+}}$. Por ello, se puede concluir que $F_{X}$ es una función continua por la derecha.

Finalmente, en 3 demostraremos que el límite de $F_{X}(x)$ cuando $x\to\infty$ es $1$. La demostración del otro límite es muy parecida. Sea $(x_{n})_{n\in\mathbb{N}^{+}} \subseteq \RR$ una sucesión de números reales tal que $x_{1} \leq x_{2} \leq x_{3} \leq \cdots$ y $\lim_{n\to\infty} x_{n} = \infty$. Para cada $n \in \mathbb{N}^{+}$ definimos

\[ A_{n} = (X \leq x_{n}) = X^{-1}[(-\infty, x_{n}]]. \]

De esta forma, tenemos que $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión creciente de eventos, pues observa que $A_{1} \subseteq A_{2} \subseteq A_{3} \subseteq \cdots$ De este modo, como supusimos que $(x_{n})_{n\in\mathbb{N}^{+}}$ es una sucesión que diverge a $\infty$, se tiene que

\[ \bigcup_{n=1}^{\infty} A_{n} = \bigcup_{n=1}^{\infty}(X \leq x_{n}) = \bigcup_{n=1}^{\infty}X^{-1}[(-\infty, x_{n}]] = X^{-1}{\left[ \bigcup_{n=1}^{\infty} (-\infty, x_{n}] \right]} = X^{-1}[\RR] = \Omega. \]

Ahora, aplicando el teorema de la continuidad de la probabilidad a $\{ A_{n}\}_{n\in\mathbb{N}^{+}}$ y usando que la sucesión $(x_{n})_{n\in\mathbb{N}^{+}}$ es divergente, tenemos que

\begin{align*} \lim_{x\to\infty} F_{X}(x) &= \lim_{n\to\infty} F_{X}(x_{n}) \\ &= \lim_{n\to\infty}\Prob{X \leq x_{n}} \\ &= \lim_{n\to\infty}\Prob{A_{n}} \\ &= \Prob{\bigcup_{n=1}^{\infty} A_{n}} \\ &= \Prob{\Omega} \\ &= 1. \end{align*}

En conclusión, tenemos que

\[ \lim_{x\to\infty} F_{X}(x) = 1, \]

que es justamente lo que queríamos demostrar. La demostración de que el límite a $-\infty$ de $F_{X}$ es $0$ se obtiene de manera casi análoga, pero la familia de eventos que se plantea es decreciente, y se utiliza el teorema de continuidad de la probabilidad para ese caso.

$\square$

Partiendo de una función de distribución de probabilidad

Por el teorema anterior, vimos que la función de distribución de cualquier variable aleatoria es también una función de distribución de probabilidad. Es decir, que si tienes un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ y una variable aleatoria $X\colon\Omega\to\RR$, la función de distribución de $X$, $F_{X}\colon\RR\to[0,1]$, es una función de distribución de probabilidad.

Por otro lado, ahora imagina que te encuentras con una función $F\colon\RR\to\RR$ que es una función de distribución de probabilidad. No obstante, observa que no sabes nada más sobre esta función. Es decir, no hay ninguna variable aleatoria ni un espacio de probabilidad a la vista… ¿Será posible que $F$ provenga de alguna variable aleatoria $X$ definida sobre un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$?

En otras palabras: dada $F\colon\RR\to\RR$ una función de distribución de probabilidad, ¿siempre existen un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ y una variable aleatoria $X\colon\Omega\to\RR$ tal que $F$ es la función de distribución de $X$? ¡La respuesta es que ! A grandes rasgos, $F$ define la probabilidad de los eventos de la forma $(-\infty, x]$, para cada $x \in \RR$. Esto resulta suficiente para definir por completo la medida de probabilidad inducida por una variable aleatoria $X$… pero, ¿cuál variable aleatoria $X$? De manera canónica, siempre puede utilizarse la variable aleatoria identidad sobre $\Omega = \RR$, que es la función $X\colon\RR\to\RR$ tal que para cada $\omega\in\RR$, $X(\omega) = \omega$. De este modo, la medida de probabilidad inducida por $X$ es la misma que la medida en el dominio de $X$, que en este caso es $\RR$ con $\mathscr{B}(\RR)$ como σ-álgebra, y usando la medida determinada por $F$.

¡CUIDADO! Esto NO significa que todas las variables aleatorias son simplemente la función identidad. Lo que significa es que siempre que tengas una función de distribución de probabilidad $F\colon\RR\to\RR$, está garantizado que existen un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ y una variable aleatoria $X\colon\Omega\to\RR$ de tal forma que $F$ es la función de distribución de $X$. La existencia está garantizada porque, al menos, siempre se puede usar la función identidad de $\RR$ en $\RR$ como variable aleatoria, pero puede haber otras distintas cuya función de distribución también es $F$.

Los siguientes ejemplos son largos, pero capturan muchas de las ideas vistas hasta ahora sobre variables aleatorias. Además, en conjunto, estos dos ejemplos exhiben lo que comentamos en el párrafo anterior.

Ejemplo 3. Sea $\Omega = \{ 0, 1\}^{3}$. Es decir, $\Omega$ es el conjunto

\[ \Omega = \{ (0,0,0), (0,0,1), (0,1,0), (1,0,0), (0,1,1), (1,0,1), (1,1,0), (1,1,1) \}. \]

$\Omega$ puede pensarse como el espacio muestral de un experimento aleatorio en el que se hacen $3$ ensayos de un experimento aleatorio que tiene dos resultados posibles: éxito o fracaso. Por ejemplo, el lanzamiento de una moneda («águila» o «sol»). Tomaremos como σ-algebra de $\Omega$ a $\mathscr{P}(\Omega)$, la potencia de $\Omega$.

Sea $p \in \RR$ tal que $p \in [0,1]$. Plantearemos una medida de probabilidad tal que los $3$ ensayos son independientes. Para ello, para cada $k \in \{1,2,3\}$ planteamos los eventos

  • $A_{k}$: el evento de que el $k$-ésimo ensayo sea un éxito. Es decir, $A_{k}$ es el evento\[ A_{k} = \{\, (\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega \mid \omega_{k} = 1 \,\}. \]
  • $B_{k}$: el evento de que el $k$-ésimo ensayo sea un fracaso. Es decir, $B_{k}$ es el evento\[ B_{k} = \{\, (\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega \mid \omega_{k} = 0 \,\}. \]

Observa que para cada $k \in \{1,2,3\}$ se cumple que $B_{k} = A_{k}^{\mathsf{c}}$. Por ejemplo, $A_{2}$ es el evento

\[ A_{2} = \{\, (\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega \mid \omega_{2} = 1 \,\} = \{ (0,1,0), (0,1,1), (1,1,0), (1,1,1) \} \]

Comenzamos a definir la medida de probabilidad $\mathbb{P}\colon\mathscr{P}(\Omega)\to\RR$ como sigue: para cada $k \in \{1,2,3\}$ definimos

\[ \Prob{A_{k}} = p, \]

\[ \Prob{B_{k}} = 1 − p, \]

y pedimos que $\mathbb{P}$ sea tal que los eventos $A_{1}$, $A_{2}$ y $A_{3}$ son independientes. En consecuencia, se cumple lo siguiente

\begin{align} \Prob{A_{1} \cap A_{2} \cap A_{3}} &= \Prob{A_{1}}\Prob{A_{2}}\Prob{A_{3}} = p^{3} \\[1em] \Prob{B_{1} \cap A_{2} \cap A_{3}} &= \Prob{B_{1}}\Prob{A_{2}}\Prob{A_{3}} = (1 − p)p^{2} = p^{2}(1 − p) \\[1em] \Prob{A_{1} \cap B_{2} \cap A_{3}} &= \Prob{A_{1}}\Prob{B_{2}}\Prob{A_{3}} = p(1 − p)p = p^{2}(1 − p) \\[1em] \Prob{A_{1} \cap A_{2} \cap B_{3}} &= \Prob{A_{1}}\Prob{A_{2}}\Prob{B_{3}} = p^{2}(1 − p), \\[1em] \Prob{B_{1} \cap B_{2} \cap A_{3}} &= \Prob{B_{1}}\Prob{B_{2}}\Prob{A_{3}} = (1 − p)^{2}p = p(1 − p)^{2}, \\[1em] \Prob{B_{1} \cap A_{2} \cap B_{3}} &= \Prob{B_{1}}\Prob{A_{2}}\Prob{B_{3}} = (1− p)p(1− p) = p(1 − p)^{2}, \\[1em] \Prob{A_{1} \cap B_{2} \cap B_{3}} &= \Prob{A_{1}}\Prob{B_{2}}\Prob{B_{3}} = p(1 − p)^{2}, \\[1em] \Prob{B_{1} \cap B_{2} \cap B_{3}} &= \Prob{B_{1}}\Prob{B_{2}}\Prob{B_{3}} = (1 − p)^{3}. \\[1em] \end{align}

De hecho, observa que estas condiciones son suficientes para definir la probabilidad de cada resultado, y así, la de cada evento $A \in \mathscr{P}(\Omega)$. Por ejemplo, nota que

\[ A_{1} \cap A_{2} \cap A_{3} = \{ \, (\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega \mid \omega_{1} = 1 \land \omega_{2} = 1 \land \omega_{3} = 1 \, \} = \{ (1,1,1) \}, \]

y por lo anterior, $\Prob{A_{1} \cap A_{2} \cap A_{3}} = p^{3}$. Por lo tanto, se concluye que

\[ \Prob{\{(1,1,1)\}} = p^{3}. \]

Los $8$ elementos de $\Omega$ pueden verse como las intersecciones de las identidades $(1)$ a $(8)$, así que la probabilidad de cada uno está determinada por cada una de esas igualdades. Por ejemplo, además de la anterior ($\Prob{\{(1,1,1)\}} = p^{3}$), observa que

\[ A_{1} \cap B_{2} \cap B_{3} = \{ \, (\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega \mid \omega_{1} = 1 \land \omega_{2} = 0 \land \omega_{3} = 0 \, \} = \{ (1,0,0) \}, \]

por lo que $\Prob{\{(1,0,0)\}} = p(1−p)^{2}$. Ahora, presta atención a los exponentes de $p$ y de $1−p$ en estas probabilidades, y compáralos con el número de $1$’s y $0$’s de las ternas ordenadas. ¿Qué puedes observar? Resulta que el exponente de la $p$ es el número de $1$’s, es decir, el número de éxitos. Por otro lado, el exponente del $1−p$ es el número de $0$’s, es decir, el número de fracasos.

Ahora, para cada $\mathbf{a} \in \Omega$, $\mathbf{a}$ puede escribirse como $\mathbf{a} = (a_{1}, a_{2}, a_{3})$, con $a_{1}$, $a_{2}$, $a_{3} \in \{0,1\}$. En consecuencia, el número de éxitos en la terna $\mathbf{a}$ puede escribirse como

\[ {\lVert \mathbf{a} \rVert}_{1} = {\left\lVert (a_{1}, a_{2}, a_{3}) \right\rVert}_{1} = |a_{1}| + |a_{2}| + |a_{3}|. \]

Por el contrario, el número de fracasos en la terna $\mathbf{a}$ puede escribirse como

\[ 3 − {\lVert \mathbf{a} \rVert}_{1} = 3 − {\left\lVert (a_{1}, a_{2}, a_{3}) \right\rVert}_{1} = 3 − (|a_{1}| + |a_{2}| + |a_{3}|). \]

De este modo, para cada $\mathbf{a} \in \Omega$, se tiene que

\[ \Prob{\{\mathbf{a}\}} = p^{{\lVert \mathbf{a} \rVert}_{1}} (1−p)^{3 − {\lVert \mathbf{a}\rVert}_{1}}. \]

Por esta razón, definimos a la medida de probabilidad $\mathbb{P}\colon\mathscr{P}(\Omega) \to \RR$ dada por

\[ \Prob{A} = \sum_{\mathbf{a}\in A} p^{{\lVert \mathbf{a} \rVert}_{1}} (1−p)^{3 − {\lVert \mathbf{a}\rVert}_{1}}, \quad \text{para cada $A \in \mathscr{P}(\Omega)$.}\]

Ahora, definimos a la variable aleatoria $X\colon\Omega\to\RR$ como sigue. Para cada $\mathbf{a}\in\Omega$, se define

\[ X(\mathbf{a}) = \lVert \mathbf{a} \rVert_{1}, \]

por lo que si $\mathbf{a} = (a_{1}, a_{2}, a_{3})$, se tiene que

\[ X(\mathbf{a}) = |a_{1}| + |a_{2}| + |a_{3}|. \]

Por ejemplo, $X(1,0,1) = 1 + 0 + 1 = 2$, y $X(1,1,1) = 1+1+1 = 3$. Es decir, $X$ contabiliza el número de éxitos en los $3$ ensayos. Observa que el conjunto de valores que puede tomar $X$ es $\{ 0, 1, 2, 3 \}$. Obtengamos la probabilidad de que $X$ tome cada uno de estos valores.

\begin{align*} \Prob{X = 0} = \Prob{\{\, \omega \in \Omega \mid X(\omega) = 0 \,\}} &= \Prob{\{ (0,0,0) \}} \\[0.5em] &= (1−p)^{3}, \\[1.5em] \Prob{X = 1} = \Prob{\{\, \omega \in \Omega \mid X(\omega) = 1 \,\}} &= \Prob{\{ (1,0,0), (0,1,0), (0,0,1) \}} \\[0.5em] &= p(1−p)^{2} + p(1−p)^{2} + p(1−p)^{2} \\[0.5em] &= 3p(1−p)^{2}, \\[1.5em] \Prob{X = 2} = \Prob{\{\, \omega \in \Omega \mid X(\omega) = 2 \,\}} &= \Prob{\{ (1,1,0), (1,0,1), (0,1,1) \}} \\[0.5em] &= p^{2}(1−p) + p^{2}(1−p) + p^{2}(1−p) \\[0.5em] &= 3p^{2}(1−p), \\[1.5em] \Prob{X = 3} = \Prob{\{\, \omega \in \Omega \mid X(\omega) = 3 \,\}} &= \Prob{\{ (1,1,1) \}} \\[0.5em] &= p^{3}. \end{align*}

Ahora obtengamos la función de distribución de $X$. Esto es,

\[ F_{X}(x) = \Prob{X \leq x}. \]

Primero, observa que para cada $x \in (-\infty, 0)$ se tiene que $F_{X}(x) = 0$, pues la variable aleatoria no toma valores negativos. Después,

\[ F_{X}(0) = \Prob{X \leq 0} = \Prob{\{\, \omega \in \Omega \mid X(\omega) \leq 0 \,\}} = \Prob{\{ (0,0,0) \}} = (1−p)^{3}. \]

Por otro lado, para cada $x \in (0,1)$, observa que

\[ F_{X}(x) = \Prob{X \leq x} = \Prob{\{\, \omega \in \Omega \mid X(\omega) \leq x \,\}} = \Prob{\{ (0,0,0) \}}. \]

porque el único $\omega \in \Omega$ que hace que $X(\omega) \leq x$ es $\omega = (0,0,0)$, para todos los demás, $X(\omega)$ vale al menos $1$, que es mayor a $x$. Luego, tenemos que

\begin{align*} F_{X}(1) = \Prob{X \leq 1} &= \Prob{\{\, \omega \in \Omega \mid X(\omega) \leq 1 \,\}} \\[0.5em] &= \Prob{\{ (0,0,0), (0,0,1), (0,1,0), (1,0,0) \}} \\[0.5em] &= (1−p)^{3} + 3p(1−p)^{2}, \end{align*}

Observa que ahí se acumularon los elementos de $\Omega$ que hacen que $X(\omega) = 0$ y $X(\omega) = 1$, pues son todos los valores que toma la variable aleatoria que son menores o iguales a $1$.

Después, para cada $x\in(1,2)$, los $\omega\in\Omega$ que hacen que $X(\omega) \leq x$ son los mismos que en el caso anterior, por lo que $F_{X}(x) = F_{X}(1)$. Continuando de esta manera, se llega a que

\begin{align*} F_{X}(2) &= (1−p)^{3} + 3p(1−p)^{2} + 3p^{2}(1−p), \\[0.5em] F_{X}(x) &= F_{X}(2) & \text{para cada $x \in (2,3)$,} \\[0.5em] F_{X}(3) &= (1−p)^{3} + 3p(1−p)^{2} + 3p^{2}(1−p) + p^{3}, \\[0.5em] F_{X}(x) &= F_{X}(3) & \text{para cada $x \in (3,\infty)$.} \end{align*}

Observa que la expresión para $F_{X}(3)$ corresponde a $(p + (1−p))^{3}$, por el teorema del binomio. En consecuencia, $F_{X}(3) = (p + (1−p))^{3} = 1^3 = 1$. De este modo, obtenemos que la función de distribución de $X$ es la función dada por

\[ F_{X}(x) = \begin{cases} 0 & \text{si $x < 0$,} \\[1em] (1−p)^{3} & \text{si $0 \leq x < 1$,} \\[1em] (1−p)^{3} + 3p(1−p)^{2} & \text{si $1 \leq x < 2$,} \\[1em] (1−p)^{3} + 3p(1−p)^{2} + 3p^{2}(1−p) & \text{si $2 \leq x < 3$,} \\[1em] 1 & \text{si $3 \leq x$.} \end{cases} \]

Nota que a pesar de ser una función con discontinuidades (es una función escalonada), $F_{X}$ sí es continua por la derecha. Observa que también es no-decreciente, y sus límites a $-\infty$ y a $\infty$ son $0$ y $1$, respectivamente; algo que ya esperábamos por el teorema demostrado en esta entrada.

Figura. Gráfica de la función $F_{X}$. Es una función escalonada, continua por la derecha. Sus discontinuidades las representamos como círculos sin relleno. Para hacer la gráfica, utilizamos el valor $p = \frac{1}{2}$.

Ejemplo 4. Ahora sea $F\colon\RR\to\RR$ la siguiente función de distribución de probabilidad:

\[ F(x) = \begin{cases} 0 & \text{si $x < 0$,} \\[1em] (1−p)^{3} & \text{si $0 \leq x < 1$,} \\[1em] (1−p)^{3} + 3p(1−p)^{2} & \text{si $1 \leq x < 2$,} \\[1em] (1−p)^{3} + 3p(1−p)^{2} + 3p^{2}(1−p) & \text{si $2 \leq x < 3$,} \\[1em] 1 & \text{si $3 \leq x$.} \end{cases} \]

¡Es la función de distribución de la variable aleatoria $X$ del ejemplo pasado! Sin embargo, nota que aquí te la estamos dando sin ninguna información sobre el espacio de probabilidad subyacente, ni sobre la variable aleatoria involucrada. En primer lugar, ya tenemos garantizado que existe el espacio de probabilidad $(\{0,1\}^{3}, \mathscr{P}(\{0,1\}^{3}), \mathbb{P})$ y la variable aleatoria $X\colon\{0,1\}^{3}\to\RR$ dada por $X(\omega) = {\lVert \omega \rVert}_{1}$, para cada $\omega\in\{0,1\}^{3}$ de tal forma que $F$ es la función de distribución de $X$.

No obstante, observa que podemos definir otra variable aleatoria que resulta en la misma función de distribución. Para ello, toma a $(\RR, \mathscr{B}(\RR), \mathbb{P})$, donde $\mathbb{P}$ es la medida de probabilidad $\mathbb{P}\colon\mathscr{B}(\RR)\to\RR$ definida como sigue: para cada $x\in\RR$, definimos

\[ \Prob{(-\infty, x]} = F(x). \]

Ojo: Esto define la probabilidad de los elementos de $\mathscr{B}(\RR)$ (que son eventos) que tienen la forma $(-\infty, x]$, para cada $x \in \RR$. A su vez, esto define la probabilidad de los eventos de la forma $(a, b]$, para cada $a$, $b \in \RR$ tales que $a < b$, que es

\[ \Prob{(a,b]} = F(b) − F(a), \]

que se puede extender de manera única a una medida sobre todo $\mathscr{B}(\RR)$. Esto es algo que puede demostrarse, pero carecemos de las herramientas para hacerlo en este curso. De cualquier modo, la variable aleatoria que utilizamos en este caso es $Y\colon\RR\to\RR$, la función identidad, dada por

\[ Y(\omega) = \omega, \quad \text{para cada $\omega \in \RR$.} \]

De este modo, se tiene que

\begin{align*} (Y \leq y) &= \{ \, \omega \in \RR \mid Y(\omega) \leq y \, \} \\[0.5em] &= \{ \, \omega \in \RR \mid \omega \leq y \, \} \\[0.5em] &= (-\infty, y], \end{align*}

y por lo tanto, para cada $y \in \RR$,

\[ F_{Y}(y) = \Prob{Y \leq y} = \Prob{(-\infty, y]} = F(y), \]

por lo que la función de distribución de $Y$ es precisamente la función de distribución de probabilidad que escogimos al comenzar este ejemplo. De este modo, $Y$ es una variable aleatoria que puede tomar los valores $0$, $1$, $2$ y $3$… ¡con las mismas probabilidades que la variable aleatoria $X$ del ejemplo pasado! Sin embargo, ¡los espacios de probabilidad sobre los que estas están definidas son completamente distintos! Esto exhibe que lo más importante de una variable aleatoria es su función de distribución, pues esta determina los valores que puede tomar, y la probabilidad con la que los toma. Es decir, la función de distribución caracteriza el comportamiento probabilístico de una variable aleatoria.


¡Presta mucha atención a los últimos dos ejemplos! La conclusión es que el espacio de probabilidad que subyace a una variable aleatoria realmente no importa. Por ello, en muchos libros de probabilidad (y en este mismo curso), no le prestan atención a esto. Comúnmente, te dan una función $F$ que es una función de distribución de probabilidad, y te dicen «sea $X$ una variable aleatoria con distribución $F$». Con eso es suficiente, pues $F$ determina las probabilidades de todos los eventos que involucran a $X$, sin importar quiénes son $X$ y el espacio de probabilidad sobre el que ésta se define.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Determina si la función $F\colon\RR\to\RR$ dada por\[F(x) = \begin{cases} 0 & \text{si $x \leq -1$,} \\[0.5em] \frac{1}{2}(x+1)^2 & \text{si $-1 < x \leq 0$,} \\[0.5em] 1 − \frac{1}{2}(1 − x)^{2} & \text{si $0 < x < 1$,} \\[0.5em] 1 &\text{si $x \geq 1$} \end{cases} \]es una función de distribución de probabilidad. Utiliza su gráfica para auxiliarte, en caso de que lo necesites.
  2. Demuestra que el límite a $-\infty$ de la función de distribución de una variable aleatoria es $0$ Sugerencia: Revisa la demostración de la propiedad 3 que vimos en el teorema de esta entrada.
  3. ¿Podrías idear más variables que tengan la misma función de distribución del Ejemplo 3? Por ejemplo, si \(\Omega_{2} = \{0,2\}^{3}\), decimos que \(2\) representa éxito; y definimos \(Z\colon\Omega_{2}\to\RR\) como la función dada por\begin{align*} Z(\omega_{1}, \omega_{2}, \omega_{3}) &= \frac{\omega_{1} + \omega_{2} + \omega_{3}}{2} & \text{para cada \((\omega_{1}, \omega_{2}, \omega_{3}) \in \Omega_{2}\),} \end{align*}¿tiene \(Z\) la misma distribución que la \(X\) del Ejemplo 3?

Más adelante…

Lo siguiente que haremos en el curso es ver los dos tipos de variables aleatorias más importantes que hay, las discretas y las continuas. A grandes rasgos, las discretas son aquellas que pueden tomar una cantidad a lo más numerable de valores distintos, mientras que las continuas son aquellas que pueden tomar una cantidad no-numerable de valores. Es decir, pueden tomar valores en un conjunto cuya cardinalidad es igual a la de $\RR$. En la siguiente entrada abordaremos las particularidades de las variables aleatorias discretas.

Entradas relacionadas

Probabilidad I: Variables Aleatorias

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada concluimos la primera unidad del curso. Con esto finaliza nuestro estudio general de las medidas de probabilidad. Por otro lado, el contenido de la segunda unidad está enfocado el estudio de las variables aleatorias y sus propiedades.

En esta entrada abordaremos el concepto de variable aleatoria. A grandes rasgos, una variable aleatoria es una función que actúa sobre un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ y devuelve valores numéricos. Sin embargo, no cualquier función puede considerarse una variable aleatoria. Básicamente, una función será una variable aleatoria si algunas de sus imágenes inversas son eventos de $\Omega$. Esto garantizará que se puede calcular la probabilidad de sus valores, y por tanto, podremos calcular la probabilidad de que la variable aleatoria tome valores específicos.

Ideas preliminares

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Es posible que nos interese algún valor numérico asociado a los resultados del experimento en cuestión. Por ejemplo, considerando el experimento de lanzar una moneda $4$ veces de manera equiprobable, sabemos que su espacio muestral es

\[ \Omega = \begin{Bmatrix} \mathrm{AAAA}, & \mathrm{AAAS}, & \mathrm{AASA}, & \mathrm{ASAA}, \\ \mathrm{SAAA}, & \mathrm{AASS}, & \mathrm{ASAS}, & \mathrm{SAAS}, \\ \mathrm{ASSA}, & \mathrm{SASA}, & \mathrm{SSAA}, & \mathrm{SSSA}, \\ \mathrm{SSAS}, & \mathrm{SASS}, & \mathrm{ASSS}, & \mathrm{SSSS} \end{Bmatrix}. \]

y tomamos a $\mathscr{P}(\Omega)$ como σ-álgebra, y como medida a la medida de probabilidad clásica. Una variable asociada a este experimento es la cantidad de águilas que salieron en los $4$ lanzamientos. Esto podríamos definirlo como una función $X\colon \Omega \rightarrow \RR$, tal que para cada $\omega \in \Omega$ se define

\[ X(\omega) = \text{# de $\mathrm{A}$’s en $\omega$}. \]

De este modo, se tiene que

\begin{align*} &X(\mathrm{AAAS}) = 3, \\ &X(\mathrm{ASAS}) = 2, \end{align*}

\begin{align*} &X(\mathrm{ASSS}) = 1, \\ &X(\mathrm{AAAA}) = 4, \end{align*}

etcétera. Al ser una función, $X$ tiene todas las cualidades y propiedades de una función que viste en álgebra superior. En particular, hay un concepto que nos interesa mucho: la imagen inversa de cada uno de los valores que toma $X$. Como recordatorio, dado $B \subseteq \RR$, la imagen inversa de $B$ bajo $X$ es el conjunto

\[ X^{-1}[B] = \{ \, \omega \in \Omega \mid X(\omega) \in B \, \}. \]

Cuando $B$ es un conjunto de la forma $B = \{ x \}$, con $x \in \RR$, se tiene que

\[ X^{-1}[\{x \}] = \{ \, \omega \in \Omega \mid X(\omega) = x \, \}. \]

Por ejemplo, para la función $X$ como la definimos, podemos observar que

\[ X^{-1}[\{ 2 \}] = \{ \, \omega \in \Omega \mid X(\omega) = 2 \, \} = \{ \mathrm{AASS}, \mathrm{ASAS}, \mathrm{SAAS}, \mathrm{ASSA}, \mathrm{SASA}, \mathrm{SSAA} \}. \]

Ahora, observa que $X^{-1}[{ 2 }] \in \mathscr{P}(\Omega)$, por lo que le podemos asignar una probabilidad. En consecuencia, se tiene que

\begin{align*} \Prob{X^{-1}[\{ 2 \}]} = \Prob{\{ \, \omega \in \Omega \mid X(\omega) = 2 \, \}} &= \frac{|\{ \mathrm{AASS}, \mathrm{ASAS}, \mathrm{SAAS}, \mathrm{ASSA}, \mathrm{SASA}, \mathrm{SSAA} \}|}{|\Omega|} \\ &= \frac{6}{16} \\[1.15em] &= 0.375. \end{align*}

Gracias a esto, podemos decir que «la probabilidad de que $X$ tome el valor $2$ es $\frac{6}{16} = 0.375$». Es decir, le podemos asignar probabilidad a los posibles resultados de $X$. Una notación muy frecuente en el contexto de la probabilidad es la siguiente: usaremos $(X \in B)$ para denotar a $\{ \, \omega \in \Omega \mid X(\omega) \in B \,\} = X^{-1}[B]$, de tal forma que

\[ \Prob{\{ \, \omega \in \Omega \mid X(\omega) \in B \,\}} = \Prob{X \in B}. \]

Del mismo modo, cuando $B = \{x\}$, con $x \in \RR$, se adopta la notación $( X = x )$ para denotar al conjunto $\{ \, \omega \in \Omega \mid X(\omega) = x \,\} = X^{-1}{\left[\{ x \}\right]}$, de tal forma que

\[ \Prob{\{ \, \omega \in \Omega \mid X(\omega) = x \,\}} = \Prob{X = x}. \]

De este modo, en este ejemplo tenemos que $\Prob{X = 2} = 0.375$. Del mismo modo, se utilizará la notación $(X \leq x)$ para denotar a $\{ \, \omega \in \Omega \mid X(\omega) \leq x \, \} = X^{-1}[(-\infty, x]]$. Sin embargo, ¡ten cuidado! Esta es una NOTACIÓN para facilitar la escritura de muchas de las expresiones matemáticas que involucran variables aleatorias. Aunque resulte práctica, no olvides lo que representa realmente.

Definición de variable aleatoria

De acuerdo con la motivación anterior, presentamos la definición de variable aleatoria.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Diremos que una función $X\colon\Omega \to \RR$ es una variable aleatoria si para cada $B \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[B] \in \mathscr{F}$.

Es decir, $X$ es una variable aleatoria si la imagen inversa bajo $X$ de cualquier evento del σ-álgebra de Borel, es un evento de $\mathscr{F}$.


En algunos contextos se usa la notación $X\colon(\Omega, \mathscr{F})\to(\RR, \mathscr{B}(\RR))$ para denotar a una variable aleatoria. Usando esta notación, se escribe explícitamente el σ-álgebra del dominio y del codominio de $X$.

Intuitivamente, una variable aleatoria es un valor numérico asociado al resultado de un experimento aleatorio. Por ejemplo, cuando hicimos el experimento de lanzar una moneda $4$ veces, el valor numérico asociado a cada uno de los posibles resultados del experimento es la cantidad de águilas que salieron en los $4$ lanzamientos.

Además, previamente acordamos que los elementos de un σ-álgebra son aquellos que se pueden medir, pues el dominio de la medida $\mathbb{P}$ es el σ-álgebra. Esencialmente, la definición de variable aleatoria pide que la función preserve la medibilidad. Es decir, que si $A$ es un subconjunto medible del codominio de $X$ (esto es, $A \in \mathscr{B}(\RR)$), entonces $X^{-1}[A]$ debe de ser un subconjunto medible del dominio de $X$; es decir, $X^{-1}[A] \in \mathscr{F}$. De este modo,

\[ \Prob{X \in A} = \Prob{X^{-1}[A]} = \Prob{\{\, \omega\in\Omega\mid X(\omega) \in A \,\}}, \]

es un valor que está bien definido, pues $X^{-1}[A] \in \mathscr{F}$ y $\mathrm{Dom}(\mathbb{P}) = \mathscr{F}$.

Una propiedad muy importante de las variables aleatorias

Hay libros introductorios a la probabilidad que prefieren no tocar con mucho detalle la definición de variable aleatoria, o darla de manera distinta. Por ejemplo, tal es el caso de A First Course In Probability de Sheldon M. Ross, o Introducción a la Probabilidad de Luis Rincón. En particular, el caso del libro del Dr. Rincón es importante, pues es el libro al que muchos estudiantes recurren al cursar esta materia. Dicho libro ofrece una definición de variable aleatoria distinta; con el siguiente teorema veremos que es equivalente a la que hemos dado aquí.


Teorema. Sean $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una función. Si $\mathcal{G} \subseteq \RR$ es un conjunto tal que $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$, entonces las siguientes proposiciones son equivalentes:

  1. $X\colon\Omega\to\RR$ es una variable aleatoria.
  2. Para todo $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$.

Demostración. $(1 \implies 2)$ Verificar que 1. implica a 2. no es complicado. Supongamos que $X$ es una variable aleatoria. Por definición, esto asegura que para cada $E \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[E] \in \mathscr{F}$.

Ahora, hay que demostrar que 2. es cierto. Sea $A \in \mathcal{G}$. Sabemos que $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$, es decir, el σ-álgebra generado por $\mathcal{G}$ es el σ-álgebra de Borel sobre $\RR$. Además, sabemos que $\sigma(\mathcal{G})$ satisface $\mathcal{G} \subseteq \sigma(\mathcal{G})$, por lo que $\mathcal{G} \subseteq \mathscr{B}(\RR)$. En consecuencia, $A \in \mathscr{B}(\RR)$, que implica $X^{-1}[A] \in \mathscr{F}$, pues $X$ es una variable aleatoria, garantizando que 2. es verdadero.

$(2 \implies 1)$ Lo interesante es demostrar que 2. implica a 1., pues 2. parece una condición más débil. Así pues, supongamos que $X$ es una función que satisface 2.; que para cada $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$. Ahora queremos demostrar que $X$ es una variable aleatoria. Es decir, queremos demostrar que para cada $B \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[B] \in \mathscr{F}$.

Ahora, hay algunas propiedades importantes de la imagen inversa de una función. Por tus clases de álgebra superior, sabes que para cualquier colección $\{ B_{i} \}_{i \in \mathbb{N}^{+}}$ de subconjuntos de $\RR$ se cumple que

la imagen inversa «abre» la unión: \begin{align*} X^{-1}{\left[ \bigcup_{i=1}^{\infty} B_{i} \right]} = \bigcup_{i=1}^{\infty} X^{-1}{\left[ B_{i} \right]}, \end{align*}

la imagen inversa «abre» la intersección: \begin{align*} X^{-1}{\left[ \bigcap_{i=1}^{\infty} B_{i} \right]} = \bigcap_{i=1}^{\infty} X^{-1}{\left[ B_{i} \right]}. \end{align*}

y además, para cada $B \subseteq \RR$ se cumple que $X^{-1}[\RR \setminus B] = \Omega \setminus X^{-1}[B]$. Defínase ahora $\mathcal{M}$ como sigue:

\begin{align*} \mathcal{M} = \{\, B \subseteq \RR \mid X^{-1}[B] \in \mathscr{F} \,\}. \end{align*}

Es decir, los elementos de $\mathcal{M}$ son los subconjuntos de $\RR$ tales que $X^{-1}[B] \in \mathscr{F}$. Usando las propiedades de la imagen inversa bajo $X$, es posibe demostrar que $\mathcal{M}$ es un σ-álgebra. Más aún, sabemos que para cada $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$. Por ende, $\mathcal{G} \subseteq \mathcal{M}$. Pero $\mathcal{M}$ es un σ-álgebra, y lo anterior demuestra que es un σ-álgebra que contiene a $\mathcal{G}$. En consecuencia, $\sigma(\mathcal{G}) \subseteq \mathcal{M}$.

¡Ajá! Pero $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$; por lo que $\mathscr{B}(\RR) \subseteq \mathcal{M}$. Para concluir, sea $B \in \mathscr{B}(\RR)$. Por lo anterior, se sigue que $B \in \mathcal{M}$, que por la definición de $\mathcal{M}$ significa que $X^{-1}[B] \in \mathscr{F}$, que es justamente lo que queríamos demostrar.

$\square$

Este teorema es de mucha utilidad, ya que dada una función $X\colon\Omega\to\RR$, demostrar que $X$ es una variable aleatoria es equivalente a demostrar que $X$ preserva la medibilidad sobre una familia de conjuntos que genera a $\mathscr{B}(\RR)$, una tarea mucho más sencilla que hacerlo para todos los elementos del σ-álgebra de Borel.

Definición alternativa de variable aleatoria

Previamente establecimos que $\mathscr{B}(\RR)$ es el σ-álgebra generado por varias familias de subconjuntos de $\RR$. En particular, $\mathscr{B}(\RR)$ puede generarse a partir de la familia de intervalos de la forma $(-\infty, x]$, con $x \in \RR$. Por ello, gracias al teorema que demostramos, podemos caracterizar a una variable aleatoria como sigue:


Definición (alternativa). Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Diremos que una función $X\colon\Omega\to\RR$ es una variable aleatoria si para cada $x \in \RR$ se cumple que $X^{-1}[(-\infty, x]] \in \mathscr{F}$. Esto es,

\[ \{ \, \omega \in \Omega \mid X(\omega) \leq x \, \} \in \mathscr{F}. \]


La definición anterior es la que presentan algunos libros como la definición de variable aleatoria (por ejemplo, así la encontrarás el libro del Dr. Luis Rincón, si es que decides consultarlo). No temas, ambas maneras de definir el concepto de variable aleatoria son equivalentes, todo gracias al teorema que vimos en esta entrada.

Medida de probabilidad inducida por una variable aleatoria

Dados $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una variable aleatoria, vimos que podíamos usar la medida de probabilidad $\mathbb{P}$ para medir la probabilidad de los subconjuntos de la forma $(-\infty, x]$ a través de sus imágenes inversas bajo $X$. De hecho, gracias a lo que discutimos al final de la sección pasada, resulta que esto se puede hacer para cualquier evento de $\RR$, es decir, para todos los elementos de $\mathscr{B}(\RR)$. A la medida resultante para los eventos de $\RR$ se le conoce como la medida de probabilidad inducida por $X$, y se define como sigue.


Definición. Sean $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una variable aleatoria. La medida de probabilidad inducida por $X$ es la medida de probabilidad $P_{X}: \mathscr{B}(\RR) \to \RR$ dada por

\begin{align*} P_{X}(B) &= \Prob{\{\, \omega \in \Omega \mid X(\omega) \in B \,\}}, & \text{para cada $B \in \mathscr{B}(\RR)$. } \end{align*}

Equivalentemente, usando la notación probabilista para imágenes inversas, $P_{X}: \mathscr{B}(\RR) \to \RR$ es la función dada por

\begin{align*} P_{X}(B) &= \Prob{X \in B}, & \text{para cada $B \in \mathscr{B}(\RR)$}. \end{align*}


De este modo, si $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad y $X\colon\Omega\to\RR$ es una variable aleatoria, entonces $(\RR, \mathscr{B}(\RR), P_{X})$ es un espacio de probabilidad.

Ejemplos básicos de variables aleatorias

Ejemplo 1. Hay una gran cantidad de experimentos aleatorios cuyos resultados se reducen a «éxito» o «fracaso». Por ejemplo, en el lanzamiento de una moneda, el «águila» y el «sol» podrían verse como «éxito» y «fracaso», respectivamente. Comenzamos con el espacio muestral $\Omega = \{ \mathrm{«Exito», «Fracaso»} \}$. Definimos la variable aleatoria $X\colon\Omega\to\RR$ como sigue

\begin{array}{rcl} X(\mathrm{«Exito»}) & = & 1, \\ X(\mathrm{«Fracaso»}) & = & 0. \end{array}

La elección de estos dos números es un poco arbitraria, aunque obedece a la noción de que, en ciertos contextos, el $1$ es un «acierto» y el $0$ un «error». Esto pasa incluso en la lógica, en donde a veces se denota al «verdadero» como $1$ y al «falso» como $0$, sobre todo en contextos computacionales.

Como σ-álgebra tomaremos a $\mathscr{P}(\Omega)$ y como medida de probabilidad tomaremos la siguiente: sea $p \in \RR$ tal que $p \in [0,1]$. Definimos $\mathbb{P}\colon\mathscr{P}(\Omega)\to\RR$ como sigue:

\begin{array}{rcl} \Prob{\{\mathrm{«Exito»}\}} & = &p, \\ \Prob{\{\mathrm{«Fracaso»}\}} & = & 1 − p, \end{array}

\begin{array}{rcl} \Prob{\emptyset} & = & 0, \\ \Prob{\Omega} & = & p + (1 − p) = 1. \end{array}

En consecuencia, se tendrá que $\Prob{X = 1} = p$ y $\Prob{X = 0} = 1 − p$. De este modo, podemos ver que

\[ \Prob{X = x} = \begin{cases} p & \text{si $x = 1$}, \\ 1 − p & \text{si $x = 0$}, \\ 0 & \text{en otro caso}. \end{cases} \]

Esta es una variable aleatoria muy sencilla, pero muy poderosa. Más adelante, cuando ya hayamos visto más conceptos relacionados con variables aleatorias, la veremos con más detalle.


Ejemplo 2. Considera el experimento de lanzar un dado $2$ veces. El espacio muestral de este experimento es

\begin{align*} \Omega = \begin{Bmatrix} (1,1), & (1,2), & (1,3), & (1,4), & (1,5), & (1,6) \\ (2,1), & (2,2), & (2,3), & (2,4), & (2,5), & (2,6) \\ (3,1), & (3,2), & (3,3), & (3,4), & (3,5), & (3,6) \\ (4,1), & (4,2), & (4,3), & (4,4), & (4,5), & (4,6) \\ (5,1), & (5,2), & (5,3), & (5,4), & (5,5), & (5,6) \\ (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix}, \end{align*}

tomando como σ-álgebra a $\mathscr{P}(\Omega)$ y con la medida de probabilidad clásica, $\Prob{A} = \frac{|A|}{|\Omega|}$, para cada $A \in \mathscr{P}(\Omega)$. Definimos la variable aleatoria $S\colon\Omega\to\RR$ de la siguiente manera: para cada $(\omega_{1}, \omega_{2}) \in \Omega$,

\[ S(\omega_{1}, \omega_{2}) = \omega_{1} + \omega_{2}. \]

Primero, observa que esto es algo que ya habíamos hecho antes, pero sin variables aleatorias: $S$ corresponde a la suma de los resultados de los dos lanzamientos de dado. Observa que los posibles valores que puede tomar esta variable aleatoria son los números naturales del $2$ al $12$. Por ejemplo, ¿cuál sera la probabilidad de $(S = 6)$? Para ello, veamos cuáles son los elementos de este evento.

\begin{align*} (S = 6) = \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid S(\omega_{1}, \omega_{2}) = 6 \,\} &= \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid \omega_{1} + \omega_{2} = 6 \,\} \\[0.5em] &= \{ (1,5), (2,4), (3,3), (4,2), (5,1) \}. \end{align*}

En consecuencia, tenemos que

\[ \Prob{S = 6} = \Prob{\{ (1,5), (2,4), (3,3), (4,2), (5,1) \}} = \frac{5}{36}. \]

Entonces la probabilidad de que la variable aleatoria tome el valor $6$ es de $\frac{5}{36} \approx 0.1389$.

De hecho, es posible establecer una fórmula para la probabilidad de cada resultado de este experimento. Nos quedaría como sigue:

\[ \Prob{S = s} = \begin{cases} \frac{6 – |s – 5|}{36} & \text{si $s \in \{2,3,4,5,6,7,8,9,10,11,12\}$}, \\[0.25em] 0 & \text{en otro caso}. \end{cases} \]

Observa que es necesario definir a $\Prob{S = s}$ como $0$ incluso cuando $s$ no es uno de los valores que puede tomar la variable aleatoria. Esto pasa porque los eventos de la forma $(S = s)$ están definidos para todos los $s \in \RR$, así que la probabilidad de estos eventos debe de definirse, incluso si es $0$. Por ejemplo, la probabilidad de que $(S = 7.34)$ es $0$, pues no es uno de los valores que puede tomar $S$.

Por otro lado, ¿cuál es la probabilidad de que $(S \leq 4)$? Hay que ver cuáles son los pares de lanzamientos que hacen que $S$ sea menor o igual que $4$:

\begin{align*} (S \leq 4) = \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid S(\omega_{1}, \omega_{2}) \leq 4 \,\} &= \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid \omega_{1} + \omega_{2} \leq 4 \,\} \\[0.5em] &= \{ (1,1), (1,2), (1,3), (2,1), (2,2), (3,1) \}. \end{align*}

En consecuencia se tiene que $\Prob{S \leq 4} = \frac{6}{36} = \frac{1}{6} \approx 0.1667$. Otra manera de hacerlo es sumar las probabilidades de que $S$ tome los valores menores o iguales a $4$, sobre aquellos valores que puede tomar. Esto es,

\begin{align*} \Prob{S \leq 4} = \sum_{k=2}^{4} \Prob{S = k} &= \Prob{S = 2} + \Prob{S = 3} + \Prob{S = 4} \\ &= \frac{1}{36} + \frac{2}{36} + \frac{3}{36} \\ &= \frac{6}{36} \\ &= \frac{1}{6} \end{align*}

Esto es algo que se cumple para aquellas variables aleatorias que pueden tomar a lo más una cantidad numerable de valores, como es el caso de $S$. Lo mismo pasa aún cuando el evento que nos interesa involucra a un valor que $S$ no puede tomar. Por ejemplo, $\Prob{S \leq 3.76}$ se puede calcular como

\[ \Prob{S \leq 3.76} = \Prob{S = 2} + \Prob{S = 3} = \frac{1}{36} + \frac{2}{36} = \frac{3}{36} = \frac{1}{12}, \]

pues los valores que puede tomar $S$ que son menores o iguales a $3.76$ son $2$ y $3$.


Las variables aleatorias de estos ejemplos son conocidas como discretas porque la cardinalidad del conjunto de valores que pueden tomar es finito. Más adelante veremos con propiedad lo que es una variable aleatoria discreta. Sin embargo, a pesar de que podemos definir muchos ejemplos de variables aleatorias con su regla de correspondencia, veremos más adelante que podemos prescindir por completo de esto. Así, lo único que importará es la probabilidad de los eventos de la forma $(X \leq x)$, sin necesidad de mencionar explícitamente a $\Omega$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. De acuerdo con la notación probabilista adoptada en esta entrada, ¿cómo se escribe el evento $( X = 4 )$ sin usar la notación? ¿Y cómo se escribe $\{ \, \omega \in \Omega \mid X(\omega) = 3 \, \}$ utilizando la notación?
  2. De acuerdo con la notación probabilista para eventos, ¿cómo se escribe el evento $(X < x)$ explícitamente (sin usar la notación)?
  3. Verifica que $\mathcal{M}$, visto en la demostración del teorema de esta entrada, es un σ-álgebra.
  4. En el Ejemplo 2:
    1. Verifica que la fórmula que dimos para $\Prob{S = s}$ es correcta.
    2. Calcula las probabilidades de que $(S < 6)$ y $(S \leq 5)$. ¿Qué puedes observar?

Más adelante…

Más adelante veremos que las variables aleatorias se pueden dividir en distintos tipos, dependiendo del tipo de conjunto de valores que pueden tomar. Además, en la siguiente entrada veremos que existen funciones que permiten capturar la probabilidad de cualquier evento asociado a una variable aleatoria $X$. De hecho, esto incluso nos permitirá omitir casi por completo al espacio muestral $\Omega$, y lo que importará será únicamente la probabilidad de los eventos asociados a $X$.

Por otro lado, en el contexto más general de la teoría de la medida, el concepto que definimos como variable aleatoria es conocido como función medible.

Entradas relacionadas

Teoría de los Conjuntos I: Axiomas débiles

Por Gabriela Hernández Aguilar

Introducción

A continuación hablaremos acerca de los axiomas débiles de la teoría de los conjuntos. Veremos que a partir de dichos axiomas y el esquema de comprensión, podemos deducir a los axiomas de existencia, del par, de unión y de conjunto potencia. Esto resulta ser de interés pues en los sistemas axiomáticos a veces tiene ventajas considerar los axiomas más debiles que siguen dando una teoría equivalente.

Axiomas débiles

Veamos qué nos dicen los axiomas débiles de la teoría de conjuntos:

  • Axioma débil de existencia. Existe un conjunto.
  • Axioma débil del par. Para cualesquiera $a,b$ existe un conjunto $c$ tal que $a\in c$ y $b\in c$.
  • Axioma débil de unión. Para cualquier conjunto $s$ existe un conjunto $U$ tal que si $x\in a$ y $a\in s$, entonces $x\in U$.
  • Axioma débil del conjunto potencia. Para cualquier conjunto $a$ existe un conjunto $p$ tal que si $x\subseteq a$ entonces $x\in p$.

Diferencias entre axiomas débiles y los axiomas

Notemos que hay ligeras diferencias con los axiomas que hemos visto hasta ahora, sin embargo, esto hace que no sean iguales.

El axioma débil de existencia nos asegura que existe al menos un conjunto, sin embargo, no necesariamente será el conjunto vacío.

Por su parte, para $a$ y $b$ conjuntos el axioma débil del par nos otorga un conjunto cuyos elementos serán $a$ y $b$, pero no necesariamente serán sus únicos elementos como en el caso del axioma del par.

Ejemplo.
Sean $a$ y $b$ conjuntos distintos y no vacíos. El axioma débil del par podría garantizarnos la existencia de, digamos, $c=\set{a, b, \emptyset}$. Tenemos que en efecto $a\in c$ y $b\in c$, sin embargo, $\emptyset\in c$. Por lo que, el conjunto que nos otorga el axioma débil del par no necesariamente resultar ser un par no ordenado que tiene exactamente a $a$ y $b$.

$\square$

El axioma débil de unión nos asegura que para cualquier conjunto $s$ existe un conjunto $U$ cuyos elementos serán los elementos de los elementos de $s$, sin embargo, $U$ puede tener elementos $x$ que no cumplan que $x\in a$ y $a\in s$.

Ejemplo.

Si $s=\set{\emptyset, \set{\emptyset}}$, el axioma débil del par podría garantizarnos la existencia de, digamos, $U=\set{\emptyset, b}$ con $b\not=\emptyset$. Pero esto no es lo mismo que la unión como la platicamos. Por un lado, $\emptyset\in \set{\emptyset}$ y $\set{\emptyset}\in s$, lo cual coincide con lo que hemos platicado, pero también $b\in s$, que podría darnos un elemento adicional que no teníamos.

$\square$

Finalmente, para el axioma débil del conjunto potencia pasa algo parecido. Si $a$ es un conjunto, el axioma nos otorga un conjunto $p$ cuyos elementos son aquellos que están contenidos en $a$, pero no necesariamente serán los únicos elementos del conjunto $p$.

Ejemplo.

Sea $a=\set{\emptyset}$. Quizás el conjunto garantizado por el axioma débil del conjunto potencia es $p=\set{\emptyset, \set{\emptyset}, \set{\set{\emptyset}}}$. Notemos que $\emptyset\subseteq a=\set{\emptyset}$ y $\set{\emptyset}\subseteq a=\set{\emptyset}$. Sin embargo, $\set{\set{\emptyset}}\not\subseteq a$ pues $\set{\emptyset}\in \set{\set{\emptyset}}$ pero $\set{\emptyset}\notin \set{\emptyset}$.

$\square$

Axioma débil de existencia y esquema de comprensión implican axioma de existencia.

Demostración.

Sea $A$ el conjunto que existe por axioma débil de existencia. Luego, por el esquema de comprensión tenemos que

$\set{x\in A: x\not=x}$

es conjunto.

Veamos que $\set{x\in A: x\not=x}$ no tiene elementos. Supongamos por contradicción que $\set{x\in A:x\not=x}$ tiene al menos un elemento, denotado como $y$. Entonces $y\in A$ y $y\not=y$, lo que es un absurdo pues para cualquier conjunto $z$, $z=z$. Así, $\set{x\in A:x\not=x}$ no tiene elementos, es decir, es el conjunto vacío.

$\square$

Axioma débil del par y esquema de comprensión implican axioma del par.

Demostración.

Sean $a$ y $b$ conjuntos. Sea $c$ el conjunto que existe por axioma débil del par. Luego, por el esquema de comprensión tenemos que

$\set{x\in c: x=a\vee x=b}$

es conjunto. Resulta que los únicos elementos de $\set{x\in c:x=a\vee x=b}$ son $a$ y $b$, pues si $z\in \set{x\in c:x=a\vee x=b}$, $z$ es tal que $z\in c$ y $z=a$ o $z=b$.

Observa que al añadir la propiedad de que $x=a$ o $x=b$, eliminamos todos aquellos conjuntos en $c$ que no son $a$ y no son $b$, de esta forma a partir del axioma débil del par obtenemos al conjunto que solo tiene a $a$ y $b$.

$\square$

Axioma débil de unión y esquema de comprensión implican axioma de unión.

Demostración.

Sea $a$ un conjunto y sea $d$ el conjunto que nos otorga el axioma débil de unión.

Luego, por el esquema de comprensión tenemos que

$U=\set{x\in d: \exists y\in a(x\in y)}$

es conjunto.

Observemos que los elementos de $\set{x\in d: \exists y\in a(x\in y)}$ coinciden con los elementos del conjunto que nos otorga el axioma de unión. Para ello, debemos verificar que se cumple lo siguiente: $x\in U$ si y sólo si existe $y\in a$ tal que $x\in y$. Así pues, si $x\in U$, entonces, $x\in d$ y existe $y\in a$ tal que $x\in y$ y, en consecuencia, podemos concluir que si $x\in U$, existe $y\in a$ tal que $x\in y$. Ahora bien, si tenemos un conjunto $x$ tal que existe $y\in a$ tal que $x\in y$, entonces, $x\in d$ por la propiedad que tiene el conjunto $d$ otorgado por el axioma débil de unión. De esta manera, $x\in U$, ya que $x\in d$ y existe $y\in a$ con $x\in y$.

$\square$

Tarea moral

La siguiente lista de ejercicios te ayudará a poner en práctica lo que hemos visto en esta sección pues ahora tú tendrás que dar algunos ejemplos distintos a los de esta entrada que nos permitan diferenciar a los axiomas débiles de los axiomas que conocemos de la teoría de los conjuntos:

  • Demuestra que se puede inferir el axioma del conjunto potencia del axioma débil del conjunto potencia y el esquema de comprensión.
  • Da otros ejemplos que muestren la diferencia entre el axioma débil del par y el axioma del par.
  • Da otros ejemplos que muestren la diferencia entre el axioma débil de unión y el axioma de unión.
  • Da otros ejemplos que muestren la diferencia entre el axioma débil del conjunto potencia y el axioma del conjunto potencia.

Más adelante…

En este momento hemos sentado las bases para nuestro curso de teoría de conjuntos. En la siguiente entrada comenzaremos a hablar acerca del complemento de un conjunto. Este nuevo conjunto también se tratará de una operación entre conjuntos. Sus resultados como las leyes de De Morgan, nos serán de gran utilidad para hacer álgebra de conjuntos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Probabilidad I: Teorema de Continuidad de la Probabilidad

Por Octavio Daniel Ríos García

Introducción

En la entrada previa a esta vimos el importantísimo teorema de Bayes. Por ahora dejaremos de lado las propiedades de la probabilidad condicional. En contraste, el teorema que veremos en esta entrada es un resultado teórico que será de utilidad mucho más adelante.

El tema de esta entrada es el teorema de continuidad de las medidas de probabilidad. Esencialmente, se trata de una propiedad que satisface toda medida de probabilidad. En particular, se relaciona con la noción que tienes de continuidad en funciones. Sin embargo, se trata de una propiedad más básica de continuidad para límites de eventos, que son conjuntos.

Conceptos previos

En el contexto de cálculo y análisis, una propiedad de las funciones continuas es su capacidad de «meter» el límite. Esto es, que si $\{ a_{n} \}_{n \in \mathbb{N}^{+}} \subseteq \RR$ es una sucesión de números reales tal que existe $a \in \RR$ que satisface $\lim_{n \to \infty} a_{n} = a$, y $f\colon\RR\to\RR$ es una función continua, entonces

\[ \lim_{n\to\infty} f(a_{n}) = f{\left( \lim_{n\to\infty} a_{n} \right)} = f(a). \]

Nosotros queremos ver que cualquier medida de probabilidad satisface una propiedad similar. Sin embargo, dado un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$, el dominio de $\mathbb{P}$ no es $\RR$, ¡es $\mathscr{F}$! Es decir, ¡el argumento de una medida de probabilidad es un conjunto! Por ello, es necesario presentar una noción de límite de eventos. La manera en que lo haremos será a través de las llamadas sucesiones crecientes.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sea $\{A_{n}\}_{n\in\mathbb{N}^{+}} \subseteq \mathscr{F}$ una sucesión de eventos. Diremos que es una sucesión creciente de eventos si

\[ \forall n \in \mathbb{N}^{+}\colon A_{n} \subseteq A_{n+1}. \]

Esto es, que cada $A_{n}$ es un subconjunto del evento que le sigue, $A_{n+1}$. A veces esto se denota como $A_{1} \subseteq A_{2} \subseteq \ldots$ Por su parte, la unión

\[ A = \bigcup_{n=1}^{\infty} A_{n} \]

de una sucesión de este tipo es llamada el límite de la sucesión. Este hecho suele denotarse por $A_{n} \uparrow A$.


En la definición anterior, la unión $A = \bigcup_{n=1}^{\infty} A_{n}$ de una sucesión creciente de eventos es, nuevamente, un evento. Esto pasa gracias a las propiedades de un σ-álgebra y a que $\{A_{n}\}_{n\in\mathbb{N}^{+}}$ es una familia numerable de eventos.

Por otro lado, también se define la noción de sucesión decreciente de eventos como sigue.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad, y sea $\{A_{n}\}_{n\in\mathbb{N}^{+}} \subseteq \mathscr{F}$ una sucesión de eventos. Diremos que es una sucesión decreciente de eventos si

\[ \forall n \in \mathbb{N}^{+}\colon A_{n} \supseteq A_{n+1}. \]

Es decir, cada $A_{n}$ contiene (como subconjunto) al evento que le sigue, $A_{n+1}$. En ocasiones, esto se denota como $A_{1} \supseteq A_{2} \supseteq \cdots$ Además, la intersección

\[ A = \bigcap_{n=1}^{\infty} A_{n} \]

de una sucesión de este tipo es llamada el límite de la sucesión. Este hecho suele denotarse por $A_{n} \downarrow A$.


De la misma manera que con una sucesión creciente, la intersección $A = \bigcap_{n=1}^{\infty} A_{n}$ de una sucesión decreciente de eventos también es un evento.

La continuidad de una medida de probabilidad

A continuación presentamos el teorema de continuidad de una medida de probabilidad.


Teorema. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Entonces se cumplen las siguientes propiedades.

  1. Si $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión creciente de eventos, entonces\[ \lim_{n\to\infty} \Prob{A_{n}} = \Prob{\bigcup_{n=1}^{\infty} A_{n}}. \]
  2. Si $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión decreciente de eventos, entonces\[ \lim_{n\to\infty} \Prob{A_{n}} = \Prob{\bigcap_{n=1}^{\infty} A_{n}}. \]

Demostración. Para demostrar 1, podemos utilizar un truco que usamos hace ya varias entradas. Esto es, que

\[ \bigcup_{n=1}^{\infty} A_{n} = A_{1} \cup (A_{2} \smallsetminus A_{1}) \cup (A_{3} \smallsetminus A_{2}) \cup \cdots \]

Es decir, si para cada $i \in \mathbb{N}^{+}$ definimos $B_{i} = A_{i} \smallsetminus A_{i−1}$, con $A_{0} = \emptyset$, se tiene que

\[ \bigcup_{n=1}^{\infty} A_{n} = \bigcup_{n=1}^{\infty} B_{n}. \]

Además, observa que los conjuntos $B_{i}$ son ajenos dos a dos, por construcción. Entonces podemos aplicar la σ-aditividad de $\mathbb{P}$ para obtener que

\begin{align*} \Prob{\bigcup_{n=1}^{\infty} A_{n}} &= \Prob{B_{1}} + \Prob{B_{2}} + \Prob{B_{3}} + \cdots \\ &= \lim_{n\to\infty} \sum_{k=1}^{n} \Prob{B_{k}}. \end{align*}

Sin embargo, sabemos que para cada $i \in \mathbb{N}^{+}$ se cumple que $A_{i} \subseteq A_{i+1}$ y $B_{i} = A_{i} \smallsetminus A_{i−1}$, así que para cada $i \in \mathbb{N}^{+}$ se tiene que

\[ \Prob{B_{i}} = \Prob{A_{i} \smallsetminus A_{i−1}} = \Prob{A_{i}} − \Prob{A_{i−1}}. \]

Por lo tanto,

\begin{align*} \Prob{ \cup_{n=1}^{\infty} A_{n}} &= \lim_{n\to\infty} \sum_{k=1}^{n} [\Prob{A_{k}} − \Prob{A_{k−1}}] \\ &= \lim_{n\to\infty} [\Prob{A_{n}} − \Prob{A_{0}}] \\ &= \lim_{n\to\infty} [\Prob{A_{n}} − \Prob{\emptyset}] \\ &= \lim_{n\to\infty} \Prob{A_{n}}, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Para demostrar la parte 2 del teorema puede usarse la parte 1 de manera conveniente. La manera de hacerlo viene detallada (a manera de instrucciones) en la tarea moral.

Una aplicación del teorema de continuidad

A pesar de que, de momento, no utilizaremos con profundidad el teorema que acabamos de ver, es posible hacer un ejemplo donde se aplica de manera no teórica.

Ejemplo. Es intuitivamente claro que la probabilidad de nunca obtener un «águila» en una infinidad de lanzamientos de una moneda equiprobable es $0$. Podemos demostrarlo usando el teorema anterior. En primer lugar, el espacio muestral de este experimento es

\[ \Omega = {\left\lbrace (x_{n} )_{n\in\mathbb{N}^{+}} \mid \forall i \in \mathbb{N}^{+}\colon x_{i} \in \{ \mathrm{A, B} \} \right\rbrace} \]

el conjunto de todas las sucesiones infinitas de $\mathrm{A}$’s y $\mathrm{S}$’s. Para cada $i \in \mathbb{N}^{+}$, definimos los conjuntos

\begin{align*} A_{i} &= {\left\lbrace (x_{n})_{n\in\mathbb{N}^{+}} \in \Omega \mid x_{i} = \mathrm{A} \right\rbrace}, \\ S_{i} &= {\left\lbrace (x_{n})_{n\in\mathbb{N}^{+}} \in \Omega \mid x_{i} = \mathrm{S} \right\rbrace} \end{align*}

Es decir, $A_{i}$ es el conjunto de todas las sucesiones infinitas de $\mathrm{A}$’s y $\mathrm{S}$’s tales que su $i$-ésima entrada es una $\mathrm{A}$. Por ejemplo, para $A_{1}$, se tiene que

\begin{align*} (\mathrm{A, S, S, A, A, A, A, A, \ldots}) &\in A_{1}, \\ (\mathrm{A, S, S, S, S, S, S, S, \ldots}) &\in A_{1}, \\ (\mathrm{A, S, A, S, A, S, A, S, \ldots}) &\in A_{1}, \end{align*}

etcétera. El subíndice de $A_{i}$ indica que la $i$-ésima entrada de todos sus elementos es $\mathrm{A}$. Análogamente, $S_{i}$ es el conjunto de todas las sucesiones infinitas de $\mathrm{A}$’s y $\mathrm{S}$’s tales que su $i$-ésima entrada es una $\mathrm{S}$. Ahora, considera la siguiente familia de subconjuntos de $\Omega$:

\[ \mathscr{C} = \{ A_{i} \mid i \in \mathbb{N}^{+} \} \cup \{ S_{i} \mid i \in \mathbb{N}^{+} \} \]

Esto es, $\mathscr{C} \subseteq \mathscr{P}(\Omega)$ es el conjunto cuyos elementos son todos los $A_{i}$’s y todos los $B_{i}$’s. De este modo, tomaremos a $\sigma(\mathscr{C})$ como σ-álgebra.

Ahora, definimos nuestra medida de probabilidad para los $A_{i}$’s y $B_{i}$’s como sigue: para cada $i \in \mathbb{N}^{+}$, la probabilidad de $A_{i}$ y $B_{i}$ se define como

\[ \Prob{A_{i}} = \frac{1}{2}, \]

\[ \Prob{B_{i}} = 1 − \frac{1}{2}, \]

La definimos de esta forma pues asumimos que la moneda es equiprobable, por lo que la probabilidades de que en la $i$-ésima posición salga «águila» o salga «sol» deben de ser iguales. Además, le pediremos a $\mathbb{P}$ que cualquier familia de $A_{i}$’s y $S_{i}$’s sean independientes. Esto es, que para todo $n \in \mathbb{N}^{+}$, los eventos $A_{1}$, $A_{2}$, …, $A_{n}$ son independientes. Esto asegura que también sus complementos, $S_{1}$, $S_{2}$, …, $S_{n}$ forman una familia de eventos independientes.

Ahora, para cada $n \in \mathbb{N}^{+}$, definamos el evento $C_{n}$ como el evento en el que, de los primeros $n$ lanzamientos, ninguno es un águila. Observa que, en términos de $A_{i}$’s y $S_{i}$’s, $C_{n}$ sería

\[ C_{n} = \bigcap_{k=1}^{n} S_{k}, \]

Pues $S_{1}$ son todas aquellas sucesiones cuya primera entrada está fija como un $\mathrm{S}$, $S_{2}$ son todas aquellas en donde la segunda entrada está fija como un $\mathrm{S}$, y así sucesivamente hasta llegar a $S_{n}$. Al intersecar esos eventos, el evento resultante es aquel en el que las primeras $n$ entradas están fijas como una $\mathrm{S}$, por lo que es el evento en el que ninguno de los primeros $n$ lanzamientos es un águila. Además, observa que para cada $n \in \mathbb{N}^{+}$, se cumple que $C_{n} \supseteq C_{n+1}$. Es decir, $\{ C_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión decreciente de eventos. Entonces, por el teorema de continuidad de la medida de probabilidad, se tiene que

\[ \lim_{n\to\infty} \Prob{C_{n}} = \Prob{\bigcap_{n=1}^{\infty} C_{n}}, \]

Por un lado, observa que

\[ \lim_{n\to\infty} \Prob{C_{n}} = \lim_{n\to\infty} \Prob{\bigcap_{k=1}^{n} S_{k}} = \lim_{n\to\infty} [\Prob{S_{1}} \cdot \Prob{S_{2}} \cdots \Prob{S_{n}}] = \lim_{n\to\infty} {\left( \frac{1}{2} \right)}^{n} = 0\]

donde $\Prob{\bigcap_{k=1}^{n} S_{k}} = \Prob{S_{1}} \cdot \Prob{S_{2}} \cdots \Prob{S_{n}}$ ocurre gracias a que supusimos que para todo $n \in \mathbb{N}^{+}$ los eventos $A_{1}$, $A_{2}$, …, $A_{n}$ son independientes.

En consecuencia, tenemos que

\[ \Prob{\bigcap_{n=1}^{\infty} C_{n}} = 0. \]

En conclusión, la probabilidad del evento $\bigcap_{n=1}^{\infty} C_{n}$ es $0$. Pero, ¿qué evento es ese? Observa que $\bigcap_{n=1}^{\infty} C_{n}$ es precisamente el evento de que nunca haya un águila, pues es la intersección de todos los eventos en los que los primeros $n$ lanzamientos no hay un águila. Esto es justamente lo que dictaba la intuición al inicio de este ejemplo.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra la parte 2 del teorema de continuidad. Sugerencia: Puedes utilizar la parte 1 del teorema, pues ya la demostramos.
    1. Para hacerlo, toma $\{ B_{n} \}_{n\in\mathbb{N}^{+}}$ una sucesión decreciente de eventos. Para cada $i \in \mathbb{N}^{+}$, define $A_{i} = B_{i}^{\mathsf{c}}$, donde el complemento es relativo a $\Omega$. Demuestra que $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión creciente de eventos.
    2. Ahora, sabiendo que $\{ A_{n} \}_{n\in\mathbb{N}^{+}}$ es una sucesión creciente de eventos, aplica la parte 1 del teorema. ¿Qué se obtiene?
    3. Usando la parte 1 del teorema se llega a que\[ \Prob{\bigcup_{n=1}^{\infty} A_{n}} = \lim_{n\to\infty} \Prob{A_{n}}. \]Sabiendo que cada $A_{i} = B_{i}^{\mathsf{c}}$, sustituye en la expresión anterior.
    4. Finalmente, usa la regla de complementación para concluir.

Más adelante…

Con esta entrada concluye la primera unidad de este curso. Esto es, aquí concluye el tratamiento de propiedades generales de las medidas de probabilidad. En la siguiente entrada comenzaremos el estudio de las variables aleatorias−que no son otra cosa que funciones cuyo dominio es el espacio muestral−y la gran cantidad conceptos asociados a estas.

Un consejo… ¡No olvides lo que vimos en esta unidad! Todo lo que vimos en esta unidad será importante para el resto de este curso, y para las materias de probabilidad y estadística que cursarás más adelante.

Entradas relacionadas