Probabilidad I: Variables Aleatorias

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada concluimos la primera unidad del curso. Con esto finaliza nuestro estudio general de las medidas de probabilidad. Por otro lado, el contenido de la segunda unidad está enfocado el estudio de las variables aleatorias y sus propiedades.

En esta entrada abordaremos el concepto de variable aleatoria. A grandes rasgos, una variable aleatoria es una función que actúa sobre un espacio de probabilidad $(\Omega, \mathscr{F}, \mathbb{P})$ y devuelve valores numéricos. Sin embargo, no cualquier función puede considerarse una variable aleatoria. Básicamente, una función será una variable aleatoria si algunas de sus imágenes inversas son eventos de $\Omega$. Esto garantizará que se puede calcular la probabilidad de sus valores, y por tanto, podremos calcular la probabilidad de que la variable aleatoria tome valores específicos.

Ideas preliminares

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Es posible que nos interese algún valor numérico asociado a los resultados del experimento en cuestión. Por ejemplo, considerando el experimento de lanzar una moneda $4$ veces de manera equiprobable, sabemos que su espacio muestral es

\[ \Omega = \begin{Bmatrix} \mathrm{AAAA}, & \mathrm{AAAS}, & \mathrm{AASA}, & \mathrm{ASAA}, \\ \mathrm{SAAA}, & \mathrm{AASS}, & \mathrm{ASAS}, & \mathrm{SAAS}, \\ \mathrm{ASSA}, & \mathrm{SASA}, & \mathrm{SSAA}, & \mathrm{SSSA}, \\ \mathrm{SSAS}, & \mathrm{SASS}, & \mathrm{ASSS}, & \mathrm{SSSS} \end{Bmatrix}. \]

y tomamos a $\mathscr{P}(\Omega)$ como σ-álgebra, y como medida a la medida de probabilidad clásica. Una variable asociada a este experimento es la cantidad de águilas que salieron en los $4$ lanzamientos. Esto podríamos definirlo como una función $X\colon \Omega \rightarrow \RR$, tal que para cada $\omega \in \Omega$ se define

\[ X(\omega) = \text{# de $\mathrm{A}$’s en $\omega$}. \]

De este modo, se tiene que

\begin{align*} &X(\mathrm{AAAS}) = 3, \\ &X(\mathrm{ASAS}) = 2, \end{align*}

\begin{align*} &X(\mathrm{ASSS}) = 1, \\ &X(\mathrm{AAAA}) = 4, \end{align*}

etcétera. Al ser una función, $X$ tiene todas las cualidades y propiedades de una función que viste en álgebra superior. En particular, hay un concepto que nos interesa mucho: la imagen inversa de cada uno de los valores que toma $X$. Como recordatorio, dado $B \subseteq \RR$, la imagen inversa de $B$ bajo $X$ es el conjunto

\[ X^{-1}[B] = \{ \, \omega \in \Omega \mid X(\omega) \in B \, \}. \]

Cuando $B$ es un conjunto de la forma $B = \{ x \}$, con $x \in \RR$, se tiene que

\[ X^{-1}[\{x \}] = \{ \, \omega \in \Omega \mid X(\omega) = x \, \}. \]

Por ejemplo, para la función $X$ como la definimos, podemos observar que

\[ X^{-1}[\{ 2 \}] = \{ \, \omega \in \Omega \mid X(\omega) = 2 \, \} = \{ \mathrm{AASS}, \mathrm{ASAS}, \mathrm{SAAS}, \mathrm{ASSA}, \mathrm{SASA}, \mathrm{SSAA} \}. \]

Ahora, observa que $X^{-1}[{ 2 }] \in \mathscr{P}(\Omega)$, por lo que le podemos asignar una probabilidad. En consecuencia, se tiene que

\begin{align*} \Prob{X^{-1}[\{ 2 \}]} = \Prob{\{ \, \omega \in \Omega \mid X(\omega) = 2 \, \}} &= \frac{|\{ \mathrm{AASS}, \mathrm{ASAS}, \mathrm{SAAS}, \mathrm{ASSA}, \mathrm{SASA}, \mathrm{SSAA} \}|}{|\Omega|} \\ &= \frac{6}{16} \\[1.15em] &= 0.375. \end{align*}

Gracias a esto, podemos decir que «la probabilidad de que $X$ tome el valor $2$ es $\frac{6}{16} = 0.375$». Es decir, le podemos asignar probabilidad a los posibles resultados de $X$. Una notación muy frecuente en el contexto de la probabilidad es la siguiente: usaremos $(X \in B)$ para denotar a $\{ \, \omega \in \Omega \mid X(\omega) \in B \,\} = X^{-1}[B]$, de tal forma que

\[ \Prob{\{ \, \omega \in \Omega \mid X(\omega) \in B \,\}} = \Prob{X \in B}. \]

Del mismo modo, cuando $B = \{x\}$, con $x \in \RR$, se adopta la notación $( X = x )$ para denotar al conjunto $\{ \, \omega \in \Omega \mid X(\omega) = x \,\} = X^{-1}{\left[\{ x \}\right]}$, de tal forma que

\[ \Prob{\{ \, \omega \in \Omega \mid X(\omega) = x \,\}} = \Prob{X = x}. \]

De este modo, en este ejemplo tenemos que $\Prob{X = 2} = 0.375$. Del mismo modo, se utilizará la notación $(X \leq x)$ para denotar a $\{ \, \omega \in \Omega \mid X(\omega) \leq x \, \} = X^{-1}[(-\infty, x]]$. Sin embargo, ¡ten cuidado! Esta es una NOTACIÓN para facilitar la escritura de muchas de las expresiones matemáticas que involucran variables aleatorias. Aunque resulte práctica, no olvides lo que representa realmente.

Definición de variable aleatoria

De acuerdo con la motivación anterior, presentamos la definición de variable aleatoria.


Definición. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Diremos que una función $X\colon\Omega \to \RR$ es una variable aleatoria si para cada $B \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[B] \in \mathscr{F}$.

Es decir, $X$ es una variable aleatoria si la imagen inversa bajo $X$ de cualquier evento del σ-álgebra de Borel, es un evento de $\mathscr{F}$.


En algunos contextos se usa la notación $X\colon(\Omega, \mathscr{F})\to(\RR, \mathscr{B}(\RR))$ para denotar a una variable aleatoria. Usando esta notación, se escribe explícitamente el σ-álgebra del dominio y del codominio de $X$.

Intuitivamente, una variable aleatoria es un valor numérico asociado al resultado de un experimento aleatorio. Por ejemplo, cuando hicimos el experimento de lanzar una moneda $4$ veces, el valor numérico asociado a cada uno de los posibles resultados del experimento es la cantidad de águilas que salieron en los $4$ lanzamientos.

Además, previamente acordamos que los elementos de un σ-álgebra son aquellos que se pueden medir, pues el dominio de la medida $\mathbb{P}$ es el σ-álgebra. Esencialmente, la definición de variable aleatoria pide que la función preserve la medibilidad. Es decir, que si $A$ es un subconjunto medible del codominio de $X$ (esto es, $A \in \mathscr{B}(\RR)$), entonces $X^{-1}[A]$ debe de ser un subconjunto medible del dominio de $X$; es decir, $X^{-1}[A] \in \mathscr{F}$. De este modo,

\[ \Prob{X \in A} = \Prob{X^{-1}[A]} = \Prob{\{\, \omega\in\Omega\mid X(\omega) \in A \,\}}, \]

es un valor que está bien definido, pues $X^{-1}[A] \in \mathscr{F}$ y $\mathrm{Dom}(\mathbb{P}) = \mathscr{F}$.

Una propiedad muy importante de las variables aleatorias

Hay libros introductorios a la probabilidad que prefieren no tocar con mucho detalle la definición de variable aleatoria, o darla de manera distinta. Por ejemplo, tal es el caso de A First Course In Probability de Sheldon M. Ross, o Introducción a la Probabilidad de Luis Rincón. En particular, el caso del libro del Dr. Rincón es importante, pues es el libro al que muchos estudiantes recurren al cursar esta materia. Dicho libro ofrece una definición de variable aleatoria distinta; con el siguiente teorema veremos que es equivalente a la que hemos dado aquí.


Teorema. Sean $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una función. Si $\mathcal{G} \subseteq \RR$ es un conjunto tal que $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$, entonces las siguientes proposiciones son equivalentes:

  1. $X\colon\Omega\to\RR$ es una variable aleatoria.
  2. Para todo $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$.

Demostración. $(1 \implies 2)$ Verificar que 1. implica a 2. no es complicado. Supongamos que $X$ es una variable aleatoria. Por definición, esto asegura que para cada $E \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[E] \in \mathscr{F}$.

Ahora, hay que demostrar que 2. es cierto. Sea $A \in \mathcal{G}$. Sabemos que $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$, es decir, el σ-álgebra generado por $\mathcal{G}$ es el σ-álgebra de Borel sobre $\RR$. Además, sabemos que $\sigma(\mathcal{G})$ satisface $\mathcal{G} \subseteq \sigma(\mathcal{G})$, por lo que $\mathcal{G} \subseteq \mathscr{B}(\RR)$. En consecuencia, $A \in \mathscr{B}(\RR)$, que implica $X^{-1}[A] \in \mathscr{F}$, pues $X$ es una variable aleatoria, garantizando que 2. es verdadero.

$(2 \implies 1)$ Lo interesante es demostrar que 2. implica a 1., pues 2. parece una condición más débil. Así pues, supongamos que $X$ es una función que satisface 2.; que para cada $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$. Ahora queremos demostrar que $X$ es una variable aleatoria. Es decir, queremos demostrar que para cada $B \in \mathscr{B}(\RR)$ se cumple que $X^{-1}[B] \in \mathscr{F}$.

Ahora, hay algunas propiedades importantes de la imagen inversa de una función. Por tus clases de álgebra superior, sabes que para cualquier colección $\{ B_{i} \}_{i \in \mathbb{N}^{+}}$ de subconjuntos de $\RR$ se cumple que

la imagen inversa «abre» la unión: \begin{align*} X^{-1}{\left[ \bigcup_{i=1}^{\infty} B_{i} \right]} = \bigcup_{i=1}^{\infty} X^{-1}{\left[ B_{i} \right]}, \end{align*}

la imagen inversa «abre» la intersección: \begin{align*} X^{-1}{\left[ \bigcap_{i=1}^{\infty} B_{i} \right]} = \bigcap_{i=1}^{\infty} X^{-1}{\left[ B_{i} \right]}. \end{align*}

y además, para cada $B \subseteq \RR$ se cumple que $X^{-1}[\RR \setminus B] = \Omega \setminus X^{-1}[B]$. Defínase ahora $\mathcal{M}$ como sigue:

\begin{align*} \mathcal{M} = \{\, B \subseteq \RR \mid X^{-1}[B] \in \mathscr{F} \,\}. \end{align*}

Es decir, los elementos de $\mathcal{M}$ son los subconjuntos de $\RR$ tales que $X^{-1}[B] \in \mathscr{F}$. Usando las propiedades de la imagen inversa bajo $X$, es posibe demostrar que $\mathcal{M}$ es un σ-álgebra. Más aún, sabemos que para cada $A \in \mathcal{G}$ se cumple que $X^{-1}[A] \in \mathscr{F}$. Por ende, $\mathcal{G} \subseteq \mathcal{M}$. Pero $\mathcal{M}$ es un σ-álgebra, y lo anterior demuestra que es un σ-álgebra que contiene a $\mathcal{G}$. En consecuencia, $\sigma(\mathcal{G}) \subseteq \mathcal{M}$.

¡Ajá! Pero $\sigma(\mathcal{G}) = \mathscr{B}(\RR)$; por lo que $\mathscr{B}(\RR) \subseteq \mathcal{M}$. Para concluir, sea $B \in \mathscr{B}(\RR)$. Por lo anterior, se sigue que $B \in \mathcal{M}$, que por la definición de $\mathcal{M}$ significa que $X^{-1}[B] \in \mathscr{F}$, que es justamente lo que queríamos demostrar.

$\square$

Este teorema es de mucha utilidad, ya que dada una función $X\colon\Omega\to\RR$, demostrar que $X$ es una variable aleatoria es equivalente a demostrar que $X$ preserva la medibilidad sobre una familia de conjuntos que genera a $\mathscr{B}(\RR)$, una tarea mucho más sencilla que hacerlo para todos los elementos del σ-álgebra de Borel.

Definición alternativa de variable aleatoria

Previamente establecimos que $\mathscr{B}(\RR)$ es el σ-álgebra generado por varias familias de subconjuntos de $\RR$. En particular, $\mathscr{B}(\RR)$ puede generarse a partir de la familia de intervalos de la forma $(-\infty, x]$, con $x \in \RR$. Por ello, gracias al teorema que demostramos, podemos caracterizar a una variable aleatoria como sigue:


Definición (alternativa). Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Diremos que una función $X\colon\Omega\to\RR$ es una variable aleatoria si para cada $x \in \RR$ se cumple que $X^{-1}[(-\infty, x]] \in \mathscr{F}$. Esto es,

\[ \{ \, \omega \in \Omega \mid X(\omega) \leq x \, \} \in \mathscr{F}. \]


La definición anterior es la que presentan algunos libros como la definición de variable aleatoria (por ejemplo, así la encontrarás el libro del Dr. Luis Rincón, si es que decides consultarlo). No temas, ambas maneras de definir el concepto de variable aleatoria son equivalentes, todo gracias al teorema que vimos en esta entrada.

Medida de probabilidad inducida por una variable aleatoria

Dados $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una variable aleatoria, vimos que podíamos usar la medida de probabilidad $\mathbb{P}$ para medir la probabilidad de los subconjuntos de la forma $(-\infty, x]$ a través de sus imágenes inversas bajo $X$. De hecho, gracias a lo que discutimos al final de la sección pasada, resulta que esto se puede hacer para cualquier evento de $\RR$, es decir, para todos los elementos de $\mathscr{B}(\RR)$. A la medida resultante para los eventos de $\RR$ se le conoce como la medida de probabilidad inducida por $X$, y se define como sigue.


Definición. Sean $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y $X\colon\Omega\to\RR$ una variable aleatoria. La medida de probabilidad inducida por $X$ es la medida de probabilidad $P_{X}: \mathscr{B}(\RR) \to \RR$ dada por

\begin{align*} P_{X}(B) &= \Prob{\{\, \omega \in \Omega \mid X(\omega) \in B \,\}}, & \text{para cada $B \in \mathscr{B}(\RR)$. } \end{align*}

Equivalentemente, usando la notación probabilista para imágenes inversas, $P_{X}: \mathscr{B}(\RR) \to \RR$ es la función dada por

\begin{align*} P_{X}(B) &= \Prob{X \in B}, & \text{para cada $B \in \mathscr{B}(\RR)$}. \end{align*}


De este modo, si $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad y $X\colon\Omega\to\RR$ es una variable aleatoria, entonces $(\RR, \mathscr{B}(\RR), P_{X})$ es un espacio de probabilidad.

Ejemplos básicos de variables aleatorias

Ejemplo 1. Hay una gran cantidad de experimentos aleatorios cuyos resultados se reducen a «éxito» o «fracaso». Por ejemplo, en el lanzamiento de una moneda, el «águila» y el «sol» podrían verse como «éxito» y «fracaso», respectivamente. Comenzamos con el espacio muestral $\Omega = \{ \mathrm{«Exito», «Fracaso»} \}$. Definimos la variable aleatoria $X\colon\Omega\to\RR$ como sigue

\begin{array}{rcl} X(\mathrm{«Exito»}) & = & 1, \\ X(\mathrm{«Fracaso»}) & = & 0. \end{array}

La elección de estos dos números es un poco arbitraria, aunque obedece a la noción de que, en ciertos contextos, el $1$ es un «acierto» y el $0$ un «error». Esto pasa incluso en la lógica, en donde a veces se denota al «verdadero» como $1$ y al «falso» como $0$, sobre todo en contextos computacionales.

Como σ-álgebra tomaremos a $\mathscr{P}(\Omega)$ y como medida de probabilidad tomaremos la siguiente: sea $p \in \RR$ tal que $p \in [0,1]$. Definimos $\mathbb{P}\colon\mathscr{P}(\Omega)\to\RR$ como sigue:

\begin{array}{rcl} \Prob{\{\mathrm{«Exito»}\}} & = &p, \\ \Prob{\{\mathrm{«Fracaso»}\}} & = & 1 − p, \end{array}

\begin{array}{rcl} \Prob{\emptyset} & = & 0, \\ \Prob{\Omega} & = & p + (1 − p) = 1. \end{array}

En consecuencia, se tendrá que $\Prob{X = 1} = p$ y $\Prob{X = 0} = 1 − p$. De este modo, podemos ver que

\[ \Prob{X = x} = \begin{cases} p & \text{si $x = 1$}, \\ 1 − p & \text{si $x = 0$}, \\ 0 & \text{en otro caso}. \end{cases} \]

Esta es una variable aleatoria muy sencilla, pero muy poderosa. Más adelante, cuando ya hayamos visto más conceptos relacionados con variables aleatorias, la veremos con más detalle.


Ejemplo 2. Considera el experimento de lanzar un dado $2$ veces. El espacio muestral de este experimento es

\begin{align*} \Omega = \begin{Bmatrix} (1,1), & (1,2), & (1,3), & (1,4), & (1,5), & (1,6) \\ (2,1), & (2,2), & (2,3), & (2,4), & (2,5), & (2,6) \\ (3,1), & (3,2), & (3,3), & (3,4), & (3,5), & (3,6) \\ (4,1), & (4,2), & (4,3), & (4,4), & (4,5), & (4,6) \\ (5,1), & (5,2), & (5,3), & (5,4), & (5,5), & (5,6) \\ (6,1), & (6,2), & (6,3), & (6,4), & (6,5), & (6,6) \end{Bmatrix}, \end{align*}

tomando como σ-álgebra a $\mathscr{P}(\Omega)$ y con la medida de probabilidad clásica, $\Prob{A} = \frac{|A|}{|\Omega|}$, para cada $A \in \mathscr{P}(\Omega)$. Definimos la variable aleatoria $S\colon\Omega\to\RR$ de la siguiente manera: para cada $(\omega_{1}, \omega_{2}) \in \Omega$,

\[ S(\omega_{1}, \omega_{2}) = \omega_{1} + \omega_{2}. \]

Primero, observa que esto es algo que ya habíamos hecho antes, pero sin variables aleatorias: $S$ corresponde a la suma de los resultados de los dos lanzamientos de dado. Observa que los posibles valores que puede tomar esta variable aleatoria son los números naturales del $2$ al $12$. Por ejemplo, ¿cuál sera la probabilidad de $(S = 6)$? Para ello, veamos cuáles son los elementos de este evento.

\begin{align*} (S = 6) = \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid S(\omega_{1}, \omega_{2}) = 6 \,\} &= \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid \omega_{1} + \omega_{2} = 6 \,\} \\[0.5em] &= \{ (1,5), (2,4), (3,3), (4,2), (5,1) \}. \end{align*}

En consecuencia, tenemos que

\[ \Prob{S = 6} = \Prob{\{ (1,5), (2,4), (3,3), (4,2), (5,1) \}} = \frac{5}{36}. \]

Entonces la probabilidad de que la variable aleatoria tome el valor $6$ es de $\frac{5}{36} \approx 0.1389$.

De hecho, es posible establecer una fórmula para la probabilidad de cada resultado de este experimento. Nos quedaría como sigue:

\[ \Prob{S = s} = \begin{cases} \frac{6 – |s – 5|}{36} & \text{si $s \in \{2,3,4,5,6,7,8,9,10,11,12\}$}, \\[0.25em] 0 & \text{en otro caso}. \end{cases} \]

Observa que es necesario definir a $\Prob{S = s}$ como $0$ incluso cuando $s$ no es uno de los valores que puede tomar la variable aleatoria. Esto pasa porque los eventos de la forma $(S = s)$ están definidos para todos los $s \in \RR$, así que la probabilidad de estos eventos debe de definirse, incluso si es $0$. Por ejemplo, la probabilidad de que $(S = 7.34)$ es $0$, pues no es uno de los valores que puede tomar $S$.

Por otro lado, ¿cuál es la probabilidad de que $(S \leq 4)$? Hay que ver cuáles son los pares de lanzamientos que hacen que $S$ sea menor o igual que $4$:

\begin{align*} (S \leq 4) = \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid S(\omega_{1}, \omega_{2}) \leq 4 \,\} &= \{\, (\omega_{1}, \omega_{2}) \in \Omega \mid \omega_{1} + \omega_{2} \leq 4 \,\} \\[0.5em] &= \{ (1,1), (1,2), (1,3), (2,1), (2,2), (3,1) \}. \end{align*}

En consecuencia se tiene que $\Prob{S \leq 4} = \frac{6}{36} = \frac{1}{6} \approx 0.1667$. Otra manera de hacerlo es sumar las probabilidades de que $S$ tome los valores menores o iguales a $4$, sobre aquellos valores que puede tomar. Esto es,

\begin{align*} \Prob{S \leq 4} = \sum_{k=2}^{4} \Prob{S = k} &= \Prob{S = 2} + \Prob{S = 3} + \Prob{S = 4} \\ &= \frac{1}{36} + \frac{2}{36} + \frac{3}{36} \\ &= \frac{6}{36} \\ &= \frac{1}{6} \end{align*}

Esto es algo que se cumple para aquellas variables aleatorias que pueden tomar a lo más una cantidad numerable de valores, como es el caso de $S$. Lo mismo pasa aún cuando el evento que nos interesa involucra a un valor que $S$ no puede tomar. Por ejemplo, $\Prob{S \leq 3.76}$ se puede calcular como

\[ \Prob{S \leq 3.76} = \Prob{S = 2} + \Prob{S = 3} = \frac{1}{36} + \frac{2}{36} = \frac{3}{36} = \frac{1}{12}, \]

pues los valores que puede tomar $S$ que son menores o iguales a $3.76$ son $2$ y $3$.


Las variables aleatorias de estos ejemplos son conocidas como discretas porque la cardinalidad del conjunto de valores que pueden tomar es finito. Más adelante veremos con propiedad lo que es una variable aleatoria discreta. Sin embargo, a pesar de que podemos definir muchos ejemplos de variables aleatorias con su regla de correspondencia, veremos más adelante que podemos prescindir por completo de esto. Así, lo único que importará es la probabilidad de los eventos de la forma $(X \leq x)$, sin necesidad de mencionar explícitamente a $\Omega$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. De acuerdo con la notación probabilista adoptada en esta entrada, ¿cómo se escribe el evento $( X = 4 )$ sin usar la notación? ¿Y cómo se escribe $\{ \, \omega \in \Omega \mid X(\omega) = 3 \, \}$ utilizando la notación?
  2. De acuerdo con la notación probabilista para eventos, ¿cómo se escribe el evento $(X < x)$ explícitamente (sin usar la notación)?
  3. Verifica que $\mathcal{M}$, visto en la demostración del teorema de esta entrada, es un σ-álgebra.
  4. En el Ejemplo 2:
    1. Verifica que la fórmula que dimos para $\Prob{S = s}$ es correcta.
    2. Calcula las probabilidades de que $(S < 6)$ y $(S \leq 5)$. ¿Qué puedes observar?

Más adelante…

Más adelante veremos que las variables aleatorias se pueden dividir en distintos tipos, dependiendo del tipo de conjunto de valores que pueden tomar. Además, en la siguiente entrada veremos que existen funciones que permiten capturar la probabilidad de cualquier evento asociado a una variable aleatoria $X$. De hecho, esto incluso nos permitirá omitir casi por completo al espacio muestral $\Omega$, y lo que importará será únicamente la probabilidad de los eventos asociados a $X$.

Por otro lado, en el contexto más general de la teoría de la medida, el concepto que definimos como variable aleatoria es conocido como función medible.

Entradas relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.