Archivo de la etiqueta: variables aleatorias continuas

Probabilidad I: Transformaciones de V.A.’s Continuas

Por Octavio Daniel Ríos García

Introducción

En la entrada pasada comenzamos a abordar el problema de encontrar la distribución de la transformación de una v.a. conocida. En particular, analizamos un método para el caso en el que la v.a. conocida es discreta, y sólamente para ese caso. No obstante, este método nos servirá como «base» para dar paso al caso continuo. Primero presentaremos un método que consiste en manipular directamente la función de distribución; muy parecido al método que vimos en la entrada pasada. Después, analizaremos un método más especializado que permite encontrar la función de densidad de la transformación de una v.a. sin necesidad de manipular la función de distribución.

Motivación del primer método

Sea $X$ una v.a. y $g\colon\RR\to\RR$ una función Borel-medible. En la entrada pasada ya describimos el proceso para obtener los eventos de $g(X)$ en términos de eventos que involucran a $X$. De hecho, vimos que para cada $A \in \mathscr{B}(\RR)$ se cumple que

\begin{align*} (g(X) \in A) = (X \in g^{-1}[A]). \end{align*}

¡Atención! En la entrada pasada centramos nuestra atención en las v.a.’s discretas, pero la igualdad anterior es cierta para cualquier variable aleatoria. Por ello, también aplica para las v.a.’s continuas. En particular, para cada $y \in \RR$ se cumple que $(-\infty, y] \in \mathscr{B}(\RR)$, por lo que

\begin{align*} {\left(g(X) \leq y\right)} = \left(g(X) \in (-\infty, y]\right) = {\left(X \in g^{-1}[(-\infty, y]]\right)}. \end{align*}

Por lo tanto, se tiene que

\begin{align*} \Prob{g(X) \leq y} = \Prob{X \in g^{-1}[(-\infty, y]]}. \end{align*}

Es decir, si definimos a $Y = g(X)$ y $F_{Y}\colon\RR\to\RR$ es la función de distribución de $Y$, entonces lo anterior quiere decir que para cada $y \in \RR$,

\begin{align*} F_{Y}(y) = \Prob{X \in g^{-1}[(-\infty, y]]}; \end{align*}

por lo que es posible obtener la distribución de $Y$ en términos de la probabilidad de un evento que involura a $X$, cuya distribución sí conocemos.

Primer método: manipular la función de distribución

Con la discusión anterior llegamos a que si $X$ es una v.a. (cuya distribución es conocida), $g\colon\RR\to\RR$ es una función Borel-medible, y $Y$ es la v.a. definida como $Y = g(X)$, entonces la función de distribución de $Y$, $F_{Y}\colon\RR\to\RR$, puede obtenerse como

\begin{align*} F_{Y}(y) &= \Prob{X \in g^{-1}[(-\infty, y]]} & \text{para cada $y \in \RR$.} \end{align*}

Por ello, el problema consistirá en encontrar el conjunto $g^{-1}[(-\infty, y]]$, y así encontrar la probabilidad de ${\left(X \in g^{-1}[(-\infty, y]]\right)}$.

Ejemplo 1. Sea $X$ una v.a. con función de densidad $f_{X}\colon\RR\to\RR$ dada por

\begin{align*} f_{X}(x) &= \frac{1}{2}e^{-{\left| x \right|}}, & \text{para cada $x \in \RR$}. \end{align*}

Una v.a. con esta función de densidad es conocida como una v.a. con distribución Laplace, o distribución doble exponencial. Su función de distribución $F_{X}\colon\RR\to\RR$ está dada por

\begin{align*} F_{X}(x) &= \begin{cases} \dfrac{1}{2}e^{x} & \text{si $x < 0$}, \\[1em] 1 − \dfrac{1}{2} e^{-x} & \text{si $x \geq 0$}. \end{cases}\end{align*}

Sea $g\colon\RR\to\RR$ la función dada por $g(x) = |x|$ para cada $x \in \RR$. De este modo, defínase $Y = g(X) = {\left| X \right|}$. Para obtener la función de distribución $Y$, podemos seguir un método similar al que usamos en la entrada anterior. Sea $y \in \RR$. Un primer detalle que podemos observar sobre $Y$ es que no toma valores negativos. Por ello, si $y < 0$, se tiene que $(Y \leq y) = \emptyset$, y en consecuencia, $\Prob{Y \leq y} = 0$ para $y < 0$. Por otro lado, para $y \geq 0$ se tiene que que

\begin{align*} \omega \in (Y \leq y) &\iff Y(\omega) \leq y \\[1em] &\iff |X(\omega)| \leq y \\[1em] &\iff -y \leq X(\omega) \leq y \\[1em] &\iff \omega \in ( -y \leq X \leq y ), \end{align*}

por lo que para cada $y \geq 0$ se tiene que $(Y \leq y) = (-y \leq X \leq y)$. Como esos dos eventos son iguales, se sigue que $\Prob{Y \leq y} = \Prob{ -y \leq X \leq y}$. , por lo queAdemás, nota que

\begin{align*} \Prob{-y \leq X \leq y} &= \Prob{X \leq y} − \Prob{X < -y} \\[1em] &= \Prob{X \leq y} − \Prob{X \leq -y} \tag{$*$} \\[1em] &= F_{X}(y) − F_{X}(-y), \end{align*}

donde el paso $(*)$ es válido debido a que $X$ es una v.a. continua. Por ello, podemos concluir que para cada $y \geq 0$,

\begin{align*} F_{Y}(y) = F_{X}(y) − F_{X}(−y). \end{align*}

Por lo tanto, la función de distribución de $Y$ queda como sigue:

\begin{align*} F_{Y}(y) &= \begin{cases} 0 & \text{si $y < 0$}, \\[1em] F_{X}(y) − F_{X}(-y) & \text{si $y \geq 0$}. \end{cases} \end{align*}

De aquí podemos obtener una expresión explícita. Para cada $y \geq 0$ se tiene que $-y \leq 0$, así que

\begin{align*} F_{X}(y) − F_{X}(-y) &= {\left(1 − \frac{1}{2}e^{-y}\right)} − \frac{1}{2}e^{-y} \\[1em] &= 1 − \frac{1}{2}e^{-y} − \frac{1}{2}e^{-y} \\[1em] &= 1 − e^{-y}. \end{align*}

En conclusión, la función de distribución de $Y$ queda así:

\begin{align*} F_{Y}(y) &= \begin{cases} 0 & \text{si $y < 0$}, \\[1em] 1 − e^{-y} & \text{si $y \geq 0$}. \end{cases} \end{align*}

Probablemente te resulte familiar: ¡Es la función de distribución de una v.a. exponencial! Este ejemplo exhibe que algunas transformaciones de algunas v.a.’s «famosas» resultan en otras v.a.’s «famosas». En este caso, vimos que si $X$ es una v.a. que sigue una distribución Laplace, entonces $|X|$ sigue una distribución exponencial. Más adelante veremos muchas más distribuciones importantes, y veremos cómo se relacionan entre sí mediante transformaciones.


Segundo método: teorema de cambio de variable

Existe un método más especializado para obtener la función de densidad de la transformación de una v.a. continua. La razón por la que decimos que es más especializado es porque funciona para transformaciones que cumplen ciertas condiciones.


Teorema. Sea $X\colon\Omega\to\RR$ una v.a. continua con función de densidad $f_{X}\colon\RR\to\RR$, y sea $g\colon X[\Omega]\to\RR$ una función diferenciable y estrictamente creciente o decreciente. Entonces la función de densidad de $Y = g(X)$ está dada por

\begin{align*} f_{Y}(y) &= \begin{cases} f_{X}{\left( g^{-1}(y) \right)} {\left| \dfrac{\mathrm{d}}{\mathrm{d} y} {\left[ g^{-1}(y) \right]} \right|} & \text{si $y \in (g \circ X )[ \Omega ]$}, \\[1em] 0 & \text{en otro caso}, \end{cases} \end{align*}

donde $g^{-1}\colon g[\RR] \to\RR$ es la inversa de $g$, y $(g \circ X )[ \Omega ]$ es la imagen directa de $\Omega$ bajo $g \circ X$. Esto es, $(g \circ X) [ \Omega ] = \{\, y \in \RR \mid \exists \omega \in \Omega : (g \circ X )(\omega) = y \,\}$, que corresponde al conjunto de valores que toma la v.a. $Y = g(X)$.


Demostración. Demostraremos el caso en el que $g$ es estrictamente creciente. Para ello, sea $y \in \RR$. Primero, recuerda que

\begin{align*} (Y \leq y) &= (X \leq g^{-1}[(-\infty,y]]). \end{align*}

Por un lado, se tiene el caso en el que $y \in (g \circ X)[\Omega]$; es decir, $y$ es uno de los valores que toma la v.a. $Y$ (pues $(g \circ X)[\Omega] = Y[\Omega]$). En este caso, el valor $g^{-1}(y)$ está bien definido, ya que $g^{-1}\colon (g \circ X)[\Omega]\to\RR$ es una función cuyo dominio es la imagen de $g$. De este modo, para cada $\omega\in\Omega$ tendremos que

\begin{align*} Y(\omega) \leq y &\iff X(\omega) \leq g^{-1}(y). \tag{$*$} \end{align*}

Como $g$ es una función estrictamente creciente, su inversa $g^{-1}\colon (g \circ X)[\Omega]\to\RR$ también es estrictamente creciente, y por lo tanto, la desigualdad en $(*)$ «no se voltea».

De lo anterior se sigue que $\Prob{Y \leq y} = \Prob{X \leq g^{-1}(y)}$ para cada $y \in (g \circ X)[\Omega]$. En consecuencia, se tiene que

\begin{align*} F_{Y}(y) = F_{X}(g^{-1}(y)). \end{align*}

Podemos diferenciar ambos lados de la igualdad respecto a $y$, y por la regla de la cadena obtenemos

\begin{align*} f_{Y}(y) &= f_{X}{\left( g^{-1}(y) \right)} \frac{\mathrm{d}}{\mathrm{d} y} {\left[ g^{-1}(y) \right]} \\[1em] &= f_{X}{\left( g^{-1}(y) \right)} {\left| \frac{\mathrm{d}}{\mathrm{d} y} {\left[ g^{-1}(y) \right]} \right|}, \end{align*}

donde el último paso se obtiene de que $g^{-1}$ es estrictamente creciente, y por lo tanto, su derivada es positiva.

Por otro lado, resta el caso en el que $y \notin (g \circ X)[\Omega]$; es decir, cuando $y$ no es uno de los valores que puede tomar $Y$. En este caso, simplemente $f_{Y}$ vale $0$, pues la densidad de una v.a. continua es $0$ en aquellos valores que no toma. De este modo, $Y$ tiene densidad $f_{Y}\colon\RR\to\RR$ dada por

\begin{align*} f_{Y}(y) &= \begin{cases} f_{X}{\left( g^{-1}(y) \right)} {\left| \dfrac{\mathrm{d}}{\mathrm{d} y} {\left[ g^{-1}(y) \right]} \right|} & \text{si $y \in (g \circ X )[ \Omega ]$}, \\[1em] 0 & \text{en otro caso}, \end{cases} \end{align*}

que es justamente lo que queríamos demostrar.

El caso para $g$ estrictamente decreciente es casi análogo, por lo que te lo dejamos de tarea moral.

$\square$

Es importante notar que el teorema anterior no funciona para cualquier $g\colon\RR\to\RR$ Borel-medible, sólamente para aquellas que cumplen las hipótesis del teorema. Bajo estas hipótesis, el teorema permite obtener la densidad de la transformación de una v.a. de manera más eficiente que los otros métodos que hemos abordado.

Ejemplo 2. Sea $Z$ una v.a. con densidad $f_{Z}\colon\RR\to\RR$ dada por

\begin{align*} f_{Z}(z) &= \frac{1}{\sqrt{2\pi}} e^{-z^{2} / 2}, & \text{para cada $z \in \RR$}.\end{align*}

Se dice que una v.a. con esa función de densidad sigue una distribución normal estándar. Observa que $f_{Z}(z) > 0$ para todo $z \in \RR$, por lo que $Z[\Omega] = \RR$. Es decir, $Z$ puede tomar cualquier valor en $\RR$.

Sea $W = e^{Z}$. La función $\exp\colon\RR\to\RR^{+}$ dada por $\exp(x) = e^{x}$ es estrictamente creciente y diferenciable, por lo que podemos usar el teorema anterior para obtener la función de densidad de $W$. Así, tenemos que

\begin{align*} f_{W}(w) = f_{Z}{ \left(\exp^{-1}(w) \right)} {\left| \frac{\mathrm{d}}{\mathrm{d} w} {\left[ \exp^{-1}(w) \right]} \right|}, \end{align*}

donde $\exp^{-1}\colon\RR^{+}\to\RR$ es la inversa de la función exponencial $\exp$. De hecho, la inversa de $\exp$ es la función $\ln\colon\RR^{+}\to\RR$, el logaritmo natural. Ahora, como $Z[\Omega] = \RR$, se tiene que $(\exp{} \circ Z)[\Omega] = \RR^{+}$, pues la función $\exp{}$ toma únicamente valores positivos.

En consecuencia, para $w \in \RR^{+}$ se tiene

\begin{align*} f_{W}(w) &= f_{Z}{ \left(\ln(w) \right)} {\left| \frac{\mathrm{d}}{\mathrm{d} w} {\left[ \ln(w) \right]} \right|} \\[1em] &= f_{Z}{ \left(\ln(w) \right)} {\left| \frac{1}{w} \right|} \\[1em] &= \frac{1}{w \sqrt{2\pi}} \mathrm{exp} { \left( − \frac{(\ln(w))^{2}}{2}\right) }\end{align*}

y así, tenemos que $W$ tiene densidad $f_{W}\colon\RR\to\RR$ dada por

\begin{align*} f_{W}(w) &= \begin{cases} \dfrac{1}{w \sqrt{2\pi}} \mathrm{exp} { \left( − \dfrac{(\ln(w))^{2}}{2}\right) } & \text{si $w > 0$}, \\[1em] 0 & \text{en otro caso}. \end{cases} \end{align*}

Como nota adicional, $f_{W}$ es la densidad de una v.a. cuya distribución es conocida como log-normal.


Para concluir, es importante mencionar que la transformación $g$ del teorema sólamente necesita ser diferenciable y estrictamente creciente sobre $X[\Omega]$ (por eso es que en el enunciado la pusimos como $g\colon X[\Omega] \to \RR$). Por ejemplo, la función $g\colon\RR^{+}\cup\{0\}\to\RR$ dada por $g(x) = x^{2}$ es una función creciente sobre su dominio. Por ello, si $X$ es una v.a. continua que toma únicamente valores no-negativos, entonces puede aplicarse el teorema para obtener la densidad de $g(X)$. En resumidas cuentas, el teorema puede aplicarse siempre y cuando la transformación $g$ sea diferenciable y estrictamente creciente sobre el conjunto de valores que puede tomar $X$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Verifica que la función de distribución de la v.a. $X$ del Ejemplo 1 es la función que te dimos. Es decir, obtén la función de distribución de $X$ a partir de su función de densidad.
  2. Demuestra el caso en el que $g$ es estrictamente decreciente del teorema de cambio de variable.
  3. Retoma el segundo Ejemplo 2, pero esta vez comienza con la v.a. $W$, cuya función de densidad es \begin{align*} f_{W}(w) &= \begin{cases} \dfrac{1}{w \sqrt{2\pi}} \mathrm{exp} { \left( − \dfrac{(\ln(w))^{2}}{2}\right) } & \text{si $w > 0$}, \\[1em] 0 & \text{en otro caso}, \end{cases} \end{align*}y encuentra la función de densidad de $Z = \ln(W)$ usando el teorema.

Más adelante…

El teorema de esta entrada es muy útil para obtener la densidad (y, en consecuencia, la distribución) de muchas transformaciones de v.a.’s continuas. Por ello, nos será de utilidad en el futuro relativamente cercano, cuando veamos las distribuciones de probabilidad más conocidas. Por otro lado, te será de utilidad mucho más adelante en materias posteriores, pues este teorema puede generalizarse al caso en el que la transformación tiene como dominio a $\RR^{n}$ y como codominio a $\RR$ con $n \in \mathbb{N}^{+}$ y $n \geq 2$ (por ejemplo, $g\colon\RR^{2}\to\RR$ dada por $g(x, y) = x + y$).

En la siguiente entrada comenzaremos el estudio de un concepto asociado a las v.a.’s llamado el valor esperado de una variable aleatoria.

Entradas relacionadas

Probabilidad I: Variables Aleatorias Continuas

Por Octavio Daniel Ríos García

Introducción

En la entrada anterior comenzamos el estudio de los dos tipos de v.a.’s que nos interesan, y vimos el caso de las v.a.’s discretas. Sin embargo, puede que te preguntes exactamente por qué es necesaria esta distinción. Por ello, en esta entrada presentaremos las propiedades de las v.a.’s continuas para que compares ambos tipos, y puedas apreciar sus diferencias.

A diferencia de las v.a.’s discretas, las v.a.’s continuas pueden tomar una cantidad infinita no numerable de valores distintos. Es decir, el conjunto de valores que puede tomar una v.a. continua tiene la misma cardinalidad que los números reales.

Definición de una v.a. continua

En la introducción comentamos que las v.a.’s continuas, a grandes rasgos, son aquellas cuyo conjunto de valores posibles es infinito no numerable. Sin embargo, no las definiremos a partir de este hecho, sino a partir de una propiedad que debe cumplir su función de distribución.


Definición. Una variable aleatoria $X$ es absolutamente continua si y sólamente si existe una función $f\colon\RR\to\RR$ integrable y no-negativa tal que para cada $x \in \RR$ se cumple que

\[ F_{X}(x) = \int_{-\infty}^{x} f(t) \text{d}t. \]

Llamamos a $f$ la función de densidad (o simplemente la densidad) de $X$.


A este tipo de v.a.’s se les llama absolutamente continuas debido a que su función de distribución es una función absolutamente continua. Es común encontrarse con el término «continua» en vez de «absolutamente continua«, aunque en contextos más formales existen diferencias entre ambos términos. De manera equivalente, una v.a. $X$ es continua si existe una función $f\colon\RR\to\RR$ integrable y no-negativa tal que para cada $x \in \RR$ se cumple que

\[ \Prob{X \leq x} = \int_{-\infty}^{x} f(t) \text{d}t, \]

por la definición de $F_{X}$. Es decir, $X$ es una v.a. continua si la función de distribución de $X$ puede escribirse como la integral de una función integrable y no-negativa $f$, que es llamada la densidad de $X$. Es decir, las probabilidades de los eventos que involucran a una v.a. continua se pueden expresar en términos del área debajo de su función de densidad.

En consecuencia, si $X$ es una v.a. continua con densidad $f\colon\RR\to\RR$, como $F_{X}(x) \to 1$ cuando $x \to \infty$, se tiene que

\[ \int_{-\infty}^{\infty} f(t)\text{d}t = 1. \]

Además, para cada $a$, $b \in \RR$ tales que $a < b$ se tiene que $\Prob{X \in (a, b]} = F_{X}(b) − F_{X}(a)$, por lo que

\[ \Prob{X \in (a, b]} = \int_{-\infty}^{b} f(t) \text{d}t − \int_{-\infty}^{a} f(t) \text{d}t = \int_{a}^{b} f(t) \text{d}t. \]

Es importante notar que en la definición pedimos que la densidad de una v.a. continua $X$ debe ser una función integrable, lo cual garantiza que la función de distribución de $X$ es continua.

Ejemplo 1. Sea $\lambda \in \RR$ tal que $\lambda > 0$ y sea $X$ una v.a. con distribución $F\colon\RR\to\RR$ dada por

\[ F(x) = \begin{cases} 1 − e^{-\lambda x} & \text{si $x \geq 0$}, \\[1em] 0 & \text{en otro caso.} \end{cases} \]

Gráficamente, para algunos valores de $\lambda$, $F$ se ve como sigue:

Figura. Gráfica de la función $F(x) = 1 − e^{-\lambda x}$ para distintos valores de $\lambda$.

Si tomamos a $f\colon\RR\to\RR$ como sigue

\[ f(x) = \begin{cases} \lambda e^{-\lambda x} & \text{si $x \geq 0$}, \\[1em] 0 & \text{en otro caso,} \end{cases} \]

se cumplirá que $f$ es la densidad de $X$. Para verlo, tomamos $x \in \RR$. Primero, observa que si $x < 0$, entonces

\[ \int_{-\infty}^{x} f(t) \mathrm{d}t = \int_{-\infty}^{x} 0 \mathrm{d}t = 0 = F(x), \]

donde $F(x) = 0$ se cumple por la definición de $F$. Por otro lado, para el caso en el que $x \geq 0$ se tiene que

\begin{align*} \int_{-\infty}^{x} f(t) \mathrm{d}t &= \int_{-\infty}^{0} 0 \mathrm{d}t + \int_{0}^{x} \lambda e^{-\lambda t} \mathrm{d}t \\[1em] &= 0 + {\left( − e^{−\lambda t} \right)} \Big|_{0}^{x} \\[1em] &= e^{−\lambda \cdot 0} − e^{−\lambda x} \\[1em] &= 1 − e^{-\lambda x}, \end{align*}

por lo que queda demostrado que para cada $x \in \RR$ se cumple que $F(x) = \int_{−\infty}^{x} f(t) \mathrm{d}t$. Por lo tanto, $f$ es la densidad de $X$.

Figura. Gráfica de la función de densidad de $X$, $f(x) = \lambda e^{−\lambda x}$, para algunos valores de $\lambda$.

Cuando una v.a. tiene la función de distribución (y, en consecuencia, la densidad) del ejemplo anterior, se dice que sigue una distribución exponencial. Esta es una de las muchas distribuciones importantes que veremos más adelante.

¿Las v.a.’s continuas tienen función de masa de probabilidad?

Como seguramente ya notaste, la relación que existe entre la densidad y la función de distribución de una v.a. continua se parece mucho a la relación entre la masa de probabilidad y la distribución de una v.a. discreta. En el caso de las discretas, para obtener el valor de $F(x)$ para $x \in \RR$ a partir de la función de masa de probabilidad, lo que se hace es sumar todas las probabilidades de los valores menores o iguales a $x$. Por otro lado, en el caso de las continuas lo que se hace es integrar la función de densidad desde $−\infty$ hasta $x$.

Sin embargo, hay un detalle muy importante en el que difieren las v.a.’s continuas de las discretas, que desarrollaremos a continuación. Sea $X$ una v.a. continua. ¿Recuerdas la siguiente propiedad? La vimos en la entrada pasada. Para cada $a \in \RR$, se cumple que

\[ \Prob{X =a} = F_{X}(a) − F_{X}(a-), \]

donde no olvides que $F_{X}(a-)$ es el límite de $F(x)$ cuando $x$ tiende a $a$ por la izquierda. Sin embargo, en el caso de una v.a. continua, sabemos que existe $f\colon\RR\to\RR$ integrable y no-negativa tal que para cada $x \in \RR$, se cumple que

\[ F_{X}(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t. \]

Debido a que $f$ es una función integrable, la función $F_{X}$ es continua. En particular, es continua por la izquierda, por lo que para cada $a \in \RR$ se cumple que

\[ \Prob{X = a} = F_{X}(a) − F_{X}(a-) = F_{X}(a) − F_{X}(a) = 0. \]

Esto seguramente te resulta confuso, ¿la probabilidad de que la v.a. $X$ tome cualquier valor real es $0$? ¡Así es! Sin embargo, nosotros habíamos dicho que en la probabilidad, medíamos qué tan «probable» es que pase un evento con una calificación del $0$ al $1$. En particular, habíamos acordado que $0$ representa lo más improbable posible. ¿Esto significa que es imposible que una v.a. continua tome algún valor fijo? ¡No! Ten mucho cuidado, nosotros dijimos que cuando un evento tiene probabilidad $0$ esto significa que es lo más improbable posible de acuerdo con la medida de probabilidad que se está utilizando. Esto puede interpretarse como que sí es imposible (como pasa con los puntos de probabilidad $0$ en una v.a. discreta, o los puntos donde la densidad de una v.a. continua vale $0$), o puede significar que es muy improbable, pero no imposible.

Además, debido a esto último, cuando $X$ es una v.a. continua se cumple que

\[ \Prob{X \in (a,b]} = \Prob{X \in (a,b)} = \Prob{X \in [a,b)} = \Prob{X \in [a,b]}, \]

y que

\[ \Prob{X \leq a} = \Prob{X < a}, \qquad \Prob{X \geq a} = \Prob{X > a}, \]

por lo que con las v.a.’s continuas no es necesario preguntarse si la desigualdad es estricta o no. Mucho cuidado, con las discretas sí debes de tener cuidado con eso, porque en las discretas hay valores $a \in \RR$ para los cuales $\Prob{X = a} > 0$.

Pese a que la probabilidad de los eventos $(X = a)$ es $0$ para cada $a \in \RR$ cuando $X$ es una v.a. continua, la variable aleatoria sí puede tomar cualquiera de los valores en los que su función de densidad es mayor a $0$.

Partiendo de una función de densidad

En la entrada pasada vimos que puede definirse la distribución de una v.a. discreta a partir de una función de masa de probabilidad. De manera muy similar, puede definirse la distribución de una v.a. continua a partir de una función de densidad. Sin embargo, hay que establecer las propiedades que debe de satisfacer una función para poder uitlizarla como función de densidad.

Sea $f\colon\RR\to\RR$ una función integrable. Si se cumple que

\begin{align*} f(x) \geq 0 &\quad \text{para cada $x \in \RR$,} \tag{1} \\[1em] \int_{−\infty}^{\infty} f(t) \mathrm{d}t &= 1, \tag{2}\end{align*}

entonces $f$ es la densidad de alguna v.a. continua. Para confirmar este hecho, define $F\colon\RR\to\RR$ como

\[ F(x) = \int_{−\infty}^{x} f(t) \mathrm{d}t, \quad \text{para cada $x \in \RR$,} \]

y demuestra (tarea moral) que $F$ es una función de distribución. Esto es, que $F$ es no-decreciente, continua por la derecha y su límite a $\infty$ es $1$ y a $−\infty$ es $0$.

Ejemplo 2. La función de densidad de una v.a. continua debe de ser integrable. Sin embargo, no tiene por qué ser continua, ya que funciones integrables que tienen discontinuidades. Por ejemplo, considera a $f\colon\RR\to\RR$ dada por

\[ f(x) = \begin{cases} 1 & \text{si $x \in [−1.5, −1]$,} \\[1em] 1 & \text{si $x \in [1, 1.5]$,} \\[1em] 0 & \text{en otro caso.} \end{cases} \]

Gráficamente:

Figura. Gráfica de la función $f$. Observa que claramente $f$ no es una función continua.

Para ver que $f$ es la función de densidad de alguna v.a. continua, hay que demostrar que $f$ satisface:

\begin{align*} f(x) \geq 0 \quad \text{para cada $x \in \RR$} \qquad \text{y} \qquad \int_{−\infty}^{\infty} f(t) \mathrm{d}t = 1.\end{align*}

Primero, observa que por la definición de $f$, para cada $x \in \RR$ se cumple que $f(x) = 0$ o $f(x) = 1$, por lo que $f$ es no-negativa. Por otro lado, veamos cuánto vale la integral de $f$ sobre $\RR$.

\begin{align*} \int_{−\infty}^{\infty} f(t) \mathrm{d}t &= \int_{−\infty}^{−1.5} f(t) \mathrm{d}t + \int_{−1.5}^{−1} f(t) \mathrm{d}t + \int_{−1}^{1} f(t) \mathrm{d}t + \int_{1}^{1.5} f(t) \mathrm{d}t + \int_{1.5}^{\infty} f(t) \mathrm{d}t \\[1em] &= \int_{−\infty}^{−1.5} 0 \mathrm{d}t + \int_{−1.5}^{−1} 1 \mathrm{d}t + \int_{−1}^{1} 0 \mathrm{d}t + \int_{1}^{1.5} 1 \mathrm{d}t + \int_{1.5}^{\infty} 0 \mathrm{d}t \\[1em] &= \int_{−1.5}^{−1} 1 \mathrm{d}t + \int_{1}^{1.5} 1 \mathrm{d}t \\[1em] &= {\Big( t \, \Big|_{−1.5}^{−1} \Big)} + {\Big( t \, \Big|_{1}^{1.5} \Big)} \\[1em] &= (−1 − (−1.5)) + (1.5 − 1) \\[1em] &= (−1 + 1.5) + (1.5 − 1) \\[1em] &= 0.5 + 0.5 \\[1em] &= 1, \end{align*}

por lo que $\int_{−\infty}^{\infty} f(t) \mathrm{d}t = 1$, así que $f$ es la función de densidad de alguna v.a. continua.

A partir de $f$ podemos obtener la función de distribución que le corresponde, donde para cada $x \in \RR$, se define $F$ como

\[ F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t. \]

Sin embargo, como $f$ está definida por pedazos, hay que tener cuidado con cada uno de los casos para $x$. En este caso, $f$ tiene $5$ casos que analizar. Primero, cuando $x < -1.5$, tenemos que

\[ F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t = \int_{-\infty}^{x} 0 \mathrm{d}t = 0, \]

pues $f(x) = 0$ cuando $x < -1.5$. Luego, cuando $-1.5 \leq x \leq 1$, tenemos que

\[ F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t = \int_{-\infty}^{-1.5} 0 \mathrm{d}t + \int_{-1.5}^{x} 1 \mathrm{d}t = 0 + {\Big( t \, \Big|_{-1.5}^{x} \Big)} = x − (-1.5) = x + 1.5, \]

¡observa con cuidado cómo los integrandos difieren debido a que $f$ está definida por pedazos! Continuando con el ejemplo, cuando $-1 < x < 1$, se tiene que

\begin{align*} F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t = \int_{-\infty}^{-1.5} 0 \mathrm{d}t + \int_{-1.5}^{-1} 1 \mathrm{d}t + \int_{-1}^{1} 0 \mathrm{d}t &= 0 + {\Big( t \, \Big|_{-1.5}^{-1} \Big)} + 0 \\[1em] &= (-1) − (-1.5) \\[1em] &= 0.5, \end{align*}

es decir, $F$ permanece constante entre $-1$ y $1$, y toma el valor $0.5$. Cuando $1 \leq x \leq 1.5$, la integral queda como sigue

\begin{align*} F(x) = \int_{-\infty}^{x} f(t) \mathrm{d}t &= \int_{-\infty}^{-1.5} 0 \mathrm{d}t + \int_{-1.5}^{-1} 1 \mathrm{d}t + \int_{-1}^{1} 0 \mathrm{d}t + \int_{-1}^{x} 1 \mathrm{d}t \\[1em] &= 0 + {\Big( t \, \Big|_{-1.5}^{-1} \Big)} + 0 + {\Big( t \, \Big|_{1}^{x} \Big)} \\[1em] &= ((-1) − (-1.5)) + (x − 1) \\[1em] &= 0.5 + x − 1 \\[1em] &= x − 0.5, \end{align*}

y así obtenemos la función de distribución asociada a $f$, que es

\[ F(x) = \begin{cases} 0 & \text{si $x < -1.5$}, \\[1em] x + 1.5 & \text{si $-1.5 \leq x \leq 1$}, \\[1em] 0.5 & \text{si $-1 < x < 1$}, \\[1em] x − 0.5 & \text{si $1 \leq x \leq 1.5$}, \\[1em] 1 & \text{si $1.5 \leq x$}, \end{cases} \]

que gráficamente se ve como la siguiente figura

Figura. Gráfica de la función de distribución $F$. Observa que, informalmente, puede apreciarse que satisface las propiedades de una función de distribución (como ya lo esperábamos): es no-decreciente, continua por la derecha y sus límites a $-\infty$ e $\infty$ son $0$ y $1$, respectivamente.

Teniendo la función de distribución, es posible calcular muchas probabilidades. Si $U$ es una v.a. cuya distribución es la función $F$ que obtuvimos, entonces podemos obtener:

\[ \Prob{U \leq -\frac{4}{3}} = -\frac{4}{3} + 1.5 = -\frac{4}{3} + \frac{3}{2} = \frac{-8 + 9}{6} = \frac{1}{6} \approx 0.16666, \]

por lo que $\Prob{U \leq -\frac{4}{3}} \approx 16.666\%$. Además, como $U$ es una v.a. continua, se tiene que $\Prob{U \leq -\frac{4}{3}} = \Prob{U < -\frac{4}{3}}$, pues $\Prob{U = -\frac{4}{3}} = 0$. Esto pasa con cualquier valor, como ya mencionamos anteriormente. Por ello, al obtener probabilidades de que una v.a. continua esté dentro de algún intervalo, puedes no preocuparte por los extremos. Otro ejemplo:

\[ \Prob{X \in (-1.2, 1.4]} = F(1.4) − F(-1.2) = (1.4 − 0.5) − ((-1.2) + 1.5) = 0.9 − 0.3 = 0.6, \]

que es igual a $\Prob{X \in (-1.2, 1.4)}$, pues $\Prob{X = 1.4} = 0$.


Recuperando la densidad a partir de la distribución

Habrá situaciones en las que tendremos la función de distribución de una v.a. continua, y necesitaremos su función de densidad. El siguiente ejemplo exhibe una metodología para obtener la densidad de una v.a. continua a partir de su función de distribución.

Ejemplo 3. Sea $Z$ una v.a. con distribución $G\colon\RR\to\RR$ dada por

\[ G(z) = \begin{cases} 0 & \text{si $x < 0$}, \\[1em] z^2 & \text{si $0 \leq z < \frac{1}{2}$}, \\[1em] 1 − \dfrac{3(1 − z)}{2} & \text{si $\frac{1}{2} \leq z < 1$}, \\[1em] 1 & \text{si $z \geq 1$},\end{cases} \]

que gráficamente se ve como sigue:

Figura. Gráfica de la función $G$. Parece que sí es una función de distribución… ¡No se te olvide verificarlo!

Ahora, para obtener la función de densidad de $Z$, digamos, $g$. Para hacerlo, hay que hacer el procedimiento inverso al que seguimos en el ejemplo anterior. No obstante, la densidad $g$ será una función definida por pedazos, así como $G$ (y como la densidad del ejemplo anterior).

Además, en lugar de integrar, ahora tenemos que encontrar la derivada $G$. Es decir, la función $g$ que buscamos debe de satisfacer que

\[ G'(z) = g(z), \qquad \text{para cada $z\in\RR$.} \]

Sin embargo, observa que la función no es diferenciable sobre todo su dominio. Gráficamente, tiene un piquito en $z=\frac{1}{2}$, que es un indicador de que la función no es diferenciable en ese punto. Lo mismo pasa en $z=1$.

Sin embargo, es posible obtener la derivada de la función $G$ en los pedazos en los que sí es diferenciable. Podemos trabajar de manera similar a como lo hicimos en el ejemplo anterior, analizando cada uno de los casos que contempla la regla de correspondencia de $G$. De este modo, sea $z < 0$. Queremos encontrar $g_{1}$, una función no-negativa, tal que

\[ G(z) = \int_{-\infty}^{z} g_{1}(t) \mathrm{d}t, \]

y como $z < 0$, $G(z) = 0$, por lo que buscamos $g_{1}$ tal que

\[ \int_{-\infty}^{z} g_{1}(t) \mathrm{d}t = 0, \]

que debe de ser una función constante para que se cumpla que $G'(t) = g_{1}(t)$ para $t < 0$. Además, $g_{1}$ debe de ser no-negativa, pues buscamos que sea parte de una función de densidad, la cual debe de ser no negativa. De este modo, la única función $g_{1}$ que satisface este hecho es la función dada por $g_{1}(t) = 0$, pues es constante y su integral de $-\infty$ a $z$ es $0$, con $z < 0$. De este modo, $g$, la derivada de $G$ que buscamos, cumple que $g(z) = 0$ para cada $z < 0$.

Después, para $z \in [0, \frac{1}{2})$, tenemos que

\[ G(z) = z^{2}, \]

y lo que queremos es encontrar una función $g_{2}$ tal que

\[ G(z) = \int_{-\infty}^{0} g_{1}(t) \mathrm{d}t + \int_{0}^{z} g_{2}(t) \mathrm{d}t, \]

donde $g_{1}$ es la que obtuvimos en el paso anterior (gracias al paso anterior sabemos que la derivada de $G$ que estamos construyendo vale $0$ de $-\infty$ a $0$). Por ello, buscamos $g_{2}$ tal que

\[ z^{2} = \int_{-\infty}^{0} g_{1}(t) \mathrm{d}t + \int_{0}^{z} g_{2}(t) \mathrm{d}t = 0 + \int_{0}^{z} g_{2}(t) \mathrm{d}t = \int_{0}^{z} g_{2}(t) \mathrm{d}t, \]

por lo que $g_{2}$ es la función dada por $g_{2}(t) = 2z$ para cada $z \in [0, \frac{1}{2})$; ya que $\frac{\mathrm{d}}{\mathrm{d}z}{\left( z^{2} \right)} = 2z$.

Ahora, para $z \in [\frac{1}{2}, 1)$, se tiene que

\[ G(z) = 1 − \frac{3(1 − z)}{2}, \]

y ahora buscamos una función $g_{3}$ tal que

\[ G(z) = \int_{-\infty}^{0} g_{1}(t) \mathrm{d}t + \int_{0}^{\frac{1}{2}} g_{2}(t) \mathrm{d}t + \int_{\frac{1}{2}}^{z} g_{3}(t) \mathrm{d}t. \]

Desarrollando el lado derecho de esta última igualdad obtenemos la siguiente expresión

\begin{align*} \int_{-\infty}^{0} g_{1}(t) \mathrm{d}t + \int_{0}^{\frac{1}{2}} g_{2}(t) \mathrm{d}t + \int_{\frac{1}{2}}^{z} g_{3}(t) \mathrm{d}t &= 0 + {\left({\left( \frac{1}{2} \right)}^{2} − 0^{2} \right)} + \int_{\frac{1}{2}}^{z}g_{3}(t) \mathrm{d}t \\[1em] &= \frac{1}{4} + \int_{\frac{1}{2}}^{z}g_{3}(t) \mathrm{d}t, \end{align*}

y, por otro lado, desarrollando el lado izquierdo, obtenemos que

\[ G(z) = 1 − \frac{3(1 − z)}{2} = 1 − \frac{3 − 3z}{2} = \frac{2 − (3 − 3z)}{2} = \frac{3z − 1}{2} \]

por lo que la función $g_{3}$ que buscamos debe de cumplir que

\[ \frac{3z − 1}{2} = \frac{1}{4} + \int_{\frac{1}{2}}^{z}g_{3}(t) \mathrm{d}t, \]

que desarrollando un poco, nos dice que $g_{3}$ debe de satisfascer

\[ \frac{3z}{2} − \frac{3}{4} = \int_{\frac{1}{2}}^{z}g_{3}(t) \mathrm{d}t. \]

Ahora, esto es algo que no se notó mucho en el paso anterior en el que obtuvimos $g_{2}$, pero la expresión de la izquierda incluye las constantes de integración. Esto es de esperarse, pues se trata del teorema fundamental del cálculo.

Bien, ahora observa $\frac{\mathrm{d}}{\mathrm{d}z}{\left( \frac{3z}{2} − \frac{3}{4} \right)} = \frac{3}{2}$; así que $g_{3}(t) = \frac{3}{2}$ es la función que queremos. Más aún, podemos confirmarlo integrando $g_{3}$ de $\frac{1}{2}$ a $z$:

\[ \int_{\frac{1}{2}}^{z} \frac{3}{2} \mathrm{d}t = \frac{3}{2} \int_{\frac{1}{2}}^{z} 1 \mathrm{d}t = \frac{3}{2}{\left( z − \frac{1}{2} \right)} = \frac{3z}{2} − \frac{3}{4}, \]

por lo que $g_{3}(t) = \frac{3}{2}$ es precisamente la función que buscamos.

Finalmente, para $z \geq 1$, tenemos que $G(z) = 1$, por lo que nos queda encontrar $g_{4}$ tal que

\begin{align*} 1 &= \int_{-\infty}^{0} g_{1}(t) \mathrm{d}t + \int_{0}^{\frac{1}{2}} g_{2}(t) \mathrm{d}t + \int_{\frac{1}{2}}^{1} g_{3}(t) \mathrm{d}t + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t, \\[1em] &= \int_{-\infty}^{0} 0 \mathrm{d}t + \int_{0}^{\frac{1}{2}} 2t \mathrm{d}t \mathrm{d}t + \int_{\frac{1}{2}}^{1} \frac{3}{2} \mathrm{d}t + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t \\[1em] &= 0 + \frac{1}{4} + {\left( \frac{3}{2} − \frac{3}{4} \right) } + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t \\[1em] &= \frac{1}{4} + {\left( \frac{6 − 3}{4} \right) } + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t \\[1em] &= \frac{1}{4} + \frac{3}{4} + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t \\[1em] &= 1 + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t \end{align*}

por lo que $g_{4}$ debe de satisfacer que

\[ 1 = 1 + \int_{1}^{\infty} g_{4}(t) \mathrm{d}t, \]

o equivalentemente, que $\int_{1}^{\infty} g_{4}(t) \mathrm{d}t = 0$. Similarmente a $g_{1}$, la única función no-negativa que satisface esto es $g_{4}(z) = 0$, para cada $z \geq 1$. Así, colocando cada una de las funciones que hemos obtenido en el caso que le corresponde, obtenemos que la densidad de $Z$ es la función $g\colon\RR\to\RR$ dada por

\[ g(z) = \begin{cases} 0 & \text{si $x < 0$}, \\[1em] 2z & \text{si $0 \leq z < \frac{1}{2}$}, \\[1em] \frac{3}{2} & \text{si $\frac{1}{2} \leq z < 1$}, \\[1em] 0 & \text{si $z \geq 1$},\end{cases} \]

que gráficamente se ve como sigue:

Figura. Gráfica de $g$, la densidad de $Z$. Observa que $g$ no es continua, algo que ya dejamos claro que no es necesario. Sin embargo, $g$ claramente es una función integrable.

Usos de las variables aleatorias continuas

Las v.a.’s continuas tienen una cantidad no-numerable de valores que pueden tomar. Esto se debe a que $\RR$ y muchos de sus subconjuntos son ejemplos de conjuntos infinitos no-numerables. Por ejemplo, los intervalos $[0,1]$, $[0, \infty)$, $(−5, 3]$ son ejemplos de conjuntos con cardinalidad infinita no-numerable. Por ello, las v.a.’s continuas se utilizan en fenómenos cuyo resultado amerita usar la precisión de los números reales.

Un primer ejemplo son los fenómenos en donde el resultado es un valor de tiempo. El tiempo que esperas hasta que llega un autobús a la parada en la que lo tomas; el tiempo que tarda en fallar algún aparato electrónico (el ejemplo clásico es el tiempo que tarda un foco en fundirse); el tiempo de vida que le queda a una persona (espeluznante, pero a los actuarios les interesa debido a los seguros de vida); etcétera. Cuando se habla de tiempos, suelen usarse v.a.’s continuas que tengan a $[0, \infty)$ como soporte para asegurar que el modelo contempla únicamente valores no-negativos. Las v.a.’s con distribución exponencial (que mencionamos en el primer ejemplo de esta entrada) son un ejemplo de este tipo de v.a.’s.

Otro ejemplo donde se usan v.a.’s continuas son los fenómenos financieros. El precio de un activo en un momento dado; la paridad cambiaria entre divisas; el valor que tomará la tasa de interés o de rendimiento en un instrumento financiero (como una anualidad) en el futuro; etcétera. La teoría de los procesos estocásticos es la rama de la probabilidad que se encarga del estudio de fenómenos aleatorios a través del tiempo, y resulta fundamental para el análisis de fenómenos financieros como los que aquí mencionamos.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que si $f\colon\RR\to\RR$ es una función que satisface \begin{align*} f(x) \geq 0 \quad \text{para cada $x \in \RR$} \qquad \text{y} \qquad \int_{−\infty}^{\infty} f(t) \mathrm{d}t = 1,\end{align*}entonces $f$ es la función de densidad de alguna v.a. continua. Sugerencia: Define $F\colon\RR\to\RR$ como sigue: para cada $x \in \RR$, \[ F(x) = \int_{−\infty}^{\infty} f(t) \mathrm{d}t, \]y demuestra que $F$ es una función de distribución.
  2. Demuestra que la función $g\colon\RR\to\RR$ dada por\[ g(x) = \begin{cases} x + 1 & \text{si $x \in [−1,0)$,} \\[1em] 1 − x & \text{si $x \in [0, 1]$,} \\[1em] 0 & \text{en otro caso} \end{cases} \]es la función de densidad de alguna v.a. continua. La gráfica de $g$ puede apreciarse en la siguiente figura:
  3. Verifica que la función $G$ del Ejemplo 3 es una función de distribución.

Más adelante…

Es importante que entiendas las diferencias que existen entre las v.a.’s discretas y las continuas. Repasa esta entrada y la anterior las veces que sea necesario para que no te confundas entre ambas. En la siguiente entrada veremos qué es lo que resulta de aplicarle funciones (transformaciones) a una v.a.

En cuanto a las aplicaciones, verás muchísimas más en materias posteriores, como en las materias de estadística. Por nuestro lado veremos varias distribuciones de probabilidad importantes (como la distribución exponencial) con las que seguramente te encontrarás en ese tipo de materias.

Entradas relacionadas