Introducción
En esta entrada veremos una breve introducción a las interacciones básicas entre dos v.a.’s. En una entrada previa vimos cómo se interpretaban las operaciones con eventos, y después vimos algunos conceptos asociados a la interacción entre eventos, como es el caso de la definición de independencia. De manera similar, es razonable que definamos ciertos conceptos para describir el comportamiento probabilístico de dos variables aleatorias de manera conjunta.
Primero, un poco de notación
Sea
Primero, demos un poco de notación. Sean
Es decir,
De este modo, podemos expresar muchas probabilidades de intersecciones de eventos de forma más compacta. Por ejemplo:
etcétera.
Independencia de variables aleatorias
En la Unidad 1 de este curso hablamos sobre la independencia de eventos. El paso que sigue ahora es definir la noción de independencia de variables aleatorias. De manera similar a los eventos, que
Definición 1. Sea
También es posible caracterizar la independencia de v.a.’s mediante sus funciones de distribución. Para ello, es necesario definir el concepto de función de distribución conjunta de dos v.a.’s. Esta se define como sigue:
Definición 2. Sea
Esta es una «generalización» multidimensional de la función de distribución de una variable aleatoria. Es decir, sabemos que
El siguiente teorema nos brinda un criterio de independencia más sencillo que el de la Definición 1:
Teorema 1. Sea
y son independientes.- Para cualesquiera
, se cumple
Demostrar que 1. implica a 2. no es complicado, y lo dejamos como tarea moral. Por otro lado, demostrar 2. implica a 1. rebasa los contenidos de este curso, por lo que omitiremos esta parte de la demostración.
Este teorema hace más sencillo verificar si dos v.a.’s son independientes o no lo son. Primero, porque el trabajo se reduce a trabajar con las funciones de distribución. Además, a continuación veremos que es posible recuperar las funciones de probabilidad (masa y densidad) a partir de las funciones de probabilidad conjunta. Por ello, podremos verificar si dos v.a.’s son independientes comparando su distribución conjunta con el producto de sus distribuciones univariadas, gracias al Teorema 1.
Funciones de probabilidad conjunta para v.a.’s discretas
Al haber definido la función de distribución conjunta, se desprenden dos casos importantes: el caso discreto y el caso continuo. En el caso en el que
Definición 3. Sea
Es decir, el valor
De este modo,
Observa que esta es una unión de conjuntos ajenos, pues para cada
así que por
es una unión de eventos ajenos. Además, por propiedades de la imagen inversa, sabemos que
Por otro lado, como el dominio de
Es decir,
Análogamente, para cada
En términos de las funciones de masa de probabilidad, lo anterior quiere decir que podemos recuperar la masa de probabilidad de
Este procedimiento de obtener la función de masa de probabilidad de una v.a. a partir de la masa de probabilidad conjunta se conoce como marginalización, y las funciones resultantes son conocidas como las funciones de masa de probabilidad marginales.
Ejemplo 1. Sean
Una buena manera de organizar la información contenida en esta función es mediante una tabla como la siguiente:
Valores posibles de | ||||
0 | 1 | 2 | ||
Valores posibles de | 1 | 0.2 | 0.05 | 0.1 |
2 | 0.1 | 0 | 0.15 | |
3 | 0.05 | 0.1 | 0 | |
4 | 0 | 0.2 | 0.05 |
De este modo,
por lo que la función de masa de probabilidad de
Sin embargo, observa que el uso de una tabla sólo tiene sentido si
Independencia en el caso discreto
Una consecuencia (casi inmediata) del Teorema 1 es el siguiente criterio de independencia para v.a.’s discretas.
Proposición 1. Sean
Por ejemplo, retomemos las v.a.’s del Ejemplo 1. Sumando los valores en el renglón donde
y nosotros calculamos que
Sin embargo, de acuerdo con la tabla,
Función de densidad conjunta para v.a.’s continuas
Como de costumbre, el caso para las v.a.’s continuas es distinto. En este caso, lo que tendremos es una función de densidad conjunta, que juega el mismo papel que una función de densidad univariada, pero para
Definición. Sean
De este modo,
De igual forma que con las función de distribución conjunta, la función de densidad conjunta es una generalización multivariada de la función de densidad. Además, también existen técnicas de marginalización que son análogas al caso discreto. Primero, recuerda que integrar la función de densidad sobre un intervalo es nuestra forma de sumar continuamente las probabilidades de cada punto en el intervalo. Esto es:
Si tomamos la idea del teorema de probabilidad total, pero integramos sobre todo el conjunto de valores de una de las v.a.’s (en vez de sumar, como hicimos en el caso discreto), podemos expresar la función de densidad marginal de
Es decir, integramos sobre todo el dominio de la v.a. que queremos quitar, que en este caso es
Este es el proceso de marginalización para el caso continuo. Observa que las funciones resultantes son las funciones de densidad marginales. Como tal, los valores que toman estas funciones no son probabilidades, por lo que la marginalización es más sutil que en el caso discreto (ya que el teorema de probabilidad total se usa para probabilidades, y para particiones a lo más numerables).
Ejemplo 2. Sean
La gráfica de esta función se ve como sigue:

Sin embargo, hay un detallito que quizás tengas en la cabeza: ¿cómo se interpreta que esta función sea «de densidad», en un sentido vibariado? A grandes rasgos, debe de cumplir lo mismo que una función de densidad univariada. En particular, el valor de la integral sobre su dominio debe de ser
Como muy probablemente no conoces métodos (ni teoría) de integración bivariada, simplemente te diremos que
Por otro lado, algo que sí podemos hacer con los conocimientos que posees hasta ahora es obtener las marginales. Obtengamos la densidad marginal de
en donde
para cada
Así, llegamos a que
Independencia en el caso continuo
De manera similar al caso discreto, además del criterio dado por el Teorema 1, podemos dar la siguiente criterio de independencia para dos v.a.’s continuas.
Proposición 2. Sean
donde
Es decir, dos v.a.’s continuas son independientes si su función de densidad conjunta es el producto de sus funciones de densidad (marginales).
Tarea moral
Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.
- Demuestra que 1. implica a 2. en el Teorema 1.
- En el Ejemplo 1:
- Verifica que la función
que obtuvimos es una función de masa de probabilidad. - Encuentra
, la función de masa de probabilidad de .
- Verifica que la función
- En el Ejemplo 2:
- Encuentra la función de densidad marginal de
. - ¿Son independientes
y ?
- Encuentra la función de densidad marginal de
Más adelante…
Usaremos los temas que vimos en esta entrada en la próxima entrada, ya que serán necesarios algunos detallitos de probabilidad multivariada para entender las propiedades del valor esperado que veremos a continuación. Por el momento sólo es importante que sepas que existen estos temas de probabilidad multivariada, y entiendas lo que significan los conceptos vistos en esta entrada.
En un curso de Probabilidad II verás con muchísimo detalle los temas que presentamos en esta entrada, así que no te preocupes si los temas que vimos aquí no te quedaron completamente claros.
Entradas relacionadas
- Ir a Probabilidad I
- Entrada anterior del curso: Propiedades del Valor Esperado
- Siguiente entrada del curso: Más Propiedades del Valor Esperado