Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Variable Compleja I: Topología de $\mathbb{C}$

Por Pedro Rivera Herrera

Introducción

De manera intuitiva podemos considerar a un espacio métrico como un conjunto en el cual se puede hablar de la “distancia” entre sus elementos, por lo que definir lo que entendemos por distancia es de suma importancia. Para ello en esta entrada introduciremos los conceptos de distancia o métrica y espacio métrico. Es importante considerar que estos conceptos se analizan en primera instancia en un curso de Cálculo III y con mayor detalle en un curso de Análisis Matemático, por lo que es recomendable acompañar estos conceptos con algún material complementario, pues algunos resultados de los espacios métricos se darán por válidos y/o conocidos. Puedes consultar los libros Metric Spaces de Satish Shirali y Metric Spaces de Mícheál Ó Searcoid, o cualquier libro sobre topología de espacios métricos.

En la entrada anterior la métrica euclidiana $d$ nos permitió describir algunos lugares geométricos del plano complejo $\mathbb{C}$ con los que ya estábamos familiarizados en $\mathbb{R}^2$. Es importante mencionar que existen otras formas de definir la distancia entre dos números complejos $z$ y $w$. Sin embargo para los fines del curso estaremos utilizando la métrica euclidiana definida en la entrada anterior.

Hablar de la «topología» en $\mathbb{C}$ hace referencia a un resultado de los espacios métricos en el que se prueba que en un espacio métrico $(X,d)$ la métrica $d$ induce una topología en el conjunto $X$. Por lo que en esta entrada analizaremos la topología inducida por la métrica euclidiana $d(z,w) = |\,z-w\,|$ en $\mathbb{C}$.

Lo anterior nos motiva a definir algunos conjuntos de puntos de $\mathbb{C}$ que serán necesarios para continuar en el estudio de la topología en $\mathbb{C}$. Por lo que introducir el concepto de disco o vecindad será de gran utilidad para caracterizar a los conjuntos de $\mathbb{C}$, así como para dar una definición formal de límite y continuidad en $\mathbb{C}$.

$\mathbb{C}$ como un espacio métrico

Definición 7.1. (Métrica y espacio métrico.)
Un conjunto $X\neq\emptyset$ dotado con una función $d: X \times X \to [0,\infty)$ es llamado un espacio métrico, lo cual se denota como $(X,d)$, si la función $d$ cumple las siguientes propiedades para todo $x,y, z\in X$:

  1. $d(x, y) \geq 0$.
  2. $d(x,y) = 0$ si y solo si $x=y$.
  3. Simetría: $d(x,y) = d(y,x)$.
  4. Desigualdad del triángulo: $d(x,y) \leq d(x,z) + d(z,y)$.

Dicha función $d$ es llamada métrica en $X$ o función distancia en $X$. Es común denotar a la métrica en $X$ como $d_X$ cuando se están trabajando con varios espacios métricos y se requiere especificar donde está definida dicha métrica.

Ejemplo 7.1.

  • a) Consideremos al conjunto de los números reales $\mathbb{R}$. La función $d:\mathbb{R} \times \mathbb{R} \to [0,\infty)$ dada por:\begin{equation*}
    d(x,y) = |\,x-y\,|,
    \end{equation*} utilizando las propiedades del valor absoluto es fácil verficar que $d$ es una métrica en $\mathbb{R}$.
  • b) Si $X = \mathbb{R}^n$, entonces para $x = (x_1, x_2, \ldots, x_n)$ y $y = (y_1, y_2, \ldots, y_n)$ en $X$ se define:\begin{equation*}
    d(x,y) = \left(\sum_{k=1}^{n} (x_k – y_k)^2 \right)^{1/2}.
    \end{equation*}
  • La función $d$ es llamada la métrica euclidiana en $\mathbb{R}^n$.
  • c) Sea $X$ cualquier conjunto no vacío, entonces se define a la métrica discreta en $X$ como la función:
    \begin{equation*}
    d(x,y) = \left\{
    \begin{array}{lcc}
    0 & \text{si} & x = y,\\
    1 & \text{si} & x \neq y.
    \end{array}
    \right.
    \end{equation*}

Usando la definición del módulo es fácil probar que la distancia euclidiana, dada en la definición 6.1 de la entrada anterior, es una función $d: \mathbb{C}\times\mathbb{C} \rightarrow [0,\infty)$ que satisface las condiciones para ser una métrica.

Proposición 7.1. (El espacio métrico $(\mathbb{C}, d)$.)
El conjunto $\mathbb{C}$ dotado con la métrica euclidiana $d(z,w) = |\,z-w\,|$, $z,w\in\mathbb{C}$, es un espacio métrico.

Demostración. Sean $z_1, z_2, z_3 \in \mathbb{C}$, entonces:

  1. $d(z_2, z_1) \geq 0$, se sigue de la definición del módulo de un número complejo.
  2. Ejercicio.
  3. Ejercicio.
  4. Queremos probar que:
    \begin{equation*}
    d(z_2, z_1) \leq d(z_2, z_3) + d(z_3, z_1),
    \end{equation*}o equivalentemente que:
    \begin{equation*}
    |\,z_2 – z_1\,| \leq |\,z_2 – z_3\,| + |\,z_3 – z_1\,|.
    \end{equation*}

Sean $z = z_2 – z_3$ y $w = z_3 – z_1$, entonces podemos reescribir $z + w = z_2 – z_1$ y así probar que:
\begin{equation*}
|\, z + w \, | \leq |\,z\,| + |\,w\,|,
\end{equation*}lo cual se sigue de la proposición 3.2.

$\blacksquare$

Observación 7.1.
De acuerdo con la proposición 7.1 y la definición 7.1 tenemos que $\mathbb{C}$ dotado con la métrica euclidiana $d$ forma un espacio métrico, denotado por $(\mathbb{C}, d)$. Es importante mencionar que en esta entrada daremos algunos resultados de manera general para un espacio métrico $(X,d_X)$ y cuando sea necesario puntualizar algo del espacio métrico $(\mathbb{C}, d)$ trabajaremos de manera particular con dicho espacio métrico.

Definición 7.2.
Dado $z_0\in\mathbb{C}$ un punto fijo y una cantidad $\rho>0$, se define a la circunferencia de centro $z_0$ y radio $\rho$ en $\mathbb{C}$, figura 40a, como el conjunto de puntos:
\begin{equation*}
C(z_0,\rho)= \left\{z\in\mathbb{C} \,: \, |\,z-z_0\,| = \rho\right\}.
\end{equation*}

De acuerdo con la entrada anterior sabemos que las ecuaciones:\begin{align*}
|\,z-z_0\,|< \rho,\\
|\,z-z_0\,|> \rho,
\end{align*} nos describen a los puntos $z\in\mathbb{C}$ que caen dentro o fuera de la circunferencia $C(z_0,\rho)$ respectivamente, figura 40b.

Definición 7.3. (Disco o $\rho$-vecindad.)
Dado $z_0\in\mathbb{C}$ un punto fijo y una cantidad $\rho>0$, se definen en $\mathbb{C}$ a los conjuntos: \begin{equation*}
B(z_0,\rho)= \{z\in\mathbb{C} \,: \, |\,z-z_0\,| < \rho\},
\end{equation*} \begin{equation*}
\overline{B}(z_0,\rho)= \{z\in\mathbb{C} \,: \, |\,z-z_0\,| \leq \rho\},
\end{equation*} como el disco abierto de radio $\rho$ y centro $z_0$ o la $\rho$-vecindad de $z_0$, figura 41(a), y el disco cerrado de radio $\rho$ y centro $z_0$, figura 41(b), respectivamente.

Figura 40: Circunferencia de centro $z_0$ y radio $\rho>0$.

Observación 7.2.
En ocasiones será necesario trabajar con una $\rho$-vecindad de $z_0$ sin considerar al punto $z_0$, es decir $B^*(z_0,\rho) = B(z_0,\rho) \setminus \{z_0\}$, en dado caso llamaremos a ese conjunto como una $\rho$-vecindad perforada o un disco perforado.
Análogamente se puede hablar de un disco cerrado perforado como el conjunto $\overline{B}^*(z_0,\rho) = \overline{B}(z_0,\rho) \setminus \{z_0\}$.

Definición 7.4. (Punto interior y conjunto abierto.)
Sea $S\subset\mathbb{C}$. Diremos que $z_0\in \mathbb{C}$ es un punto interior de $S$ si existe $\rho>0$ tal que $B(z_0,\rho)\subset S$.
Al conjunto de puntos interiores de $S$ se le denota como $\operatorname{int}S$ o $ \mathring{S}$. Si se cumple que $S = \operatorname{int}S$, entonces diremos que $S$ es un conjunto abierto en $\mathbb{C}$.

De acuerdo con la definición de $\operatorname{int}S$, notemos $\operatorname{int}S\subset S$. De hecho, dado un espacio métrico $(X,d)$ y $S\subset X$, entonces se cumple que $\operatorname{int}S$ es un conjunto abierto y es el mayor subconjunto abierto de $X$ contenido en $S$.

Figura 41: Disco abierto y cerrado con centro $z_0$ y radio $\rho>0$.

Definición 7.5. (Conjunto cerrado.)
Un conjunto $S\subset\mathbb{C}$ se dice que es cerrado en $\mathbb{C}$ si su complemento $S^C = \mathbb{C}\setminus S$ es abierto en $\mathbb{C}$.

Observación 7.3.
Comunmente denotaremos a los conjuntos abiertos de $\mathbb{C}$ con la letra $U$ y a los conjuntos cerrados de $\mathbb{C}$ con la letra $F$.

Ejemplo 7.2.
Utilizando la desigualdad del triángulo es fácil verificar que:

  • a) El conjunto $\{z\in\mathbb{C} : 0<|\,z\,|<1\}$ es abierto en $\mathbb{C}$, figura 42a.
  • b) El conjunto $\{z\in\mathbb{C} : |\,z\,| \leq 1\}$ es cerrado en $\mathbb{C}$, figura 42b.
  • c) El conjunto $\{z\in\mathbb{C} : 0< |\,z\,| \leq 1\}$ no es abierto ni cerrado en $\mathbb{C}$, figura 43.
  • d) Los conjuntos $\emptyset$ y $\mathbb{C}$ son conjuntos abiertos y cerrados en $\mathbb{C}$, ¿por qué?

Figura 42: Conjuntos del ejemplo 7.1 inciso a) y b).

Figura 43: El conjunto $\{z\in\mathbb{C} : 0< |\,z\,| \leq 1\}$ no es cerrado ni es abierto en $\mathbb{C}$.

Definición 7.6. (Punto exterior y punto frontera.)
Sea $S\subset\mathbb{C}$ y sea $z_0\in\mathbb{C}$. Diremos que $z_0$ es un punto exterior de $S$ si existe $\rho>0$ tal que $B(z_0,\rho) \subset \mathbb{C}\setminus S$.
Por otra parte, diremos que $z_0$ es un punto frontera de $S$ si para todo $\rho>0$ se tiene que $B(z_0,\rho) \cap S \neq \emptyset$ y $B(z_0,\rho) \cap \mathbb{C}\setminus S \neq \emptyset$.

Al conjunto de los puntos exteriores de $S$ se le denota como $\operatorname{ext}S$. Mientras que al conjunto de los puntos frontera de $S$ se le denota como $\partial S$.

Definición 7.7. (Punto de acumulación o punto límite y punto aislado.)
Sea $S\subset \mathbb{C}$ y sea $z_0\in\mathbb{C}$. Diremos que $z_0$ es un punto de acumulación o un punto límite de $S$ si para todo $\rho>0$ se tiene:
\begin{equation*}
B(z_0,\rho)\setminus\{z_0\} \cap S \neq \emptyset.
\end{equation*} O equivalentemente que para todo $\rho>0$ se tiene:
\begin{equation*}
\{ z \in S : 0 < |\,z-z_0\,|<\rho\} \neq \emptyset.
\end{equation*}

Si se cumple que $z_0\in S$, pero $z_0$ no es punto de acumulación de $S$, entonces diremos que $z_0$ es un punto aislado de $S$. En este caso se tiene que existe algún $\varepsilon>0$ tal que:
\begin{equation*}
B(z_0,\varepsilon) \cap S = \{z_0\}.
\end{equation*}

Al conjunto de puntos de acumulación lo denotaremos como $S’$ y lo llamaremos el conjunto derivado de $S$.

Definición 7.8. (Punto de adherencia.)
Sea $S\subset \mathbb{C}$ y sea $z_0\in\mathbb{C}$. Diremos que $z_0$ es un punto de adherencia de $S$ si para todo $\rho>0$ se tiene:
\begin{equation*}
B(z_0,\rho) \cap S \neq \emptyset.
\end{equation*}

Al conjunto de puntos de adherencia lo llamaremos la cerradura o la clausura de $S$ y lo denotaremos como $\overline{S}$.

De acuerdo con la definición de $\overline{S}$, tenemos que $S \subset \overline{S}$. Además, dado un espacio métrico $(X,d)$ y $S\subset X$, entonces se cumple que $\overline{S}$ es un conjunto cerrado y es el menor subconjunto cerrado de $X$ que contiene a $S$.

De hecho, dado un espacio métrico $(X,d_X)$ y $S\subset X$, se tiene que $S$ es cerrado en $X$ si y solo si $S = \overline{S}$.

Proposición 7.2.
Consideremos al espacio métrico $(\mathbb{C}, d)$, con $d$ la métrica euclidiana. Un conjunto $S\subset\mathbb{C}$ es cerrado en $\mathbb{C}$ si y sólo si $S$ contiene a todos sus puntos de acumulación.

Demostración.
$\Rightarrow)$
Supongamos que $S$ es cerrado en $\mathbb{C}$. Sea $z_0 \in \mathbb{C}$ un punto de acumulación de $S$. Por reducción al absurdo supongamos que $z_0 \in \mathbb{C}\setminus S$. Notemos que por definición $\mathbb{C}\setminus S$ es un conjunto abierto, por lo que para algún $\rho>0$ se tiene que $B(z_0, \rho) \subset \mathbb{C}\setminus S$, es decir que al disco abierto $B(z_0,\rho)$ no pertenece ningún punto de $S$, lo cual contradice el hecho de que $z_0$ es un punto de acumulación de $S$. Por lo tanto $z_0\in S$.

$(\Leftarrow$
Supongamos que a $S$ pertenecen todos sus puntos de acumulación. Entonces para algún $z_0 \in \mathbb{C} \setminus S$ se cumple que $z_0$ no es punto de acumulación de $S$, por lo que existe $\rho>0$ tal que $B(z_0, \rho)$ no tiene puntos de $S$, por lo que $B(z_0, \rho) \subset \mathbb{C}\setminus S$, por tanto $\mathbb{C}\setminus S$ es abierto, de donde se sigue que $S$ es cerrado.

$\blacksquare$

Ejemplo 7.3.
Veamos que no necesariamente todo punto de un conjunto cerrado debe ser un punto de acumulación del mismo. Consideremos al conjunto:
\begin{equation*}
S = \left\{z\in\mathbb{C}\, : \, z = \frac{1}{n}, \,\, n\in\mathbb{N}^+ \right\} \cup \left\{0\right\}.
\end{equation*}

Es claro que $S\subset\mathbb{C}$. Notemos que el único punto de acumulación de $S$ es $z=0$. Desde que dicho punto pertenece a $S$, por la proposición 7.2 es claro que $S$ es cerrado. Por otra parte no es díficil convencerse de que salvo $z=0$, el resto de los puntos de $S$ son puntos aislados, ya que basta con tomar $\rho = \frac{1}{n} – \frac{1}{n+1} > 0$ para que se cumpla que:
\begin{equation*}
B\left(\frac{1}{n}, \rho\right) \cap S = \left\{\frac{1}{n}\right\}.
\end{equation*}

Definición 7.9. (Conjunto acotado.)
Un conjunto $S \subset \mathbb{C}$ se dice que es acotado si existe un número real $R>0$ tal que $|\,z\,| < R$ para todo $z\in S$.

Esta definición nos dice que $S$ es acotado si puede ser completamente encerrado por un $R$-vecindario del origen.

Ejemplo 7.4.
Sea $X = \left\{z\in\mathbb{C} \, : \, 0<|\,z\,|<1\right\} \cup \{2\}$, figura 44. Entonces:

  • a) Los puntos interiores de $X$ son el conjunto $\operatorname{int} X = \{z\in\mathbb{C} \, : \, 0<|\,z\,|<1\}$.
  • b) Los puntos exteriores de $X$ son el conjunto $\operatorname{ext} X = \{z\in\mathbb{C} \, : \, 1 < |\,z\,|\} \cap \{z\in\mathbb{C} \, : \, z \neq 2\}$.
  • c) La frontera de $X$ es el conjunto $\partial X = \{0, 2\} \cup \{z\in\mathbb{C} \,: \, |\,z\,|=1\}$.
  • d) Los puntos de acumulación de $X$ son el conjunto $X’ = \{z\in\mathbb{C} \, : \, |\,z\,|\leq 1\}$.
  • e) El punto $z=2$ es un punto aislado de $X$.
  • f) Tomando $R=3>0$ es claro que el conjunto $X$ es acotado ya que $|\,z\,|< R$ para todo $z\in X$.
Figura 44: Puntos del conjunto $X$ del ejemplo 7.2.

De acuerdo con nuestros cursos de Cálculo (y Análisis Matemático) sabemos que en un espacio métrico, en este caso en $(\mathbb{C},d)$, se cumple que:

Proposición 7.3.
Sea $(X,d_X)$ un espacio métrico. Sean $z_0 \in X$ y $S\subset X$, entonces:

  1. Los conjuntos $X$ y $\emptyset$ son abiertos en $X$.
  2. Para todo $\rho>0$, la $\rho$-vecindad de $z_0$, es decir el conjunto:
    \begin{equation*}
    B(z_0,\rho) = \{ z\in X \,: \, d_X(z,z_0) < \rho\},
    \end{equation*} es un conjunto abierto en $X$.
  3. Para todo $\rho>0$, el disco cerrado, es decir el conjunto:
    \begin{equation*}
    \overline{B}(z_0,\rho) = \{ z\in X \,: \, d_X(z,z_0) \leq \rho\},
    \end{equation*} es un conjunto cerrado en $X$.
  4. $S’ \subset \overline{S}$.
  5. $\overline{S} = S \cup S’$.
  6. $\overline{S} = \operatorname{int}S \cup \partial S$.
  7. $X = \operatorname{int}S \cup \operatorname{ext}S \cup \partial S$.
  8. Si $A \subset B$, entonces:
    a) $\overline{A} \subset \overline{B}$.
    b) $\operatorname{int}A \subset \operatorname{int}B$.
  9. La unión de un número arbitrario de conjuntos abiertos en $X$ es también un conjunto abierto en $X$.
  10. La intersección de un número finito de conjuntos abiertos en $X$ es un conjunto abierto en $X$.
  11. La intersección de un número arbitrario de conjuntos cerrados en $X$ es también un conjunto cerrado en $X$.
  12. La unión de un número finito de conjuntos cerrados en $X$ es un conjunto cerrado en $X$.

Demostración.

  1. Ejercicio.
  2. Dadas las hipótesis, sea $\rho>0$. Tomemos $z\in B(z_0,\rho)$ y sea $\varepsilon = \rho – d_X(z_0, z) > 0 $. Considerando la desigualdad del triángulo tenemos que para todo $w \in B(z,\varepsilon)$ se cumple que:
    \begin{equation*}
    d_X(w, z_0) \leq d_X(w, z) + d_X(z, z_0) < \varepsilon + d_X(z, z_0) = \rho,
    \end{equation*} por lo que $B(z,\varepsilon) \subset B(z_0, \rho)$ para todo $z\in B(z_0,\rho)$.
Figura 45: Todo disco abierto $B(z_0,\rho)$ es un conjunto abierto en $X$.
  1. Dadas las hipótesis, sea $\rho>0$. Tomemos $z\in \overline{\overline{B}(z_0,\rho)}$, entonces para todo $\varepsilon > 0$ existe:
    \begin{equation*}
    z_\varepsilon \in B(z,\varepsilon)\cap \overline{B}(z_0,\rho).
    \end{equation*} De acuerdo con la desigualdad del triángulo, para todo $\varepsilon > 0$ se cumple que:
    \begin{equation*}
    d_X(z, z_0) \leq d_X(z, z_\varepsilon) + d_X(z_\varepsilon, z_0) < \varepsilon + \rho,
    \end{equation*} de donde se sigue que $d(z, z_0) < \rho$, por lo que $\overline{\overline{B}(z_0,\rho)}\subset \overline{B}(z_0,\rho)$. Entonces
    \begin{equation*}
    \overline{B}(z_0,\rho) = \overline{\overline{B}(z_0,\rho)},
    \end{equation*} por lo tanto, todo disco cerrado es un conjunto cerrado en $X$.
  2. Ejercicio.
  3. Ejercicio.
  4. Ejercicio.
  5. Ejercicio.
  6. Ejercicio.
  7. Sea $\{ G_j : j\in J\}$, con $J$ un conjunto de índices, una colección de conjuntos abiertos en $X$. Tomemos a $z\in G = \bigcup\limits_{j\in J} G_j$, entonces $z \in G_j$, para algún $j\in J$, así por la definición 7.4 tenemos que existe $\rho>0$ tal que $B(z,\rho) \subset G_j \subset G$, por lo que $G$ es abierto.
  8. Sean $G_1, G_2, \ldots , G_n$ subconjuntos abiertos de $X$ y sea $z \in G = \bigcap\limits_{k=1}^{n} G_k$. Tenemos que $z\in G_k$ para $k=1,2, \ldots, n$, por lo que por la definición 7.4 se tiene que para cada $k$ existe $\rho_k > 0$ tal que $B(z,\rho_k) \subset G_k$. Si tomamos a $\rho = \operatorname{min}{\rho_k : 1 \leq k \leq n}$, entonces para cada $k$, con $1 \leq k \leq n$, se cumple que $B(z,\rho) \subset B(z,\rho_k) \subset G_k$. Entonces $B(z,\rho) \subset G$, por lo que $G$ es abierto.
  9. Ejercicio.
  10. Ejercicio.

$\blacksquare$

Es posible encontrar la prueba de estas propiedades en algún libro de topología o de topología de espacios métricos, como Topología de espacios métricos de Ignacio L. Iribarren.

Definición 7.10. (Conjunto denso.)
Sea $(X,d_X)$ un espacio métrico. Diremos que un conjunto $A\subset X$ es denso en $X$ si $\overline{A} = X$.

Ejemplo 7.5.

  • a) El conjunto de los números racionales $\mathbb{Q}$ es denso en $\mathbb{R}$ con la métrica usual de $\mathbb{R}$, $d(x,y) = |\,x-y\,|$.
  • b) El conjunto ${x+iy : x,y\in\mathbb{Q}}$ es denso en $\mathbb{C}$ con la métrica euclidiana.

Tarea moral

  1. Prueba que las siguientes funciones $d_i: \mathbb{C}\times\mathbb{C} \to [0,\infty)$, con $i=1,2$, dadas por:
    \begin{equation*}
    d_1(x+iy, a+ib) = |\,x-a\,| + |\,y-b\,|,
    \end{equation*} \begin{equation*}
    d_2(x+iy, a+ib) = \text{máx}\left\{|\,x-a\,|,|\,y-b\,|\right\},
    \end{equation*} son también una métrica en $\mathbb{C}$.
  2. Considera la observación 7.2 y argumenta porqué esos conjuntos se pueden definir respectivamente como:
    \begin{equation*}
    B^*(z_0,\rho) = \{z\in\mathbb{C}\,:\, 0<|\,z-z_0\,|<\rho\},
    \end{equation*} \begin{equation*}
    \overline{B^*}(z_0,\rho) = \{z\in\mathbb{C}\,:\, 0<|\,z-z_0\,|\leq\rho\}.
    \end{equation*} ¿Cómo son esos conjuntos en $\mathbb{C}$? ¿Cerrados, abiertos o ninguno de los dos? Describe al conjunto de puntos interiores, exteriores, frontera, de acumulación y de adherencia. ¿Son acotados esos conjuntos?
  3. Argumenta porqué los conjuntos $\emptyset$ y $\mathbb{C}$ son abiertos y cerrados en $\mathbb{C}$, ejemplo 7.2(c).
  4. Completa la demostración de las proposiciones 7.1 y 7.3.
  5. Hasta ahora sabemos que $\mathbb{R}\subset\mathbb{C}$. Por otra parte, de nuestros cursos de cálculo sabemos que un intervalo abierto en $\mathbb{R}$, es decir el conjunto:
    \begin{equation*}
    (a,b) = \{ x\in\mathbb{R} \,:\, a<x<b\},
    \end{equation*} es un conjunto abierto en $\mathbb{R}$. Prueba que dicho conjunto no es abierto en $\mathbb{C}$.
  6. Utilizando la definición describe cómo son los siguientes conjuntos de $\mathbb{C}$, es decir ¿son abiertos o cerrados o ninguna de las dos en $\mathbb{C}$? ¿Son acotados?
    a) Sean $a,b\in\mathbb{R}$ con $a<b$, definimos:\begin{align*}
    A = \{z\in\mathbb{C}\, :\, a< \operatorname{Re}(z)<b\},\\
    B = \{z\in\mathbb{C}\, :\, a< \operatorname{Im}(z)<b\}.
    \end{align*} b) $X = \{z\in\mathbb{C} \,:\ \, \operatorname{Re}(z)<0\} \cup \{0\}$.
    c) $Y = \{z\in\mathbb{C} \,:\ \, 0\leq\operatorname{Im}(z)\}$.
  1. Considera a los siguientes conjuntos:
    a) $S_1 = B(0,1)$.
    b) $S_2 = \overline{B}\left(-1-i\sqrt{2},\frac{7}{8}\right)$.
    c) $S_3 = \overline{B}\left(2+i\sqrt{3},\frac{1}{2}\right)$.
    De acuerdo con la proposición 7.2 tenemos que $S_1$ es un conjunto abierto en $\mathbb{C}$, mientras que $S_2$ y $S_3$ son conjuntos cerrados en $\mathbb{C}$. Describe los puntos interiores, exteriores y frontera de cada uno de los tres conjuntos.
  1. Considera al siguiente conjunto:
    \begin{equation*}
    S = \left\{ z\in\mathbb{C} \,:\, |\,\operatorname{Im}(z)\,| < |\,\operatorname{Re}(z)\,| \right\},
    \end{equation*} el cual está representado en la figura 46. Prueba que:
    a) $S$ es un conjunto abierto en $\mathbb{C}$.
    b) $\partial S = \{ z\in\mathbb{C} \,:\, |\,\operatorname{Re}(z)\,| = |\,\operatorname{Im}(z)\,|\}$.
    c) Los puntos de acumulación de $S$ son precisamente la clausura de $S$, es decir $\overline{S}$.
    d) $S$ no es cerrado en $\mathbb{C}$.
    e) $S$ no es acotado en $\mathbb{C}$.
Figura 46: Conjunto $S$, ejercicio 8.

Más adelante…

En esta entrada hemos hecho una breve descripción de la topología de los espacios métricos, en particular analizamos la topología del plano complejo $\mathbb{C}$. Esta caracterización de $\mathbb{C}$ como un espacio métrico nos será de gran utilidad en las siguientes entradas para poder continuar el estudio del campo de los números complejos.

En esta entrada hemos visto que existe una estrecha relación entre la topología de $\mathbb{C}$ y $\mathbb{R}^2$, lo cual no debe sorprendernos ya que como espacios vectoriales dichos conjuntos son isomorfos, ver ejercicio 6 de la entrada 2. Más adelante veremos que como espacios métricos son homeomorfos, por lo que muchas propiedades que conocemos para $\mathbb{R}^2$ nos permitirán caracterizar a los números complejos. Por otra parte es fácil convencerse que la topología de $\mathbb{C}$ induce en $\mathbb{R}$ su topología usual considerando la distancia definida mediante el valor absoluto.

La siguiente entrada abordaremos las sucesiones en $\mathbb{C}$ y discutiremos la completez del espacio métrico $(\mathbb{C}, d)$, con $d$ la métrica euclidiana.

Entradas relacionadas

Teoría de los Conjuntos I: Álgebra de conjuntos

Por Gabriela Hernández Aguilar

Introducción

En esta nueva entrada abordaremos a las operaciones entre conjuntos desde una perspectiva diferente: el álgebra. Veremos que existe otra forma de probar la igualdad entre conjuntos sin necesidad de usar la demostración por doble contención.

Algunos recordatorios

En el álgebra de conjuntos lo que se hace es primero probar algunas propiedades fundamentales de las operaciones de conjuntos, y usar estas propiedades repetidamente para demostrar otras, aprovechando que la igualdad de conjuntos es transitiva. Es por ello que nos conviene recopilar varias propiedades de las operaciones que tenemos hasta ahora.

Sean $A$, $B$, $C$ y $X$ conjuntos tales que $A, B,C\subseteq X$. Entonces:

  1. $A\cup \emptyset=A$,
  2. $A\cup A=A$,
  3. $A\cup B=B\cup A$,
  4. $(A\cup B)\cup C = A \cup (B\cup C)$,
  5. $A\cap \emptyset =\emptyset$,
  6. $A\cap A=A$,
  7. $A\cap B = B\cap A$,
  8. $(A\cap B)\cap C =A \cap (B\cap C)$,
  9. $A\cap (B\cup C)= (A\cap B)\cup (A\cap C)$,
  10. $A\cup (B\cap C)=(A\cup B)\cap (A\cup C)$,
  11. $A\setminus \emptyset=A$,
  12. $A\setminus A=\emptyset$,
  13. $A\setminus B= A\cap (X\setminus B)$,
  14. $A\cap (X\setminus A)=\emptyset$,
  15. $A\cup (X\setminus A)=X$,
  16. $X\setminus (A\cap B)= (X\setminus A)\cup (X\setminus B)$,
  17. $X\setminus (A\cup B)= (X\setminus A)\cap (X\setminus B)$,
  18. $X\setminus (X\setminus A)= A$,
  19. Si $A\subseteq B$, entonces $A\cap B=A$.

Hay otras propiedades que ya hemos demostrado, pero no las pusimos aquí. Podríamos ponerlas para ir recopilando más cosas que sabemos que son válidas.

Demostraciones con álgebra de conjuntos

Ahora veremos algunos ejemplos de cómo se trabaja con álgebra de conjuntos. En varias de las siguientes proposiciones enunciamos resultados para cuando $A$ y $B$ son subconjuntos de un conjunto en común $X$. Toma en cuenta que para $A$ y $B$ arbitrarios, siempre podemos tomar $X=A\cup B$.

Proposición. Sean $A, B\subseteq X$ conjuntos. Prueba que $A\setminus B= A\setminus (A\cap B)$.

Demostración.

\begin{align*}
A\setminus (A\cap B)&= A\cap (X\setminus (A\cap B)) \tag{usando 13}\\
&=A\cap((X\setminus A)\cup(X\setminus B)) \tag{usando 16} \\
&=(A\cap (X\setminus A))\cup (A\cap (X\setminus B)) \tag{usando 9} \\
&=\emptyset\cup (A\cap (X\setminus B)) \tag{usando 14} \\
&=A\cap (X\setminus B) \tag{usando 1 y 3} \\
&=A\setminus B \tag{usando 13}.
\end{align*}

$\square$

Proposición. Sean $A$, $B\subseteq X$ son conjuntos, entonces $A\setminus B= (A\cup B)\setminus B$.

Demostración.

\begin{align*}
(A\cup B)\setminus B &= (A\cup B)\cap (X\setminus B) \tag{usando 13}\\
&= (A\cap (X\setminus B))\cup (B\cap (X\setminus B)) \tag{usando 9}\\
&= (A\cap (X\setminus B))\cup \emptyset \tag{usando 14}\\
&=A\cap (X\setminus B) \tag{usando 1}\\
&=A\setminus B \tag{usando 13}.
\end{align*}

$\square$

Proposición. Para $A$, $B$, $X$ conjuntos tales que $A, B\subseteq X$, $(A\cap B)\cup (A\setminus B)= A$.

Demostración.

\begin{align*}
(A\cap B)\cup (A\setminus B)&= (A\cap B)\cup (A\cap (X\setminus B)) \tag{usando 13}\\
&=A\cap (B\cup (X\setminus B)) \tag{usando 9}\\
&=A\cap X \tag{usando 15}\\
&=A \tag{usando 14}.
\end{align*}

$\square$

Proposición. $A\cap (B\setminus C)=(A\cap B)\setminus C$.

Demostración.

\begin{align*}
(A\cap B)\setminus C &=(A\cap B)\cap (X\setminus C) \tag{usando 13}\\
&=A\cap (B\cap X\setminus C) \tag{usando 8}\\
&= A\cap (B\setminus C) \tag{usando 13}.
\end{align*}

$\square$

Proposición. $(A\cap B)\setminus C=(A\setminus C)\cap (B\setminus C)$.

Demostración.

\begin{align*}
(A\cap B)\setminus C&= (A\cap B)\cap (X\setminus C) \tag{usando 13}\\
&=(A\cap X\setminus C)\cap (B\cap X\setminus C) \tag{usando 6 ,7 y 8}\\
&= (A\setminus C)\cap (B\setminus C) \tag{usando 13}.
\end{align*}

$\square$

Proposición. $(A\cup B)\setminus C=(A\setminus C)\cup (B\setminus C)$.

Demostración.

\begin{align*}
(A\cup B)\setminus C&= (A\cup B)\cap (X\setminus C) \tag{usando 13}\\
&=(A\cap X\setminus C)\cup (B\cap X\setminus C) \tag{usando 9}\\
&= (A\setminus C)\cup (B\setminus C) \tag{usando 13}.
\end{align*}

$\square$

Proposición. $(A\setminus B)\setminus C=(A\setminus C)\setminus (B\setminus C)$.

Demostración.

\begin{align*}
(A\setminus C)\setminus (B\setminus C)&= (A\setminus C)\cap (X\setminus (B\setminus C)) \tag{usando 13}\\
&=(A\setminus C)\cap (X\setminus (B\cap (X\setminus C)) \tag{usando 13}\\
&=(A\setminus C)\cap ((X\setminus B)\cup (X\setminus (X\setminus C))) \tag{usando 16}\\
&=(A\setminus C)\cap ((X\setminus B)\cup C) \tag{usando 18}\\
&=(A\setminus C\cap (X\setminus B))\cup ((A\setminus C)\cap C) \tag{usando 9}\\
&=((A\cap(X\setminus C))\cap (X\setminus B))\cup ((A\cap(X\setminus C))\cap C) \tag{usando 13}\\
&=((A\cap(X\setminus B))\cap (X\setminus C))\cup (A\cap((X\setminus C)\cap C)) \tag{usando 8}\\
&=((A\cap(X\setminus B))\cap (X\setminus C))\cup (A\cap\emptyset) \tag{usando 14}\\
&=((A\setminus B)\setminus C)\cup \emptyset \tag{usando 13 y 5}\\
&=(A\setminus B)\setminus C \tag{usando 1}.
\end{align*}

$\square$

Proposición. Sean $A$, $B$, $C$ subconjuntos de $X$. Tenemos que $A\setminus (B\setminus C)=(A\setminus B)\cup (A\cap C)$.

Demostración.

\begin{align*}
A\setminus (B\setminus C)&= A\cap (X\setminus (B\setminus C)) \tag{usando 13}\\
&=A\cap (X\setminus (B\cap (X\setminus C))) \tag{usando 13}\\
&=A\cap((X\setminus B)\cup (X\setminus(X\setminus C))) \tag{usando 16}\\
&=A\cap((X\setminus B)\cup C) \tag{usando 18}\\
&=(A\cap (X\setminus B))\cup (A\cap C) \tag{usando 9}\\
&=(A\setminus B)\cup (A\cap C) \tag{usando 13}.
\end{align*}

$\square$

Tras realizar estas demostraciones es importante notar que muchas veces hacer el uso del álgebra nos ayuda a ahorrar tiempo. Sin embargo, para poder lograr esto es necesario utilizar muchas de las propiedades que sí hemos demostrado previamente por doble contención.

Tarea moral

Realiza las siguientes demostraciones haciendo uso del álgebra de conjuntos:

  • Prueba que para $A, B, C, X$ conjuntos tales que $A, B, C\subseteq X$ se cumple que: $(A\setminus B)\setminus (A\setminus C)= (A\cap C)\setminus B$.
  • Prueba que $(A\setminus B)\setminus (A\setminus C)=A\cap (C\setminus B)$.
  • Si $A, B\subseteq X$, entonces $(X\setminus A)\setminus (X\setminus B)=B\setminus A$.
  • Sean $A$ y $B$ conjuntos. Entonces $A\setminus (B\cap C)=(A\setminus B)\cap (A\setminus C)$.

Más adelante…

En la siguiente entrada definiremos una nueva operación entre conjuntos: la diferencia simétrica. Retomaremos los resultados que hemos visto hasta ahora y seguiremos haciendo uso del álgebra de conjuntos para demostrar algunas propiedades de esta nueva operación.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Probabilidad I: Varianza de una Variable Aleatoria

Por Octavio Daniel Ríos García

Introducción

En esta entrada veremos un concepto que se relaciona cercanamente con el valor esperado: la varianza. Así como el valor esperado, la varianza será una cantidad numérica que tiene la intención de resumir numéricamente otro aspecto del comportamiento probabilístico de una variable aleatoria. En este caso, lo que intentaremos resumir será la variabilidad respecto al valor esperado. Es decir, en promedio, ¿qué tanto se aleja una variable aleatoria del «centro» de su distribución?

Además, con las herramientas que tenemos hasta ahora, podemos desarrollar algunas propiedades de la varianza, que no serán difíciles de demostrar utilizando las herramientas de las últimas entradas sobre valor esperado.

Motivación y definición

Dada una v.a. \(X\colon\Omega\to\RR\), vimos que el valor esperado de \(X\), \(\Esp{X}\), es el valor promedio (a la larga) de \(X\). Es decir, que si observamos muchas veces a \(X\), el promedio de esas observaciones debe de acercarse a \(\Esp{X}\). Además, gracias a la ley del estadístico inconsciente, podemos calcular \(\Esp{g(X)}\), que es el valor promedio de \(g(X)\).

La varianza de una v.a. \(X\) se define como el valor esperado de una transformación particular de \(X\), y lo que busca cuantificar la dispersión promedio que tiene \(X\) con respecto a su valor esperado. Por ello, se propone la transformación \(v\colon\RR\to\RR\) dada por

\begin{align*} v(x) &= {\left(x − \Esp{X}\right)}^{2} & \text{para cada \(x\in\RR\).} \end{align*}

Así, observa que \(v(X) = {\left(X − \Esp{X}\right)}^{2}\) es una v.a. cuyo valor tiene un significado especial: \(v(X)\) es la distancia entre \(X\) y su valor esperado, elevada al cuadrado. Por ello, \(\Esp{v(X)}\) es la distancia cuadrada promedio entre \(X\) y su valor esperado. Esta discusión da lugar a la definición de varianza.


Definición. Sea \(X\) una variable aleatoria. La varianza de \(X\), denotada con \( \mathrm{Var}(X) \), se define como sigue:

\begin{align*} \mathrm{Var}(X) &= \Esp{{\left(X − \Esp{X} \right)}^{2}},\end{align*}

siempre que \({\left(X − \Esp{X} \right)}^{2}\) sea una v.a. con valor esperado finito. En tal caso, se dice que \(X\) tiene varianza finita.


Definiciones para el caso discreto y el caso continuo

Debido a la distinción entre valores esperados de v.a.’s discretas y continuas, la varianza tiene dos formas de calcularse directamente. Sin embargo, veremos más adelante en esta entrada que no es necesario hacer el cálculo directo, y puede hacerse mediante una expresión más sencilla.


Varianza (Caso discreto). Si \(X\) es una v.a. discreta, entonces la varianza de \(X\) tiene la siguiente expresión:

\begin{align*} \mathrm{Var}(X) &= \sum_{x\in X[\Omega]} (x − \Esp{X})^{2} \Prob{X = x}, \end{align*}

siempre que esta serie sea absolutamente convergente.


Varianza (Caso continuo). Si \(X\) es una v.a. continua con función de densidad \(f_{X}\), entonces la varianza de \(X\) puede escribirse de la siguiente manera:

\begin{align*} \mathrm{Var}(X) &= \int_{-\infty}^{\infty} (x − \Esp{X})^{2} f_{X}(x) \, \mathrm{d}x.\end{align*}


Es importante observar que, independientemente del caso en el que nos encontremos, para calcular la varianza de \(X\) es necesario conocer el valor esperado de \(X\).

Terminología y notación usual

Existe cierta notación especial para la varianza que encontrarás en la literatura referente a probabilidad y estadística. Si \(X\) es una v.a., entonces suele denotarse a la varianza de \(X\) con \(\sigma^{2}\), o con \(\sigma_{X}^{2}\), en caso de que sea necesario saber qué v.a. es la varianza. Además, a la raíz cuadrada (positiva) de la varianza (que bajo esta notación sería \(\sigma\) o \(\sigma_{X}\)) se le conoce como desviación estándar. En resumen, si \(X\) es una v.a., entonces podrías encontrarte con fuentes que adoptan la siguiente notación:

  • \(\sigma_{X}^{2} := \mathrm{Var}(X)\) para denotar a la varianza.
  • \(\sigma_{X} := \sqrt{\mathrm{Var}(X)}\) para denotar a la desviación estándar.

Nostros no adoptaremos esta notación en general, pero hay una distribución de probabilidad en particular en la que sí la utilizaremos.

Propiedades de la varianza

Debido a que la varianza se define como un valor esperado, tiene algunas propiedades que son consecuencia de lo que hemos estudiado en las últimas entradas.

La primera propiedad es muy elemental, y establece que la varianza de cualquier v.a. es no-negativa.


Propiedad 1. Sea \(X\) una variable aleatoria. Entonces se cumple que

\begin{align*} \mathrm{Var}(X) \geq 0. \end{align*}


Demostración. Te la dejamos como tarea moral.

$\square$

Por su parte, la siguiente propiedad establece que la varianza de una constante debe de ser \(0\).


Propiedad 2. Sea \(c\in\RR\) y \(f_{c}\) la v.a. constante igual a \(c\). Entonces se cumple que

\begin{align*} \mathrm{Var}(f_{c}) &= 0. \end{align*}

Si abusamos un poco de la notación, lo anterior quiere decir que si \(c\in\RR\) es un valor constante, entonces \( \mathrm{Var}(c) = 0\).


Demostración. Sea \(v\colon\RR\to\RR\) la transformación que define a la varianza (en este caso, para cada \(x\in\RR\), \(v(x) = x − \Esp{f_{c}}\)). Como \(\Esp{f_{c}} = c\), entonces se tiene que \(v(x) = x − c\). Así, \(v(f_{c})\) es la v.a. dada por

\begin{align*} v(f_{c}(\omega)) &= f_{c}(\omega) − c & \text{para cada \(\omega\in\Omega\).} \end{align*}

Además, como \(f_{c}(\omega) = c\) para cualquier \(\omega\in\Omega\), entonces se tiene que \(v(f_{c})\) es la v.a. constante igual a \(0\). En consecuencia,

\begin{align*} \mathrm{Var}(f_{c}) &= \Esp{v(f_{c})} = \Esp{0} = 0, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

La propiedad 2 tiene sentido, pues la dispersión promedio de una v.a. que puede tomar un único valor debe de ser \(0\).

La propiedad siguiente nos dice que la varianza es invariante ante traslaciones.


Propiedad 3. Sean \(X\) una variable aleatoria y \(c \in \RR\). Entonces

\begin{align*} \mathrm{Var}(X + c) &= \mathrm{Var}(X) . \end{align*}


Demostración. Podemos obtener este resultado directamente desarrollando la expresión de la varianza de \(X + c\), recordando que \(\Esp{X + c} = \Esp{X} + c\):

\begin{align*} \mathrm{Var}(X + c) &= \Esp{(X + c − \Esp{X + c})^{2}} \\[1em] &= \Esp{(X + c − (\Esp{X} + c))^{2}} \\[1em] &= \Esp{(X + c − \Esp{X} − c))^{2}} \\[1em] &= \Esp{(X − \Esp{X})^{2}} \\[1em] &= \mathrm{Var}(X) ,\end{align*}

que es precisamente lo que queríamos demostrar.

\(\square\)

La propiedad 3 quiere decir que si trasladamos una v.a. sumándole una constante, su dispersión promedio no se ve afectada, pues el comportamiento probabilístico sigue siendo el mismo, lo único que se cambia es el «centro» de la distribución. Es decir, la v.a. trasladada tiene el mismo comportamiento, pero centrado alrededor de un valor distinto, por lo que su variabilidad con respecto a ese nuevo centro será la misma.

La propiedad que sigue establece que la varianza saca constantes multiplicando al cuadrado.


Propiedad 4. Sean \(X\) una variable aleatoria y \(c\in\RR\). Entonces

\begin{align*} \mathrm{Var}(cX) &= c^{2} \mathrm{Var}(X). \end{align*}


Demostración. Al igual que la propiedad 1, te dejamos esta como tarea moral.

\(\square\)

La siguiente propiedad establece una expresión más sencilla para el cálculo de la varianza de una v.a. \(X\).


Propiedad 5. Sea \(X\) una variable aleatoria con varianza finita. Entonces se cumple que

\begin{align*} \mathrm{Var}(X) &= \Esp{X^{2}} − {\left(\Esp{X}\right)}^{2}.\end{align*}


Demostración. Podemos hacer el siguiente desarrollo de la expresión que vimos en la definición de la varianza.

\begin{align*} \mathrm{Var}(X) &= \Esp{{\left(X − \Esp{X}\right)}^{2}} \\[0.5em] &= \Esp{X^{2} − 2 X \Esp{X} + {\left(\Esp{X}\right)}^{2}} \\[0.5em] &= \Esp{X^{2}} + \Esp{−2 X \Esp{X}} + \Esp{\left(\Esp{X}\right)^{2}} \tag{\(*\)} \\[0.5em] &= \Esp{X^{2}} − 2\Esp{X}\Esp{X} + {\left(\Esp{X}\right)}^{2} \tag{\(**\)} \\[0.5em] &= \Esp{X^{2}} − 2{\left(\Esp{X}\right)}^{2} + {\left(\Esp{X}\right)}^{2} \\[0.5em] &= \Esp{X^{2}} − {\left(\Esp{X}\right)}^{2}.\end{align*}

Observa que al pasar de \((*)\) a \((**)\) usamos que \(−2\Esp{X} \in \RR\) es constante, por lo que «sale multiplicando».

$\square$

La propiedad 5 nos otorga una manera alternativa de calcular la varianza de una v.a. que nos será muy útil más adelante, en especial cuando hayamos visto el tema de la entrada siguiente.

¿La varianza «abre» la suma? ¡No siempre!

Como una última «propiedad», vamos a demostrar que, en general, la varianza no es lineal respecto a la suma. Esto es, en general se tiene que

\begin{align*} \mathrm{Var}(X + Y) &\neq \mathrm{Var}(X) + \mathrm{Var}(Y) . \end{align*}

Para confirmarlo, veamos la siguiente proposición.


Proposición 1. Sean \(X\), \(Y\) variables aleatorias. Entonces se tiene que

\begin{align*} \mathrm{Var}({X + Y}) &= \mathrm{Var}({X}) + \mathrm{Var}({Y}) + 2\Esp{(X − \Esp{X})(Y − \Esp{Y})}.\end{align*}


Demostración. Podemos desarrollar la varianza de \(X + Y\) directamente para obtener el resultado:

\begin{align*} \mathrm{Var}(X + Y) &= \Esp{(X + Y − \Esp{X + Y})^{2}} \\[1em] &= \Esp{(X + Y − (\Esp{X} + \Esp{Y}))^{2}} \\[1em] &= \Esp{(X + Y − \Esp{X} − \Esp{Y})^{2}} \\[1em] &= \Esp{((X − \Esp{X}) + (Y − \Esp{Y}))^{2}} \\[1em] &= \Esp{(X − \Esp{X})^{2} − 2(X − \Esp{X})(Y − \Esp{Y}) + (Y − \Esp{Y})^{2}} \\[1em] &= \Esp{(X − \Esp{X})^{2}} + 2\Esp{(X − \Esp{X})(Y − \Esp{Y})} + \Esp{(Y − \Esp{Y})^{2}} \\[1em] &= \Esp{(X − \Esp{X})^{2}} + \Esp{(Y − \Esp{Y})^{2}} + 2\Esp{(X − \Esp{X})(Y − \Esp{Y})} \\[1em] &= \mathrm{Var}(X) + \mathrm{Var}(Y) + 2\Esp{(X − \Esp{X})(Y − \Esp{Y})}, \end{align*}

lo cual concluye la demostración.

\(\square\)

Con lo anterior, es evidente que no siempre \(\mathrm{Var}(X+Y) = \mathrm{Var}(X) + \mathrm{Var}(Y)\), pues hay muchas v.a.’s para las cuales el valor \(\Esp{(X − \Esp{X})(Y − \Esp{Y})}\) es distinto de \(0\). Sin embargo, un caso en el que sí se cumple que la varianza abre la suma es cuando \(X\) y \(Y\) son independientes. En tal caso, basta con demostrar que si \(X\) y \(Y\) son independientes, entonces

\begin{align*} \Esp{(X − \Esp{X})(Y − \Esp{Y})} &= 0. \end{align*}

De hecho, en el futuro verás que el valor \( \Esp{(X − \Esp{X})(Y − \Esp{Y})}\) es conocido como la covarianza entre \(X\) y \(Y\), que generalmente se denota con \(\mathrm{Cov}(X,Y)\), y busca cuantificar la relación que existe entre \(X\) y \(Y\). De este modo, el resultado de la Proposición 1 puede reescribirse como sigue:

\begin{align*} \mathrm{Var}({X + Y}) &= \mathrm{Var}({X}) + \mathrm{Var}({Y}) + 2\mathrm{Cov}(X,Y).\end{align*}

Compendio de propiedades de la varianza

Antes de terminar, incluimos una lista de las propiedades vistas (y demostradas) en esta entrada. Todas estarán disponibles para que las uses en tus tareas y exámenes, a menos que tu profesor o profesora indique lo contrario.


Propiedades de la Varianza. Sean \(X\) y \(Y\) variables aleatorias con varianza finita, y sea \(c\in\RR\). Entonces se cumplen las siguientes propiedades:

  1. La varianza es no-negativa: \begin{align*}\mathrm{Var}(X) \geq 0,\end{align*}
  2. La varianza de una constante es \(0\): \begin{align*}\mathrm{Var}(c) = 0,\end{align*}
  3. Es invariante ante traslaciones: \begin{align*}\mathrm{Var}(X+c) = \mathrm{Var}{X},\end{align*}
  4. Saca constantes multiplicando al cuadrado: \begin{align*}\mathrm{Var}(cX) = c^{2}\mathrm{Var}(X),\end{align*}
  5. Expresión alternativa para la varianza: \begin{align*}\mathrm{Var}(X) = \Esp{X^{2}} − {\left(\Esp{X}\right)}^{2},\end{align*}
  6. Varianza de la suma de dos v.a.’s:\begin{align*}\mathrm{Var}({X + Y}) &= \mathrm{Var}({X}) + \mathrm{Var}({Y}) + 2\Esp{(X − \Esp{X})(Y − \Esp{Y})}.\end{align*}

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra la Propiedad 1 de la varianza.
  2. Demuestra también la Propiedad 4 de la varianza.
  3. Usando la Proposición 1, demuestra que si \(X\) y \(Y\) son v.a.’s independientes, entonces\begin{align*} \mathrm{Var}({X + Y}) &= \mathrm{Var}({X}) + \mathrm{Var}({Y}). \end{align*}Sugerencia: En la entrada pasada vimos que cuando \(X\) y \(Y\) son independientes, \(\Esp{XY}\) se puede «abrir». Utilíza eso para ver que \(\Esp{(X − \Esp{X})(Y − \Esp{Y})} = 0\).

Más adelante…

Así como el valor esperado, la varianza es un concepto ubicuo en la probabilidad y la estadística. En conjunto, el valor esperado y la varianza son valores numéricos que resumen dos características del comportamiento de una variable aleatoria: la tendencia central y la variabilidad respecto a esa tendencia central. Por ello, incluso sin visualizar la densidad o masa de probabilidad de una v.a., estas cantidades pueden utilizarse para «darse una idea» de su aspecto y de su comportamiento.

En la entrada que sigue veremos un conjunto de valores asociados a la distribución de una variable aleatoria, conocidos como momentos.

Entradas relacionadas

Geometría Moderna I: Circunferencia de Brocard

Por Rubén Alexander Ocampo Arellano

Introducción

Con esta entrada concluimos la unidad tres y en general temas relacionados con el triángulo, hablaremos de la circunferencia de Brocard y el primer triángulo de Brocard, veremos como se relacionan con los puntos de Brocard.

Circunferencia de Brocard

Definición. La circunferencia $\Gamma(KO)$ que tiene como diámetro el segmento que une el punto simediano $K$ y el circuncentro $O$ de un triángulo se conoce como circunferencia de Brocard.

El triángulo cuyos vértices son las segundas intersecciones de las mediatrices de un triángulo con su circunferencia de Brocard es el primer triángulo de Brocard.

Observación. Recordemos que el centro de la primera circunferencia de Lemoine es el punto medio entre el punto simediano y el circuncentro de un triángulo, por lo tanto, la circunferencia de Brocard y la primera circunferencia de Lemoine son concéntricas.

Teorema 1. Los puntos de Brocard están en la circunferencia de Brocard.

Demostración. En $\triangle ABC$ sea $\Omega$ el primer punto de Brocard, $K$ el punto simediano, $O$ el circuncentro y $A’$, $B’$, $C’$, los puntos medios de $BC$, $CA$ y $AB$ respectivamente.

Recordemos que las distancias de $K$ a los lados del triángulo son proporciónales a estos,
$d(K, BC) = a \dfrac{2(\triangle ABC)}{a^2 + b^2 + c^2}$

Figura 1

En un ejercicio de la entrada anterior se pide mostrar que
$\dfrac{1}{\tan \omega} = \cot \omega = \dfrac{a^2 + b^2 + c^2}{4(\triangle ABC)}$.

Donde $\omega$ es el ángulo de Brocard y $a$, $b$, $c$ los lados de $\triangle ABC$.

Por lo tanto, $d(K, BC) = \dfrac{a}{2} \tan \omega$.

Sea $A_1 = OA’ \cap B\Omega$, en $\triangle A_1BA’$, $A’A_1 = \dfrac{a}{2} \tan \omega$.

Esto implica que $A_1K \parallel BC$, como $OA_1$ es mediatriz de $BC$ entonces $\angle OA_1K = \dfrac{\pi}{2}$, y por lo tanto $A_1 \in \Gamma (KO)$.

De manera similar si consideramos $B_1$ la intersección del rayo $C\Omega$ con la mediatriz de $CA$, podemos ver $B_1K \parallel CA$ y que $B_1 \in \Gamma(KO)$.

Como $A_1K \parallel BC$ y $B_1K \parallel CA$ entonces $\angle KA_1\Omega = \omega = \angle KB_1\Omega$.

En consecuencia, el cuadrilátero $\square \Omega A_1B_1K$ es cíclico, pero el circuncírculo de $\triangle A_1B_1K$, es la circunferencia de Brocard.

Por lo tanto, el primer punto de Brocard $\Omega$, está en la circunferencia de Brocard.

Sea $\Omega’$ el segundo punto de Brocard, como $A_1$ y $B_1$ están en las mediatrices de $BC$ y $CA$ entonces $\triangle A_1BC$ y $\triangle B_1CA$ son isósceles y $\angle A_1CB = \angle B_1AC = \angle \Omega’CB = \angle \Omega’AC = \omega$.

Esto implica que $CA_1$ y $AB_1$ se intersecan en $\Omega’$.

Ya que $A_1K \parallel BC$ y $B_1K \parallel CA$, entonces, $\angle \Omega’A_1K = \omega$ y $\angle KB_1\Omega’ = \pi – \omega$.

Esto implica que $\square A_1\Omega B_1K$ es cíclico, y así el segundo punto de Brocard está en la circunferencia de Brocard.

$\blacksquare$

Corolario 1. Un triángulo y su primer triángulo de Brocard están en perspectiva desde los puntos de Brocard.

Demostración. En el teorema anterior vimos que $BA_1$ y $CB_1$ se intersecan en el primer punto de Brocard, de manera similar se puede ver que $A$, $C_1$ y $\Omega$ son colineales.

También mostramos que $CA_1 \cap AB_1 = \Omega’$, de manera análoga podemos ver que $BC_1$ pasa por $\Omega’$.

Por lo tanto $\Omega$ y $\Omega’$ son centros de perspectiva de $\triangle ABC$ y $\triangle A_1B_1C_1$.

$\blacksquare$

Corolario 2. $\triangle ABC$ y su primer triángulo de Brocard son semejantes.

Demostración. Como $B_1K \parallel CA$, $A_1K \parallel BC$ y tomando en cuenta que $\square A_1C_1B_1K$ es cíclico entonces $\angle ACB = \pi – \angle A_1KB_1 = \angle B_1C_1A_1$.

De manera similar vemos que $\angle A = \angle A_1$ y $\angle B = \angle B_1$.

$\blacksquare$

Conjugado isotómico del punto simediano

En la entrada triángulos en perspectiva vimos que si dos triángulos tienen dos centros de perspectiva entonces existe un tercero, en la siguiente proposición describimos este punto.

Proposición 1. El tercer centro de perspectiva entre un triángulo y su triángulo de Brocard es el conjugado isotómico del punto simediano respecto del triángulo original.

Demostración. Bajo la misma notación del teorema anterior, Recordemos que la $A$-simediana y la $A$-exsimediana son conjugadas armónicas respecto de $AB$, $AC$.

También sabemos que $BK$ y la $A$-exsimediana se intersecan en un punto exsimediano, es decir el punto de intersección de las tangentes por $A$ y $C$ al circuncírculo de $\triangle ABC$.

Figura 2

Sea $S = BK \cap AC$, entonces la hilera $BKSE$ es armónica, así, el haz $B’(BKSE)$ es armónico.

Tomando en cuenta que $OB_1B’E$ es una recta.

En el teorema anterior vimos que $B_1K  \parallel AC$, entonces las otras tres rectas del haz bisecan a $B_1K$, es decir $BB’$ biseca a $B_1K$.

Sea $X = BB_1 \cap AC$, como $\triangle BB_1K$ y $\triangle BXS$ son semejantes entonces $B’$ es el punto medio entre $X$ y $S$.

Por lo tanto, $BK$, $BB_1$, son rectas isotómicas, es decir, unen puntos isotómicos con el vértice opuesto.

Igualmente vemos que $AK$, $AA_1$ y $CK$, $CC_1$ son rectas isotómicas, como las simedianas concurren en $K$, entonces, $AA_1$, $BB_1$, $CC_1$concurren en u punto $Y$.

$\blacksquare$

Centroide del triángulo de Brocard

Teorema 2. El centroide de un triángulo y el centroide de su primer triángulo de Brocard coinciden.

Demostración. Nuevamente emplearemos la notación del teorema 1.

Figura 3

$A_1$, $B_1$ y $C_1$ están en las mediatrices de $BC$, $CA$ y $AB$ entonces $\triangle A_1BC$, $\triangle B_1CA$, $\triangle C_1AB$ son isósceles, además son semejantes, pues $\angle A_1BC = \angle B_1CA = \angle C_1AB = \omega$, por lo tanto,

$\dfrac{AC_1}{AB_1} = \dfrac{AB}{CA}$ y $\dfrac{CA_1}{CB_1} = \dfrac{BC}{CA}$.

Sea $X$ la reflexión de $B_1$ respecto de $CA$, entonces
$\angle C_1AX = \angle C_1AC + \angle CAX $
$= \angle C_1AC + \angle B_1AC = \angle C_1AC + \omega $
$= \angle A$,

además $\dfrac{AC_1}{AX} = \dfrac{AC_1}{AB_1} =\dfrac{AB}{CA}$.

Por criterio de semejanza LAL, $\triangle ABC \sim \triangle AC_1X$, igualmente podemos ver que $\triangle ABC \sim \triangle XA_1C$.

Por lo tanto, $\triangle AC_1X \sim \triangle XA_1C$, pero $AX = AB_1 = B_1C = CX$, así que $\triangle AC_1X$ y $\triangle XA_1C$ son congruentes.

En consecuencia, $C_1X = A_1C = A_1B$ y $XA_1 = AC_1 = C_1B$, esto implica que $\square C_1BA_1X$ es un paralelogramo y por lo tanto $A_1C_1$ y $BX$ se cortan en su punto medio $M$.

En $\triangle B_1BX$, $B_1M$ y $BB’$ son medianas, donde $B’$ es el punto medio de $B_1X$ y $CA$, por lo tanto, su intersección $G$, triseca a ambas medianas de $\triangle B_1BX$.

Pero el centroide de $\triangle ABC$ y de $\triangle A_1B_1C_1$ es el único punto con esa propiedad, por lo tanto, su centroide es el mismo.

$\blacksquare$

Concurrencia en el centro de los nueve puntos.

Proposición 3. Las perpendiculares a los lados de un triángulo desde los puntos medios de su primer triángulo de Brocard concurren en el centro de los nueve puntos.

Demostración. Sean $\triangle ABC$ y $\triangle A_1B_1C_1$ su primer triángulo de Brocard, $D$, $E$, $F$, los puntos medios de $B_1C_1$, $C_1A_1$, $A_1B_1$ respectivamente.

Figura 4

Notemos que las perpendiculares por $D$, $E$, $F$, a $BC$, $CA$, $AB$, respectivamente, son paralelas a $OA_1$, $OB_1$, $OC_1$ respectivamente, donde $O$ es el circuncentro de $\triangle ABC$.

Como $\triangle A_1B_1C_1$ y $\triangle DEF$, están en homotecia desde $G$, el centroide de $\triangle A_1B_1C_1$, y razón $\dfrac{- 1}{2}$, entonces los tres pares de rectas paralelas son pares de rectas homotéticas, pues pasan por puntos homólogos.

Como $OA_1$, $OB_1$, $OC_1$, concurren en $O$ entonces sus correspondientes rectas homotéticas concurren en el correspondiente punto homólogo, $O’$.

Entonces $O$, $G$ y $O’$ son colineales en ese orden y $\dfrac{OG}{2} = GO’$.

Como $G$ también es el centroide de $\triangle ABC$ entonces $O’$ es el centro de los nueve puntos de $\triangle ABC$.

$\blacksquare$

Punto de Steiner

Proposición 4. Las rectas paralelas (perpendiculares) por los vértices de un triángulo a los respectivos lados de su primer triángulo de Brocard concurren en el circuncírculo del triángulo original, el punto de concurrencia se conoce como punto de Steiner (Tarry).

Demostración. Si $\triangle A_1B_1C_1$ es el primer triángulo de Brocard de $\triangle ABC$, sea $S$ la intersección de la paralela a $A_1C_1$  por $B$ y la paralela a $A_1B_1$ por $C$.

Figura 5

$\angle BSC = \angle C_1A_1B_1 = \angle BAC$, por lo tanto, $S$ se encuentra en el arco $\overset{\LARGE{\frown}}{AB}$.

De manera análoga vemos que $CS$ y la paralela a $B_1C_1$ por $A$ se intersecan en el circuncírculo de $\triangle ABC$.

Por lo tanto, las paralelas concurren en $S$.

Considera $T$ el punto diametralmente opuesto a $S$, entonces $AT \perp AS \Rightarrow AT \perp B_1C_1$.

De manera similar vemos que $BT \perp A_1C_1$ y $CT \perp A_1B_1$.

Por lo tanto, las perpendiculares concurren en el circuncírculo de $\triangle ABC$.

$\blacksquare$

Más adelante…

Con la siguiente entrada comenzaremos la última unidad en la que hablaremos sobre cuadriláteros, mostraremos algunos teoremas que establecen propiedades análogas a la de los triángulos, como, cuando un cuadrilátero tiene un incírculo o la formula de Euler que mide la distancia entre el incentro y el circuncentro pero esta vez para cuadriláteros.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Construye un triángulo, dado su primer triángulo de Brocard.
  2. Muestra que la recta que une los vértices de un triángulo con los correspondientes vértices de su primer triángulo de Brocard dividen a los lados opuestos del triángulo original en el inverso de la razón de los cuadrados de los lados adyacentes.
  3. Prueba que la reflexión del punto simediano respecto del centro de los nueve puntos de un triángulo es el centro de la circunferencia de Brocard de su triángulo anticomplementario.
  4. Muestra que el punto simediano y el circuncentro de un triángulo son el punto de Steiner y el punto de Tarry de su primer triángulo de Brocard.
  5. El triángulo cuyos vértices son las segundas intersecciones de las simedianas de un triángulo con su circunferencia de Brocard es el segundo triángulo de Brocard, demuestra que:
    $i)$ los vértices del segundo triángulo de Brocard son los puntos medios de las cuerdas del circuncírculo de su triángulo de referencia determinadas por sus simedianas,
    $ii)$ las circunferencias del grupo directo e indirecto que son tangentes a los lados de un mismo ángulo de un triángulo se intersecan en los vértices de su segundo triángulo de Brocard.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 279-284.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 277-282.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 73-75.
  • Honsberger, R., Episodes in Nineteenth and Twentieth Century Euclidean Geometry. Washington: The Mathematical Association of America, 1995, pp 106-124.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Probabilidad I: Más Propiedades del Valor Esperado

Por Octavio Daniel Ríos García

Introducción

Como parte de nuestro estudio del valor esperado, en esta entrada abordaremos algunas más de sus propiedades. En la entrada antepasada vimos un primer conjunto de propiedades, y probablemente habrás notado que se trataba de propiedades en las que sólamente había una v.a. Por el contrario, conforme a lo visto en la entrada anterior, las propiedades que veremos en esta entrada involucran a más de una v.a., así que necesitaremos algunos de los elementos básicos de probabilidad multivariada que vimos.

En esta entrada centraremos nuestra atención en ver cómo interactúa el valor esperado con dos operaciones de variables aleatorias: la suma y el producto. Veremos que el valor esperado de la suma de dos v.a.’s se comporta de forma muy agradable, y podremos decir que es lineal. No obstante, el valor esperado del producto de dos v.a.’s requerirá de una condición extra para poder comportarse de manera agradable.

Linealidad con respecto a escalares

Una consecuencia de la ley del estadístico inconsciente es una primera propiedad de linealidad del valor esperado, con respecto a constantes reales.


Propiedad 1. Sea $X\colon\Omega\to\RR$ una variable aleatoria y sean $a$, $b \in \RR$. Entonces se cumple que

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b \end{align*}


Demostración. Sea $g\colon\RR\to\RR$ la transformación dada por

\begin{align*} g(x) &= ax + b & \text{para cada $x \in \RR$}.\end{align*}

De este modo, $g(X) = aX + b$. Aplicando la ley del estadístico inconsciente, se sigue que:

  1. Si $X$ es una v.a. discreta, entonces \begin{align*} \Esp{g(X)} &= \sum_{x \in X[\Omega]} g(x) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} (ax + b) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} {\left( ax\Prob{X = x} + b\Prob{X = x}\right)} \\[1em] &= a \sum_{x\in X[\Omega]} x \Prob{X = x} + \sum_{x\in X[\Omega]} b \Prob{X = x} \\[1em] &= a\Esp{X} + \Esp{b} \\[1em] &= a\Esp{X} + b, \end{align*}por lo que es cierto en el caso discreto.
  2. Si $X$ es una v.a. continua, entonces $g(X)$ es una v.a. continua (porque $g$ es una transformación continua). Así, tenemos que \begin{align*} \Esp{g(X)} &= \int_{-\infty}^{\infty} g(x) f_{X}(x) \, \mathrm{d}x, \\[1em] &= \int_{-\infty}^{\infty} (ax + b) f_{X}(x) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} (axf_{X}(x) + bf_{X}(x)) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} axf_{X}(x) \, \mathrm{d}x + \int_{-\infty}^{\infty} bf_{X}(x) \, \mathrm{d}x \\[1em] &= a \int_{-\infty}^{\infty} xf_{X}(x) \, \mathrm{d}x + b\int_{-\infty}^{\infty} f_{X}(x) \, \mathrm{d}x \\[1em] &= a\Esp{X} + b, \end{align*}por lo que también es cierto en el caso continuo.

Por lo tanto, podemos concluir que si $X$ es una v.a. y $a$ y $b \in \RR$ son constantes reales, entonces

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Es importante notar que para \(a = 1\), la propiedad anterior nos dice que para cualquier \(b \in \RR\) se cumple que

\begin{align*} \Esp{X + b} &= \Esp{X} + b, \end{align*}

lo cual es muy natural: si la v.a. \(X\) tiene una tendencia central hacia \(\Esp{X}\), entonces el comportamiento aleatorio de \(X + b\) estará centrado alrededor de \(\Esp{X} + b\), pues el valor \(b\) está fijo.

Valor esperado de la suma de v.a.’s

Dadas $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ dos v.a.’s definidas sobre el mismo espacio de probabilidad, podemos definir la v.a. $(X+Y)\colon\Omega\to\RR$ dada por

\begin{align*} (X+Y)(\omega) &= X(\omega) + Y(\omega) & \text{para cada $\omega\in\Omega$}. \end{align*}

Ahora, si por alguna razón queremos calcular el valor esperado de $X+Y$, podríamos caer en la trampa de utilizar directamente la definición, e intentaríamos calcular

\begin{align*} \Esp{X+Y} &= \sum_{z \in (X+Y)[\Omega]} z \Prob{X + Y = z}, \end{align*}

en caso de que $X+Y$ sea discreta; o

\begin{align*} \Esp{X+Y} &= \int_{-\infty}^{\infty} z f_{X+Y}(z) \, \mathrm{d}z, \end{align*}

donde $f_{X+Y}\colon\RR\to\RR$ es la función de densidad de $X+Y$… algo que inicialmente no poseemos, incluso si las distribuciones de $X$ y de $Y$ son conocidas. Sin embargo, no es necesario hacer nada de esto: ¡el valor esperado es lineal! Esto lo enunciamos en la siguiente propiedad.


Propiedad 2. Sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ variables aleatorias con valor esperado finito definidas sobre el mismo espacio de probabilidad. Entonces

\begin{align*} \Esp{X + Y} &= \Esp{X} + \Esp{Y}. \end{align*}


Demostración. Demostraremos el caso en el que $X$ y $Y$ son v.a.’s discretas. Para ello, podemos recurrir directamente a la definición formal de valor esperado.

\begin{align*} \Esp{X + Y} &= \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}}. \end{align*}

Sabemos que $(X + Y)(\omega) = X(\omega) + Y(\omega)$, por lo que

\begin{align*} \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}} &= \sum_{\omega\in\Omega} (X(\omega) + Y(\omega)) \Prob{\{\omega\}} \\[1em] &=\sum_{\omega\in\Omega} {\left[X(\omega)\Prob{\{\omega\}} + Y(\omega)\Prob{\{\omega\}} \right]} \\[1em] &= \sum_{\omega\in\Omega} X(\omega) \Prob{\{\omega\}} + \sum_{\omega\in\Omega} Y(\omega) \Prob{\{\omega\}} \\[1em] &= \Esp{X} + \Esp{Y}, \end{align*}

por lo que $\Esp{X + Y} = \Esp{X} + \Esp{Y}$, que es justamente lo que queríamos demostrar.

$\square$

Por otro lado, omitiremos el caso cuando $X$ y $Y$ son v.a.’s continuas, pues la demostración (a este nivel) requiere de hacer más trampa, utilizando además una variante multivariada de la ley del estadístico inconsciente. No obstante, para propósitos de este curso, podrás asumir que el valor esperado es lineal en el caso discreto y en el continuo.

Valor esperado del producto de v.a.’s

De manera similar a la suma, dadas \(X\colon\Omega\to\RR\), \(Y\colon\Omega\to\RR\) v.a.’s, se define el producto de \(X\) con \(Y\) como la función \((XY)\colon\Omega\to\RR\) dada por

\begin{align*} (XY)(\omega) &= X(\omega) Y(\omega) & \text{para cada \(\omega\in\Omega\)}. \end{align*}

Es natural preguntarnos, ¿cómo se comporta esta operación con respecto al valor esperado? ¿Se comporta igual que la suma? Es decir, ¿será cierto que para cualesquiera v.a.’s \(X\) y \(Y\) se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}? \end{align*}

La respuesta es que no, y te ofrecemos el siguiente ejemplo.

Ejemplo 1. Sean \(X\), \(Y\) v.a.’s con función de masa de probabilidad conjunta \(p_{X,Y}\colon\RR^{2}\to\RR\) dada por los valores en la siguiente tabla:

\(X\)
-11\(p_{Y}(y) \)
\(Y\)00.10.40.5
10.40.10.5
\(p_{X}(x)\)0.50.5

De este modo, se tiene que

\begin{align*} p_{X,Y}(-1,0) &= \Prob{X= -1, Y = 0} = 0.1, \\[1em] p_{X,Y}(1,0) &= \Prob{X = 1, Y = 0} = 0.4, \end{align*}

etcétera. En los extremos de la tabla hemos colocado las funciones de masa de probabilidad marginal de \(X\) y de \(Y\). Con ellas podemos calcular \(\Esp{X}\) y \(\Esp{Y}\) como sigue:

\begin{align*} \Esp{X} &= (−1)\cdot p_{X}(−1) + 1 \cdot p_{X}(1) = (−0.5) + 0.5 = 0, \\[1em] \Esp{Y} &= 0\cdot p_{Y}(0) + 1 \cdot p_{Y}(1) = 0 + 0.5 = 0.5. \end{align*}

Así, obtenemos que \(\Esp{X}\Esp{Y} = 0 \cdot 0.5 = 0\). Por otro lado, observa que \(XY\) puede tomar alguno de tres posibles valores: \(0\), \(1\) y \(-1\). \(XY\) vale \(0\) cuando \(Y\) toma el valor \(0\) y \(X\) toma cualquier valor; mientras que \(XY = 1\) cuando \(Y=1\) y \(X = 1\); y además \(XY = -1\) cuando \(Y=1\) y \(X=-1\). Esto nos da todas las probabilidades de \(XY\), que son

\begin{align*} \Prob{XY = 0} &= \Prob{X = 1, Y = 0} + \Prob{X = -1, Y = 0} = 0.4 + 0.1 = 0.5, \\[1em] \Prob{XY=1} &= \Prob{X=1,Y=1} = 0.1, \\[1em] \Prob{XY=-1} &= \Prob{X=-1,Y=0} = 0.4, \end{align*}

así que \(XY\) es una v.a. con función de masa de probabilidad \(p_{XY}\colon\RR\to\RR\) dada por

\begin{align*} p_{XY}(z) &= \begin{cases} 0.4 & \text{si \(z=-1\)}, \\[1em] 0.5 & \text{si \(z = 0\)}, \\[1em] 0.1 & \text{si \(z=1\)}, \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

Por lo tanto, el valor esperado de \(XY\) es

\begin{align*} \Esp{XY} &= (-1)\cdot p_{XY}(-1) + 0\cdot p_{XY}(0) + 1\cdot p_{XY}(1) = −0.4 + 0 + 0.1 = −0.3, \end{align*}

así que claramente \(\Esp{XY} \neq \Esp{X}\Esp{Y}\).


Sin embargo, hay una condición bajo la cual sí se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\), que está dada por el siguiente teorema:


Teorema 1. Si \(X\), \(Y\) son variables aleatorias independientes, entonces se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}. \end{align*}


La demostración de este teorema requiere de más acrobacias tramposas (a este nivel) con integrales múltiples, por lo que la omitiremos.

Observa que el teorema establece que si \(X\) y \(Y\) son v.a.’s independientes, entonces se tendrá que \(\Esp{XY} = \Esp{X}\Esp{Y}\). La implicación conversa no es verdadera, existen v.a.’s no-independientes que satisfacen \(\Esp{XY} = \Esp{X}\Esp{Y}\).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. ¿Cómo interpretas la linealidad del valor esperado? Es decir, sabemos que si \(X\) es una v.a., entonces \(\Esp{X}\) es el «centroide esperado» al obtener muchas observaciones de \(X\), ¿cómo se interpreta que \(\Esp{X + Y} = \Esp{X} + \Esp{Y}\)?
  2. Por otro lado, no siempre se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\). ¿Por qué pasa esto con el producto?
  3. Construye dos v.a.’s \(X\) y \(Y\) tales que \(\Esp{XY} = \Esp{X}\Esp{Y}\), pero de tal manera que \(X\) y \(Y\) no sean independientes. Sugerencia: Para asegurar la no-independencia, escoge una v.a. \(X\) sencilla (como las del Ejemplo 1), y toma a \(Y = g(X)\), donde \(g\) es una transformación conveniente.

Más adelante…

Debido a que el valor esperado es un concepto muy importante en la teoría (y en la práctica) de la probabilidad, las propiedades presentadas en esta entrada y la anterior son muy importantes, y te encontrarás con ellas muy a menudo. Además, en las materias de Probabilidad II y Procesos Estocásticos I verás temas que involucran más de una variable aleatoria (probabilidad multivariada) en los que utilizarás las propiedades vistas en esta entrada (y otras muy parecidas, pero más generales).

Volviendo a nuestro curso, en la entrada siguiente veremos otro valor asociado a una distribución de probabilidad: la varianza.

Entradas relacionadas