Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Probabilidad I: Interacciones Entre Variables Aleatorias

Por Octavio Daniel Ríos García

Introducción

En esta entrada veremos una breve introducción a las interacciones básicas entre dos v.a.’s. En una entrada previa vimos cómo se interpretaban las operaciones con eventos, y después vimos algunos conceptos asociados a la interacción entre eventos, como es el caso de la definición de independencia. De manera similar, es razonable que definamos ciertos conceptos para describir el comportamiento probabilístico de dos variables aleatorias de manera conjunta.

Primero, un poco de notación

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ dos variables aleatorias. Aquí estamos siendo muy explícitos con el hecho de que el dominio de ambas v.a.’s debe de ser el mismo. Esto es importante porque los eventos que involucran a $X$ y a $Y$ deben de ser elementos del mismo σ-álgebra. Además, las operaciones entre v.a.’s están bien definidas siempre y cuando estas tengan el mismo dominio, pues se definen puntualmente.

Primero, demos un poco de notación. Sean $A$ y $B \in \mathscr{B}(\RR)$. Para denotar la probabilidad del evento en el que $X \in A$ y $Y \in B$ se sigue la siguiente notación:

\begin{align*} \Prob{X \in A, Y \in B} &= \Prob{(X \in A)\cap(Y \in B)}. \end{align*}

Es decir, $(X \in A, Y \in B)$ es la notación para expresar el evento $(X \in A) \cap (Y \in B)$. Observa que este conjunto sí es un evento, pues $X$ y $Y$ son v.a.’s, así que tanto $(X \in A)$ como $(Y \in B)$ son elementos de $\mathscr{F}$, así que también su intersección lo es.

De este modo, podemos expresar muchas probabilidades de intersecciones de eventos de forma más compacta. Por ejemplo:

\begin{align*} \Prob{X = x, Y = y} &= \Prob{(X = x) \cap (Y = y)}, \\[1em] \Prob{X \leq x, Y \leq y} &= \Prob{(X \leq x) \cap (Y \leq y)}, \end{align*}

etcétera.

Independencia de variables aleatorias

En la Unidad 1 de este curso hablamos sobre la independencia de eventos. El paso que sigue ahora es definir la noción de independencia de variables aleatorias. De manera similar a los eventos, que $X$ y $Y$ sean variables aleatorias independientes significa que un evento que involucra a $X$ no afecta las probabilidades de $Y$. Por ello, la noción de independencia se dará en términos de eventos.


Definición 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Diremos que $X$ y $Y$ son independientes si y sólamente si para todo $A$, $B \in \mathscr{B}(\RR)$ se cumple

\begin{align*} \Prob{X \in A, X \in B} &= \Prob{X \in A} \Prob{X \in B}. \end{align*}


También es posible caracterizar la independencia de v.a.’s mediante sus funciones de distribución. Para ello, es necesario definir el concepto de función de distribución conjunta de dos v.a.’s. Esta se define como sigue:


Definición 2. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Se define la función de distribución conjunta de $X$ y $Y$, $F_{X,Y}\colon\RR^{2}\to\RR$, como sigue:

\begin{align*} F_{X,Y}(x,y) &= \Prob{X \leq x, Y \leq y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Esta es una «generalización» multidimensional de la función de distribución de una variable aleatoria. Es decir, sabemos que \(\Prob{X \leq x}\) es la probabilidad de que la v.a. \(X\) tome un valor dentro del intervalo \((-\infty, x]\). De manera similar, \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que las v.a.’s \(X\) y \(Y\) tomen un valor dentro del intervalo \((-\infty, x]\) y \((-\infty, y]\), respectivamente. Esto es, si pensamos a \((X, Y)\) como un punto aleatorio en \(\RR^{2}\), entonces \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que \((X,Y)\) sea un punto dentro del rectángulo \((-\infty, x] \times (-\infty, y]\).

El siguiente teorema nos brinda un criterio de independencia más sencillo que el de la Definición 1:


Teorema 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Las siguientes proposiciones son equivalentes:

  1. $X$ y $Y$ son independientes.
  2. Para cualesquiera $x$, $y \in \RR$ se cumple \begin{align*} F_{XY}(x,y) &= F_{X}(x) F_{Y}(y). \end{align*}

Demostrar que 1. implica a 2. no es complicado, y lo dejamos como tarea moral. Por otro lado, demostrar 2. implica a 1. rebasa los contenidos de este curso, por lo que omitiremos esta parte de la demostración.

Este teorema hace más sencillo verificar si dos v.a.’s son independientes o no lo son. Primero, porque el trabajo se reduce a trabajar con las funciones de distribución. Además, a continuación veremos que es posible recuperar las funciones de probabilidad (masa y densidad) a partir de las funciones de probabilidad conjunta. Por ello, podremos verificar si dos v.a.’s son independientes comparando su distribución conjunta con el producto de sus distribuciones univariadas, gracias al Teorema 1.

Funciones de probabilidad conjunta para v.a.’s discretas

Al haber definido la función de distribución conjunta, se desprenden dos casos importantes: el caso discreto y el caso continuo. En el caso en el que $X$ y $Y$ son v.a.’s discretas, es posible definir la función de masa de probabilidad conjunta de $X$ y $Y$. Esta se define como sigue.


Definición 3. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ v.a.’s discretas. Se define la función de masa de probabilidad conjunta de $X$ y $Y$, $p_{X,Y}\colon\RR^{2}\to\RR$ como sigue:

\begin{align*} p_{X,Y}(x, y) &= \Prob{X = x, Y = y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Es decir, el valor $p_{X,Y}(x,y)$ es la probabilidad de que $X$ tome el valor $x$ y $Y$ tome el valor $y$. Ahora, antes de seguir, es recomendable que recuerdes el teorema de probabilidad total que vimos en una entrada previa. Sabemos que $Y[\Omega]$ es un conjunto a lo más infinito numerable, pues $Y$ es una v.a. discreta. Por ello, podemos ver a $Y[\Omega]$ como una unión numerable de conjuntos, donde cada uno de estos conjuntos tiene un único elemento. Es decir, tomamos los conjuntos $\{y\}$, para cada $y \in Y[\Omega]$, y los unimos a todos:

\begin{align*} Y[\Omega] &= \bigcup_{y \in Y[\Omega]} \{ y \}. \end{align*}

De este modo,

\begin{align*} Y^{-1}[Y[\Omega]] &= Y^{-1}{\left[\bigcup_{y \in Y[\Omega]} \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} Y^{-1}{\left[ \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} (Y = y). \tag{$\triangle$} \end{align*}

Observa que esta es una unión de conjuntos ajenos, pues para cada $y_{1}$, $y_{2} \in Y[\Omega]$ se cumple que si $y_{1} \neq y_{2}$, entonces $\{ y_{1} \} \cap \{ y_{2} \} = \emptyset$. Además,

\begin{align*} Y^{-1}[ \{ y_{1} \} \cap \{ y_{2} \} ] &= Y^{-1}[ \{ y_{1} \}] \cap Y^{-1}[\{ y_{2} \} ], \tag{$*$} \\[1em] Y^{-1}[ { y_{1} } \cap { y_{2} } ] &= Y^{-1}[\emptyset] = \emptyset, \tag{$**$}\end{align*}

así que por $(*)$ y $(**)$ podemos concluir que $Y^{-1}[\{ y_{1} ] \cap Y^{-1}[ \{ y_{2} \} ] = \emptyset$. Por lo tanto, la unión

\begin{align*} \bigcup_{y \in Y[\Omega]} (Y = y) \end{align*}

es una unión de eventos ajenos. Además, por propiedades de la imagen inversa, sabemos que

\begin{align*} \Omega \subseteq Y^{-1}[Y[\Omega]]. \end{align*}

Por otro lado, como el dominio de $Y$ es $\Omega$, también sabemos que $Y^{-1}[Y[\Omega]] \subseteq \Omega$, así que $\Omega = Y^{-1}[Y[\Omega]]$. Finalmente, por $(\triangle)$ se tiene que

\begin{align*} \Omega &= \bigcup_{y \in Y[\Omega]} (Y = y). \end{align*}

Es decir, $\{ \, (Y = y) \mid y \in Y[\Omega] \,\}$ forma una partición de $\Omega$. Sea $x \in X[\Omega]$. Como lo anterior nos da una partición de $\Omega$, podemos aplicar el teorema de probabilidad total para obtener que

\begin{align*} \Prob{X = x} &= \sum_{y \in Y[\Omega]} \Prob{X = x, Y = y}. \end{align*}

Análogamente, para cada $y \in Y[\Omega]$ se tiene que

\begin{align*} \Prob{Y = y} &= \sum_{x \in X[\Omega]} \Prob{X = x, Y = y}. \end{align*}

En términos de las funciones de masa de probabilidad, lo anterior quiere decir que podemos recuperar la masa de probabilidad de $X$ y de $Y$ a partir de la función de masa de probabilidad conjunta, como sigue:

\begin{align*} p_{X}(x) &= \sum_{y \in Y[\Omega]} p_{X,Y}(x, y) & \text{para cada $x \in X[\Omega]$}, \\[1em] p_{Y}(y) &= \sum_{x \in X[\Omega]} p_{X,Y}(x, y) & \text{para cada $y \in Y[\Omega]$}. \end{align*}

Este procedimiento de obtener la función de masa de probabilidad de una v.a. a partir de la masa de probabilidad conjunta se conoce como marginalización, y las funciones resultantes son conocidas como las funciones de masa de probabilidad marginales.

Ejemplo 1. Sean $X$ y $Y$ dos v.a.’s discretas con función de masa de probabilidad conjunta $p_{X,Y}\colon\RR^{2}\to\RR$ dada por:

\begin{align*} p_{X,Y} &= \begin{cases} 0.05 & \text{si $(x, y) = (0,3)$ o $(x,y) = (1,1)$ o $(x, y) = (2,4)$}, \\[1em] 0.1 & \text{si $(x,y)=(0,2)$ o $(x,y) = (1,3)$ o $(x,y) = (2,1)$}, \\[1em] 0.15 & \text{si $(x,y) = (2,2)$}, \\[1em] 0.2 & \text{si $(x,y) = (0,1)$ o $(x,y) = (1,4)$}, \\[1em] 0 & \text{en otro caso}. \end{cases} \end{align*}

Una buena manera de organizar la información contenida en esta función es mediante una tabla como la siguiente:

Valores posibles de $X$
012
Valores posibles de $Y$10.20.050.1
20.100.15
30.050.10
400.20.05

De este modo, $\Prob{X = 0, Y = 1} = 0.2$, y $\Prob{X=0, Y =3} = 0.05$. A partir de las probabilidades de la tabla podemos calcular la función de masa de probabilidad de $X$, $p_{X}\colon\RR\to\RR$. Para ello, simplemente debemos de marginalizar sobre cada uno de los valores que toma $X$. De este modo, obtenemos que

\begin{align*} p_{X}(0) &= p_{X,Y}(0,1) + p_{X,Y}(0,2) + p_{X,Y}(0,3) + p_{X,Y}(0,4) = 0.2 + 0.1 + 0.05 + 0 = 0.35, \\[1em] p_{X}(1) &= p_{X,Y}(1,1) + p_{X,Y}(1,2) + p_{X,Y}(1,3) + p_{X,Y}(1,4) = 0.05 + 0 + 0.1 + 0.2 = 0.35, \\[1em] p_{X}(2) &= p_{X,Y}(2,1) + p_{X,Y}(2,2) + p_{X,Y}(2,3) + p_{X,Y}(2,4) = 0.1 + 0.15 + 0 + 0.05 = 0.3, \end{align*}

por lo que la función de masa de probabilidad de $X$ nos queda

\begin{align*} p_{X}(x) &= \begin{cases} 0.35 & \text{si $x = 0$ o $x = 1$}, \\[1em] 0.3 & \text{si $x = 2$}. \end{cases} \end{align*}

Sin embargo, observa que el uso de una tabla sólo tiene sentido si $X[\Omega]$ y $Y[\Omega]$ son conjuntos finitos. De otro modo, sería una «tabla» infinita, y nunca acabaríamos de escribirla…

Independencia en el caso discreto

Una consecuencia (casi inmediata) del Teorema 1 es el siguiente criterio de independencia para v.a.’s discretas.


Proposición 1. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son discretas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} \Prob{X = x, Y = y} &= \Prob{X = x} \Prob{Y = y}, & \text{para cualesquiera \(x,y \in \RR\).} \end{align*}


Por ejemplo, retomemos las v.a.’s del Ejemplo 1. Sumando los valores en el renglón donde \(Y = 1\), obtenemos que

\begin{align*} \Prob{Y = 1} = 0.35, \end{align*}

y nosotros calculamos que \(\Prob{X = 1} = 0.35\). En consecuencia,

\begin{align} \label{eq:prod} \Prob{X = 1}\Prob{Y = 1} &= 0.1225.\end{align}

Sin embargo, de acuerdo con la tabla, \(\Prob{X = 1, Y = 1} = 0.05\), que no coincide con el valor en \eqref{eq:prod}. Por ello, podemos concluir que las v.a.’s del Ejemplo 1 no son independientes.

Función de densidad conjunta para v.a.’s continuas

Como de costumbre, el caso para las v.a.’s continuas es distinto. En este caso, lo que tendremos es una función de densidad conjunta, que juega el mismo papel que una función de densidad univariada, pero para \(2\) v.a.’s conjuntamente. Esto da lugar a la siguiente definición.


Definición. Sean \(X\) y \(Y\) v.a.’s continuas, y \(F_{X,Y}\colon\RR^{2}\to\RR\) su función de distribución conjunta. Entonces \(F_{X,Y}\) puede expresarse como sigue:

\begin{align*} F_{X,Y}(x,y) &= \int_{-\infty}^{x}\int_{-\infty}^{y} f_{X,Y}(u,v) \, \mathrm{d}v \, \mathrm{d}u, & \text{para cada \((x, y) \in \RR^{2}\).} \end{align*}

De este modo, \(f_{X,Y}\colon\RR^{2}\to\RR\) es llamada la función de densidad conjunta de \(X\) y \(Y\).


De igual forma que con las función de distribución conjunta, la función de densidad conjunta es una generalización multivariada de la función de densidad. Además, también existen técnicas de marginalización que son análogas al caso discreto. Primero, recuerda que integrar la función de densidad sobre un intervalo es nuestra forma de sumar continuamente las probabilidades de cada punto en el intervalo. Esto es:

\begin{align*} \Prob{X \in (a,b]} &= \int_{a}^{b} f_{X}(x) \, \mathrm{d}x. \end{align*}

Si tomamos la idea del teorema de probabilidad total, pero integramos sobre todo el conjunto de valores de una de las v.a.’s (en vez de sumar, como hicimos en el caso discreto), podemos expresar la función de densidad marginal de \(X\) como

\begin{align*} f_{X}(x) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}y, & \text{para cada \(x\in\RR\).}\end{align*}

Es decir, integramos sobre todo el dominio de la v.a. que queremos quitar, que en este caso es \(Y\). Análogamente, para \(Y\) se tiene que

\begin{align*} f_{Y}(y) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}x, & \text{para cada \(y\in\RR\).}\end{align*}

Este es el proceso de marginalización para el caso continuo. Observa que las funciones resultantes son las funciones de densidad marginales. Como tal, los valores que toman estas funciones no son probabilidades, por lo que la marginalización es más sutil que en el caso discreto (ya que el teorema de probabilidad total se usa para probabilidades, y para particiones a lo más numerables).

Ejemplo 2. Sean \(X\) y \(Y\) dos v.a.’s tales que su función de densidad conjunta es \(f_{X,Y}\) dada por

\begin{align*} f_{X,Y}(x,y) &= \begin{cases} y{\left( \dfrac{1}{2} − x\right)} + x &\text{si \(x \in (0,1)\) y \(y \in (0,2)\),} \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

La gráfica de esta función se ve como sigue:

Gráfica de la densidad conjunta de 'X' y 'Y'.
Figura. Gráfica de la función de densidad conjunta de \(X\) y \(Y\). Como el dominio de \(f_{X,Y}\) es \(\RR^{2}\), la gráfica de esta función es un lugar geométrico en \(\RR^{3}\).

Sin embargo, hay un detallito que quizás tengas en la cabeza: ¿cómo se interpreta que esta función sea «de densidad», en un sentido vibariado? A grandes rasgos, debe de cumplir lo mismo que una función de densidad univariada. En particular, el valor de la integral sobre su dominio debe de ser \(1\). En este caso, esto significa que se debe de cumplir que

\begin{align*} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}x \, \mathrm{d}y &= 1. \end{align*}

Como muy probablemente no conoces métodos (ni teoría) de integración bivariada, simplemente te diremos que \(f_{X,Y}\) sí es una función de densidad bivariada, y que sí cumple la condición anterior.

Por otro lado, algo que podemos hacer con los conocimientos que posees hasta ahora es obtener las marginales. Obtengamos la densidad marginal de \(X\), para lo cual hay que integrar \(f_{X,Y}\) sobre todo el dominio de \(Y\):

\begin{align*} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}y &= \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y, \end{align*}

en donde \(x \in (0,1)\), pues es donde la densidad conjunta no vale \(0\). Como esta integral es con respecto a \(y\), podemos pensar que \(x\) es una constante respecto a la variable de integración. Por ello, la integral anterior puede resolverse de manera directa con herramientas de Cálculo II:

\begin{align*} \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y &= \int_{0}^{2} {\left( \dfrac{1}{2} − x\right)}y \, \mathrm{d}y + \int_{0}^{2} x \mathrm{d}y \\[1em] &= {\left( \dfrac{1}{2} − x\right)} \int_{0}^{2} y \, \mathrm{d}y + x \int_{0}^{2} 1 \, \mathrm{d}y \\[1em] &= {\left(\frac{1}{2} − x\right)}{\left( \frac{y^{2}}{2} \right)}\Bigg|_{y=0}^{2} + x(2 − 0) \\[1em] &= {\left(\frac{1}{2} − x\right)} {\left( \frac{4 − 0}{2} \right)} + 2x \\[1em] &= 2{\left( \frac{1}{2} − x \right)} + 2x \\[1em] &= 1 + 2x − 2x \\[1em] &= 1, \end{align*}

para cada \(x \in (0,1)\). En consecuencia, la densidad marginal de \(X\) es \(f_{X}\) dada por

\begin{align*} f_{X}(x) &= \begin{cases} 1 & \text{si \(x \in (0,1)\),} \\[1em] 0 & \text{en otro caso.} \end{cases} \end{align*}

Así, llegamos a que \(X\) sigue una distribución uniforme en el intervalo \((0,1)\).


Independencia en el caso continuo

De manera similar al caso discreto, además del criterio dado por el Teorema 1, podemos dar la siguiente criterio de independencia para dos v.a.’s continuas.


Proposición 2. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son continuas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} f_{X,Y}(x,y) &= f_{X}(x) f_{Y}(y), & \text{para cualesquiera \(x,y \in \RR\),} \end{align*}

donde \(f_{X,Y}\) es la función de densidad conjunta de \(X\) y \(Y\), y \(f_{X}\) y \(f_{Y}\) son las funciones de densidad marginales.


Es decir, dos v.a.’s continuas son independientes si su función de densidad conjunta es el producto de sus funciones de densidad (marginales).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que 1. implica a 2. en el Teorema 1.
  2. En el Ejemplo 1:
    1. Verifica que la función $p_{X}\colon\RR\to\RR$ que obtuvimos es una función de masa de probabilidad.
    2. Encuentra $p_{Y}\colon\RR\to\RR$, la función de masa de probabilidad de $Y$.
  3. En el Ejemplo 2:
    1. Encuentra la función de densidad marginal de \(Y\).
    2. ¿Son independientes \(X\) y \(Y\)?

Más adelante…

Usaremos los temas que vimos en esta entrada en la próxima entrada, ya que serán necesarios algunos detallitos de probabilidad multivariada para entender las propiedades del valor esperado que veremos a continuación. Por el momento sólo es importante que sepas que existen estos temas de probabilidad multivariada, y entiendas lo que significan los conceptos vistos en esta entrada.

En un curso de Probabilidad II verás con muchísimo detalle los temas que presentamos en esta entrada, así que no te preocupes si los temas que vimos aquí no te quedaron completamente claros.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: El plano traza – determinante

Por Eduardo Vera Rosales

Introducción

Antes de finalizar con el estudio cualitativo a sistemas de ecuaciones de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$, vamos a clasificar la estabilidad del punto de equilibrio, y por tanto el plano fase, en un diagrama que resume toda la información que estudiamos en las últimas entradas. Este diagrama es llamado plano traza – determinante. En esta entrada veremos cómo interpretar dicho diagrama.

Vimos que el plano fase y la estabilidad de los puntos de equilibrio depende de la forma de los valores propios asociados. Es fácil observar que los valores propios del sistema son las soluciones a la ecuación $$\det{(\textbf{A}-\lambda\textbf{Id})}=\lambda^{2}-(a+d)\lambda+(ad-bc)=0.$$ Notemos que podemos reescribir la ecuación anterior en términos de dos propiedades de la matriz asociada $\textbf{A}$: su traza y su determinante. En efecto, resulta que $$ \lambda^{2}-(a+d)\lambda+(ad-bc)=\lambda^{2}-\lambda\mathrm{tr}{A}+\det{A}.$$ Entonces los valores propios están dados por la fórmula $$\lambda=\frac{\mathrm{tr}{A}\pm\sqrt{\mathrm{tr}{A}^{2}-4\det{A}}}{2}$$ Así, el plano fase y la estabilidad de los puntos de equilibrio dependerán de la traza y el determinante de la matriz asociada. Analizaremos la forma de los valores propios según la última fórmula.

La información obtenida se podrá resumir en el plano traza – determinante, que puedes observar en la siguiente imagen (tomada del siguiente sitio) que nos indica la forma del plano fase, según los valores de la traza y el determinante.

Plano traza determinante
Plano traza – determinante. Imagen tomada de https://es.m.wikipedia.org/wiki/Archivo:Stability_Diagram.png

El plano traza – determinante

Clasificamos la naturaleza del plano fase y la estabilidad de los puntos de equilibrio del sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ según la traza y el determinante de la matriz asociada. Englobamos toda la información obtenida en el plano traza – determinante.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Muestra que los valores propios del sistema $\lambda_{1}, \lambda_{2}$ satisfacen las identidades $$\lambda_{1}+\lambda_{2}=\mathrm{tr}{A}$$ $$\lambda_{1}\lambda_{2}=\det{A}.$$ Recuerda considerar los casos cuando los valores propios son distintos o iguales.

Clasifica el plano fase y puntos de equilibrio de los siguientes sistemas de ecuaciones, calculando únicamente la traza y el determinante de la matriz asociada:

  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 15 & -1 \\ -60 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} \pi & 0 \\ e & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+2 \\ a-2 & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Determina la forma del plano fase y la estabilidad del punto de equilibrio según la traza y el determinante de la matriz asociada, y el valor $a$.
  • Para el ejercicio anterior, identifica la región del plano traza – determinante donde los planos fase tienen comportamientos similares.
  • Realiza el mismo análisis de los dos ejercicios anteriores para el sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+b \\ a-b & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$ para cualquier valor de $a$ y $b$.

Más adelante

Con todo el conocimiento adquirido acerca de sistemas de ecuaciones lineales, es momento de estudiar, al menos de manera cualitativa, sistemas de ecuaciones no lineales. En la próxima entrada daremos una breve introducción a tales sistemas.

Además, veremos que es posible linealizar este tipo de sistemas para obtener un sistema de ecuaciones lineales equivalente que nos brinde la información cualitativa de las soluciones al sistema no lineal. Así, podremos dibujar el plano fase de un sistema no lineal, sin conocer explícitamente las soluciones a dicho sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna II: Potencia de un punto

Por Armando Arzola Pérez

Introducción

En esta primera unidad abordaremos varios los temas relacionados con las circunferencias coaxiales. Para ello, iniciaremos hablando de la potencia de un punto con respecto a una circunferencia. A grandes rasgos, esto trata de lo siguiente.

Tomemos una circunferencia $\mathcal{C}$. Tomemos $P$ un punto cualquiera. Tomemos una recta $l$ por $P$ y llamemos $A$ y $B$ los puntos de intersección de $l$ con $\mathcal{C}$. Bajo estas elecciones, la potencia de $P$ será $PA\cdot PB$. Lo que veremos en esta entrada es que dicho producto es constante sin importar la elección de $l$. Para mostrar esto, introduciremos algunas definiciones y posteriormente haremos una demostración por casos.

Definición de potencia de un punto

Comenzaremos dando una primer definición de potencia, que dependerá de cierto punto, circunferencia y recta que elijamos.

Definición. Sea $\mathcal{C}$ una circunferencia, $P$ un punto y $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ en la recta $l$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C},l):=PA\cdot PB.$$

En esta definición y de aquí en adelante, a menos que se diga lo contrario, se estará trabajando con segmentos dirigidos. Es decir, estamos pensando que cada segmento tiene una dirección del primer punto al segundo. Así, por ejemplo, el valor de $PA$ dependerá de la longitud del segmento y su signo dependerá de una dirección (usualmente implícita) que se le asigne a la recta por $A$ y $P$. De este modo, tendremos, por ejemplo, que $PA=-AP$.

La definición de potencia de un punto puede simplificarse notablemente en vista de la siguiente proposición.

Proposición. La potencia de un punto con respecto a una circunferencia no depende de la recta elegida. Es decir, tomemos $\mathcal{C}$ una circunferencia, $P$ un punto y $l,m$ rectas. Supongamos que los puntos de intersección de $l$ con $\mathcal{C}$ son $A$ y $B$; y que los puntos de intersección de $m$ con $\mathcal{C}$ son $C$ y $D$ (en caso de tangencias, repetimos los puntos). Entonces: $$PA\cdot PB = PC\cdot PD.$$

Demostración. Haremos la demostración por casos de acuerdo a cuando $P$ está dentro o fuera de la circunferencia, o sobre ella.

Dentro de la circunferencia:

Tomemos las cuerdas $AB$ y $CD$ en la circunferencia, las cuales se cortan en $P$. Los triángulos $\triangle APC$ y $\triangle DPB$ son semejantes ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está dentro de la circunferencia.
  1. $\angle PAC = \angle PDB $ por abrir el mismo arco $\overline{BC}$.
  2. $\angle APC = \angle BPD $ por ser opuestos al vértice.
  3. $\angle PCA = \angle PBD $ por abrir mismo arco $\overline{AD}$.

Entonces de la semejanza $\triangle APC \cong \triangle DPB $ tenemos que

$\frac{PA}{PD}=\frac{PC}{PB},$

de donde obtenemos la igualdad $PA\cdot PB =PC \cdot PD$ deseada.

Fuera de la circunferencia:

Ahora, $AB$ y $CD$ son dos secantes que se intersecan en $P$, pero con $P$ exterior a $\mathcal{C}$. Tenemos que $\triangle APC $ y $\triangle DPB $ son semejantes, ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está fuera de la circunferencia.
  1. El cuadrilátero $\square ABDC$ es cíclico, entonces: $\angle ACD + \angle ABD = 180^\circ$ y $\angle ABD + \angle DBP = 180^\circ $, de donde $\angle DBP = \angle ACD$.
  2. $\angle BPD$ y $\angle CPA$ son los mismos ángulos.

Entonces $\frac{PA}{PC}=\frac{PD}{PB},$ de donde se obtiene la igualdad buscada $PA\cdot PB=PC\cdot PD.$

Sobre la circunferencia:

Este caso es sencillo pues sin importar las secantes tomadas, en cada una hay un punto igual a $P$ y por lo tanto una distancia igual a cero. De este modo, $PA\cdot PB=0=PC\cdot PD$.

$\square$

Nota que las demostraciones anteriores sirven aunque $l$ ó $m$ sean tangentes, sólo que hay que hacer ligeras adaptaciones sobre los ángulos usados y los motivos por los que son iguales. Enunciaremos el caso de la tangencia un poco más abajo.

En vista de la proposición anterior, podemos simplificar nuestra definición notablemente.

Definición. Sea $\mathcal{C}$ una circunferencia y $P$ un punto. Tomemos $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C}):=PA\cdot PB.$$

La potencia queda bien definida sin importar la recta $l$, debido a la proposición anterior.

El signo de la potencia

En esta definición estamos usando segmentos dirigidos, y eso nos lleva a que la potencia de un punto puede tener distintos signos. El comportamiento queda determinado por el siguiente resultado.

Proposición. La potencia de un punto $P$ con respecto a una circunferencia $\mathcal{C}$ es positiva, negativa o cero, de acuerdo a si el punto $P$ está fuera de $\mathcal{C}$, dentro de ella, o sobre ella, respectivamente.

Demostración. Veamos esto caso por caso.

  • Sea $P$ un punto externo a $\mathcal{C}$. Entonces $PA$ y $PB$ tienen la misma orientación y por lo tanto el mismo signo. Además, como $P$ no está sobre $\mathcal{C}$, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})> 0$.
Geometría Moderna II: Potencia de un punto respecto a un punto externo.
  • Sea $P$ un punto interno a $\mathcal{C}$. Entonces $PA$ está dirigido hacia un lado y $PB$ está dirigido hacia el otro, de modo que tienen signo contrario. Además, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})<0$.
Geometría Moderna II: Potencia de un punto respecto a un punto interno de la circunferencia.
  • Finalmente, sea $P$ un punto sobre $\mathcal{C}$. Esto quiere decir que alguno de los puntos $A$ o $B$ es $P$ (quizás ambos, si $l$ es tangente). Así, $PA=0$ ó $PB=0$. De este modo $\text{Pot}(P,\mathcal{C})=0$.
Geometría Moderna II: Potencia de un punto que está sobre la circunferencia.

$\square$

Otras fórmulas para la potencia

La potencia es invariante sin importar la recta elegida. De este modo, podemos elegir a una recta tangente y obtener una fórmula para la potencia en términos de la longitud de dicha tangente.

Proposición. Sea $\mathcal{C}$ una circunferencia. Para un punto $P$ fuera de $\mathcal{C}$, su potencia es igual al cuadrado de la longitud de una tangente de él a la circunferencia.

Es decir, sea $T$ un punto sobre la circunferencia tal que $PT$ sea tangente a $\mathcal{C}$. Entonces, $\text{Pot}(P,\mathcal{C})=PT^2$.

Imagen representativa de la Proposición 2.

El resultado se sigue de llevar al límite lo que ya probamos en la proposición de invarianza de la potencia. Pero a continuación damos un argumento alternativo.

Demostración. Tracemos otra recta por $P$ que no sea tangente a $\mathcal{C}$ y cuyos puntos de intersección con $\mathcal{C}$ son $A$ y $B$ como en la figura. Tenemos que mostrar que $PA\cdot PB =PT^2$.

El ángulo $\angle PTA$ es semi-inscrito y es igual al ángulo inscrito $ \angle TBA$, pues ambos tienen el mismo arco $\overline{AT}$.

Entonces los triángulos $\triangle APT$ y $\triangle TPB$ comparten el ángulo con vértice en $P$ y $\angle PTA=\angle TBA$. Por ello, se tiene que $\triangle APT \cong \triangle TPB $ son semejantes y sus lados son proporcionales: $\frac{PA}{PT} = \frac{PT}{PB}$. De aquí, $$PT^2=PT\cdot PT=PA\cdot PB=\text{Pot}(P,\mathcal{C}).$$

$\square$

También es posible conocer la potencia de un punto hacia una circunferencia si conocemos el radio de la circunferencia y la distancia del punto al centro.

Proposición. Sea $\mathcal{C}$ una circunferencia de centro $O$ y radio $r$. Sea $P$ un punto en cualquier posición. La potencia de $P$ con respecto a $\mathcal{C}$ es $$\text{Pot}(P,\mathcal{C}) = OP^2 – r^2.$$

Demostración. Haremos la demostración por casos

Dentro de la circunferencia:

Sea $AB$ la cuerda que pasa por el centro $O$ y $P$ (si $O=P$, tomamos cualquier cuerda $AB$ por el centro). Supongamos sin pérdida de generalidad que la recta está dirigida de $A$ a $B$. Tenemos que $AO=r>0$ y llamemos $d=OP>0$. De aquí, $PB=r-d>0$. La siguiente figura resume estas igualdades.

Potencia de un punto imagen de Proposición 3 cuando un punto está dentro de la circunferencia.

La potencia desde $P$ sería entonces, cuidando los signos:

\begin{align*}
PA\cdot PB &= (PO+OA)(PB)\\
&=(-d-r)(r-d)\\
&=-(d+r)(r-d)\\
&=-(r^2-d^2)\\
&=d^2-r^2\\
&=OP^2-r^2.
\end{align*}

Así, $\text{Pot}(P,\mathcal{C})=OP^2-r^2$.

Fuera de la circunferencia:

Ahora desde $P$ tracemos una tangente $PT$ a $\mathcal{C}$ con $T$ sobre $\mathcal{C}$. Como $\angle PTO =90^o$, entonces $\triangle POT$ es un triángulo rectángulo.

Potencia de un punto imagen de Proposición 3 cuando un punto está fuera de la circunferencia.

Por el teorema de Pitágoras y la expresión de potencia en términos de la tangente: $$OP^2=r^2+PT^2=r^2+\text{Pot}(P,\mathcal{C}).$$ Despejando, obtenemos la expresión deseada: $$\text{Pot}(P,\mathcal{C})=OP^2-r^2.$$

Sobre la circunferencia:

Este caso es sencillo, pues sabemos que la potencia de $P$ debe ser cero. Pero además, como $P$ está en la circunferencia, entonces $OP=r$, de modo que $OP^2-r^2=0$, y entonces la expresión también es lo que queremos.

$\square$

Más adelante…

Seguiremos abordando el tema de potencia de un punto y veremos cómo a partir de él se define el eje radical de dos circunferencias.

Entradas relacionadas

Geometría Moderna I: Puntos de Brocard

Por Rubén Alexander Ocampo Arellano

Introducción

En esta entrada hablaremos sobre un par de puntos conjugados isogonales del triángulo, los puntos de Brocard, que surgen de una construcción particular de circunferencias tangentes a los lados del triángulo.

Puntos de Brocard

Definición y notación. Dado un triángulo $\triangle ABC$, considera $\Gamma(BC)$ la circunferencia tangente a $BC$ en $B$ que pasa por $A$, $\Gamma(CA)$ la circunferencia tangente a $CA$ en $C$ que pasa por $B$, $\Gamma(AB)$ la circunferencia tangente a $AB$ en $A$ que pasa por $C$. Llamaremos a este conjunto de circunferencias, grupo directo de circunferencias.

De manera análoga, la circunferencia $\Gamma(CB)$ tangente a $BC$ en $C$ que pasa por $A$, la circunferencia $\Gamma(AC)$ tangente a $CA$ en $A$ que pasa por $B$ y la circunferencia $\Gamma(BA)$ tangente a $AB$ en $B$ que pasa por $C$, seran referidas como grupo indirecto de circunferencias.

Teorema 1. Las tres circunferencias del grupo directo (indirecto) asociado a un triángulo tienen un punto en común, al punto de concurrencia $\Omega$ $(\Omega’)$ se le conoce como primer (segundo) punto de Brocard.

Demostración. Sean $\triangle ABC$ y $\Omega = \Gamma(BC) \cap \Gamma(CA)$, considera $D \in \overset{\LARGE{\frown}}{AB}$ arco de $\Gamma(BC)$, recorrido en ese sentido.

Como $\angle CBA$ es un ángulo semiinscrito de $\Gamma(BC)$ entonces $\angle BDA = \angle CBA$, por lo tanto, $\angle A\Omega B = \pi – \angle B$.

Figura 1

De manera análoga vemos que $\angle B\Omega C = \pi – \angle C$.

En consecuencia,
$\angle C\Omega A = 2\pi – (\angle A\Omega B) – (\angle B\Omega C) $
$= 2\pi – (\pi – \angle B) – (\pi – \angle C) = \angle B + \angle C $
$= \pi – \angle A$.

Por otra parte, como $\angle BAC$ es un ángulo semiinscrito de $\Gamma(AB)$, entonces todos los puntos en el arco $\overset{\LARGE{\frown}}{CA}$, recorrido en ese sentido, subtienden un ángulo $\angle A$ con la cuerda $CA$, por lo tanto, el arco $\overset{\LARGE{\frown}}{AC}$ es el lugar geométrico de los puntos que subtienden con la cuerda $CA$ un ángulo igual a $\pi – \angle A$.

En conclusión $\Omega \in \Gamma(AB)$.

La demostración es análoga para el caso del grupo indirecto.

$\blacksquare$

Corolario 1. Los dos puntos de Brocard son los únicos puntos dentro de un triángulo $\triangle ABC$ que tienen la siguiente propiedad:
$i)$ $\angle BA\Omega = \angle CB\Omega = \angle AC\Omega $,
$ii)$ $\angle \Omega’ AC = \angle \Omega’ CB = \angle \Omega’ BA$.

Demostración. $i)$ $\angle BA\Omega$ y $\angle CB\Omega$ son ángulos inscrito y semiinscrito respectivamente de $\Gamma(BC)$ que abarcan el mismo arco, por lo tanto son iguales.

De manera análoga vemos que $\angle CB\Omega = \angle AC\Omega$.

Por otro lado supongamos que existe un punto $F$ dentro de $\triangle ABC$ tal que $\angle BAF = \angle CBF = \angle ACF$, considera el circuncírculo de $\triangle ABF$, como $\angle CBF$ es igual al ángulo inscrito $\angle BAF$, entonces $BC$ debe ser tangente al circuncírculo de $\triangle ABF$ en $B$, por lo tanto, $F \in \Gamma(BC)$.

De manera análoga vemos que $F \in \Gamma(CA)$ y $F \in \Gamma(AB)$ por lo tanto $F$ coincide con $\Omega$.

$ii)$ Se muestra de manera similar.

$\blacksquare$

Ángulo de Brocard

Corolario 2. Los puntos de Brocard son puntos conjugados isogonales.

Demostración. Si $X$ es el conjugado isogonal de $\Omega$ entonces (figura 1)
$\angle BA\Omega = \angle XAC$,
$\angle CB\Omega = \angle XBA$,
$ \angle AC\Omega = \angle XCB$.

Pero $\angle BA\Omega = \angle CB\Omega = \angle AC\Omega = \omega$, por lo tanto, el conjugado isogonal de $\Omega$ respecto a $\triangle ABC$ cumple que $\angle XAC = \angle XBA = \angle XCB$.

Como $\Omega’$ es el único punto que tiene esa propiedad dentro de $\triangle ABC$ entonces $X = \Omega’$.

$\blacksquare$

Definición 2. Los segmentos $A\Omega$, $A\Omega’$; $B\Omega$, $B\Omega’$; $C\Omega$, $C\Omega’$, se conocen como rayos de Brocard y el ángulo $\angle BA\Omega = \angle \Omega’AC = \omega$ se conoce como ángulo de Brocard.

Definición 3. Los lados del triángulo anticomplementario de un triángulo dado (las rectas paralelas a los lados de un triángulo por los vértices opuestos), se llaman exmedianas del triángulo dado.

Teorema 2. Una exsimediana, una exmediana y un rayo de Brocard, cada una por un vértice distinto de un triángulo dado, son concurrentes.

Demostración. En $\triangle ABC$ sea $B\Omega$ el rayo de Brocard que pasa por el primer punto de Brocard y $D$ la intersección de este rayo con la exmediana por $A$.

Figura 2

Como $AD \parallel BC$ entonces $\angle CAD = \angle C$ y $\angle ADB = \angle CB\Omega = \omega = \angle AC\Omega$, por lo tanto, $\square A\Omega CD$ está inscrito en $\Gamma(AB)$.

Por el corolario 1, $\angle C\Omega A = \angle B + \angle C$, esto implica que $\angle ADC = \angle A$, por lo tanto, $\angle DCA = \angle B$.

Como resultado $CD$ es exsimediana de $\triangle ABC$, es decir, es tangente al circuncírculo de $\triangle ABC$ en $C$.

$\blacksquare$

Corolario 3. El ángulo de Brocard $\omega$ de un triángulo $\triangle ABC$ satisface la siguiente igualdad $\cot \omega = \cot \angle A + \cot \angle B + \cot \angle C$

Demostración. En la figura anterior sean $H_a$, $H_d$ las proyecciones de $A$ y $D$ en $BC$, como $\angle DCA = \angle B$ entonces $\angle H_dCD = \angle A$, por lo tanto,
$\cot \omega = \dfrac{BH_d}{DH_d}$
$= \dfrac{BH_a}{DH_d} + \dfrac{H_aC}{DH_d} + \dfrac{CH_d}{DH_d}$
$= \dfrac{BH_a}{AH_a} + \dfrac{H_aC}{AH_a} + \dfrac{CH_d}{DH_d}$
$ = \cot \angle B + \cot \angle C + \cot \angle A$.

$\blacksquare$

Construcción de un triángulo dado su ángulo de Brocard

Problema. Construye un triángulo, dados un lado, un ángulo y $\omega$, su ángulo de Brocard.

Solución. Sea $\angle B’AC’$ el ángulo dado, en $AC’$ tomamos un punto $C$ arbitrario, sobre $CA$ y con vértice en $C$ abrimos un ángulo igual a $\omega$ en el sentido contrario al de las manecillas del reloj, hacemos lo mismo pero esta vez sobre $AB$ en y vértice en $A$.

Figura 3

La intersección de los segundos lados de los ángulos construidos será $\Omega$, el primer punto de Brocard, ahora sobre $\Omega C$ construimos el lugar geométrico de los puntos que subtienden un ángulo igual a $\omega$ con los puntos $\Omega$ y $C$, el cual es un arco de circunferencia.

Este arco puede intersecar a $AB’$ en dos puntos $B$ y $B’’$, entonces obtenemos $\triangle ABC$ y $\triangle ACB’’$, sin embargo, estos dos triángulos son semejantes, si este arco no interseca a $AB$ entonces no hay solución.

$\triangle ABC$ es semejante al triangulo requerido, el cual puede ser construido a partir del lado dado.

$\blacksquare$

Triángulo circunscrito de ceva de los puntos de Brocard

Teorema 3.
$i)$ Los rayos de Brocard intersecan otra vez al circuncírculo del triángulo, en tres puntos que forman un triángulo congruente con el triángulo original,
$ii)$ este triángulo puede ser obtenido rotando el triángulo original un ángulo igual a dos veces su ángulo de Brocard con centro en el circuncentro,
$iii)$ el primer (segundo) punto de Brocard del triángulo original es el segundo (primer) punto de Brocard del triángulo rotado.

Demostración. Sea $\Omega$ el punto positivo de Brocard de $\triangle ABC$, consideremos $B’$, $C’$, $A’$ las segundas intersecciones de $A\Omega$, $B\Omega$, $C\Omega$ con el circuncírculo de $\triangle ABC$.

Figura 4

Entonces,
$\angle B’A’C’ = \angle B’A’C + \angle CA’C’ = \angle B’AC + \angle CBC’ = \angle B’AC + \omega = \angle BAC$.

Igualmente vemos que $\angle B = \angle B’$ y $\angle C’ = \angle C$.

Como $\triangle ABC$ y $\triangle A’B’C’$ son semejantes y están inscritos en el mismo circulo, entonces son congruentes.

Por otro lado, $\angle AOA’ = 2 \angle ACA’ = 2 \omega$.

Finalmente $\angle \Omega A’C’ = \angle CA’C’ = \angle CBC’ = \omega$.

Similarmente, $\angle \Omega C’B’ = \omega = \angle \Omega B’A’$.

Por lo tanto $\Omega$ es el segundo punto de Brocard de $\triangle A’B’C’$.

$\blacksquare$

Corolario 4. Los dos puntos de Brocard de un triángulo son equidistantes del circuncentro del triángulo.

Demostración. Si partimos esta vez del triángulo $\triangle A’B’C’$ y hacemos una rotación un ángulo igual a $2\omega$ con centro en $O$ en el sentido de las manecillas del reloj, entonces su segundo punto de Brocard coincidirá con el segundo punto de Brocard de $\triangle ABC$.

Ya que el segundo punto de Brocard de $\triangle A’B’C’$, es el primer punto de Brocard de $\triangle ABC$, entonces estos puntos son equidistantes a $O$.

$\blacksquare$

Triángulo pedal de los puntos de Brocard

Corolario 5. El triángulo pedal del primer (segundo) punto de Brocard es semejante a su triángulo de referencia, además el primer (segundo) punto de Brocard es el mismo para ambos triángulos.

Demostración. En la figura anterior, sean $\Omega_a$, $\Omega_b$, $\Omega_c$, las proyecciones de $\Omega$ en $BC$, $CA$, $AB$, respectivamente.

En la entrada anterior mostramos que para cualquier punto $\omega$, su triángulo pedal $\triangle \Omega_a\Omega_b\Omega_c$, es semejante a su triángulo circunscrito de Ceva respecto de $\triangle B’C’A’$.

Por el teorema anterior, $\triangle ABC \cong \triangle A’B’C’$, por lo tanto $\triangle \Omega_c\Omega_a\Omega_b \sim \triangle ABC$.

Por otro lado, como $\square \Omega_cB\Omega_a\Omega$ es cíclico entonces
$\angle \Omega\Omega_c\Omega_a = \angle \Omega B\Omega_a = \omega$.

Igualmente vemos que $\angle \Omega\Omega_a\Omega_b = \omega = \angle \Omega\Omega_b\Omega_c$.

La prueba es análoga para el caso del segundo punto de Brocard.

$\blacksquare$

Corolario 6. Los triángulos pedales de los dos puntos de Brocard de un triángulo son congruentes.

Demostración. Como los dos puntos de Brocard de un triángulo son conjugados isogonales, entonces sus triangulo pedales tienen el mismo circuncírculo y como son semejantes, entonces son congruentes.

$\blacksquare$

Más adelante…

Continuando con el tema de geometría de Brocard, en la siguiente entrada hablaremos de la circunferencia de Brocard, veremos que los puntos de Brocard están en esta circunferencia y que estos permiten la construcción de un triángulo que es semejante y esta en perspectiva con el triángulo original.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Prueba que $\cot \omega = \dfrac{a^2 + b^2 + c^2}{4(\triangle ABC)}$.
  2. Muestra que el valor del ángulo de Brocard $\omega$ de un triángulo es a lo mas $\dfrac{\pi}{6}$.
  3. Muestra que los triángulos antipedales de los puntos de Brocard son semejantes a su triangulo de referencia.
  4. Construye un triángulo dados dos lados indefinidos y un punto de Brocard.
  5. Muestra que un rayo de Brocard, una mediana y una simediana, cada uno por un vértice distinto de un triángulo, son concurrentes.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 274-278.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 263-270.
  • Honsberger, R., Episodes in Nineteenth and Twentieth Century Euclidean Geometry. Washington: The Mathematical Association of America, 1995, pp 99-106.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 71-73.
  • Aref, M. y Wernick, W., Problems and Solutions in Euclidean Geometry. New York: Dover, 2010, pp 188-191.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Probabilidad I: Propiedades del Valor Esperado

Por Octavio Daniel Ríos García

Introducción

Continuando con lo visto en la entrada anterior, en esta entrada presentaremos algunas propiedades fundamentales del valor esperado. Lo primero que veremos será el valor esperado de una constante, que será una propiedad muy básica pero de uso muy frecuente en la teoría que veremos.

Por otro lado, veremos un teorema muy importante desde los puntos de vista teórico y práctico, conocido como la ley del estadístico inconsciente. A grandes rasgos, este teorema hará posible obtener el valor esperado de \(g(X)\), donde \(X\) es una v.a. y \(g\) es una función.

Valor esperado de una función constante

La primera propiedad importante es que el valor esperado de una constante es la constante misma. Esto tiene sentido, pues si una v.a. toma un único valor $a \in \RR$, entonces se espera que su promedio a la larga sea $a$.


Propiedad. Sea $a \in \RR$ y $f_{a}\colon\Omega\to\RR$ la función constante $a$, de tal modo que $f_{a}(\omega) = a$ para cada $\omega \in \Omega$. Entonces se tiene que

\begin{align*} \Esp{f_{a}} &= a. \end{align*}

Abusando un poco de la notación, lo anterior significa que para cualquier valor constante $a \in \RR$ se cumple que $\Esp{a} = a$.


Demostración. Sea $a \in \RR$ y sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Se define la función constante $a$ $f_{a}\colon\Omega\to\RR$ como sigue: para cada $\omega\in\Omega$, $f_{a}(\omega) = a$. Se sigue inmediatamente que $f_{a}[\Omega] = \{ a \}$, por lo que $f_{a}$ es una v.a. discreta. De este modo,

\begin{align*} \Esp{f_{a}} &= \sum_{x\in f_{a}[\Omega]} x \Prob{f_{a} = x} \\[1em] &= \sum_{x\in\{a\}} x \Prob{f_{a} = x} \\[1em] &= a \Prob{f_{a} = a} \end{align*}

Ahora, como $f_{a}[\Omega] = \{ a \}$, entonces $f_{a}^{-1}[f_{a}[\Omega]] = f_{a}^{-1}[\{a\}]$, por lo que $\Omega = f_{a}^{-1}[\{ a \}]$. En consecuencia, se tiene que $(f_{a} = a) = \Omega$. Así, llegamos a que

\begin{align*} a \Prob{f_{a} = a} &= a \Prob{ \Omega } = a \cdot 1 = a, \end{align*}

por lo que podemos concluir que

\begin{align*} \Esp{f_{a}} &= a, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Valor esperado de la transformación de una v.a.

Otra propiedad importante del valor esperado surge cuando queremos calcular el valor esperado de la transformación de una v.a. Para hacerlo, aparentemente necesitaríamos obtener la densidad o la masa de probabilidad de la transformación para luego calcular su valor esperado. Afortunadamente, esto no será necesario.

Si $X\colon\Omega\to\RR$ es una v.a. y $g\colon\RR\to\RR$ es una función tal que $g(X)$ es una v.a., hay que recordar que la distribución de $g(X)$ puede obtenerse en términos de la de $X$, por lo que el comportamiento probabilístico de $g(X)$ puede expresarse en términos del de $X$. Debido a esto, ¡también el valor esperado de $g(X)$ puede obtenerse usando la densidad o la masa de probabilidad de $X$!

La ley del estadístico inconsciente

De acuerdo con la discusión anterior, presentamos un teorema que posibilita el cálculo del valor esperado de una v.a. $g(X)$ conociendo únicamente la densidad de $X$. Este resultado es conocido como la ley del estadístico inconsciente. ¡Advertencia! La teoría con la que contamos hasta el momento hace necesario dividir la demostración en dos casos: uno para v.a.’s discretas y otro para v.a.’s continuas. En particular, la demostración para el caso discreto es clara y puedes centrar tu atención en ella, ya que te puede brindar una intuición firme de lo que pasa también en el caso continuo. Por el contrario, la demostración del caso continuo es un poco más técnica, e incluso requiere el uso de herramientas que quizás no hayas visto hasta ahora. Durante la demostración te comentaremos cuáles son estas herramientas, y las materias posteriores de la carrera en donde posiblemente las veas.


Teorema. Sea $X\colon\Omega\to\RR$ una v.a. y $g\colon\RR\to\RR$ una función Borel-medible.

  1. Si $X$ es una v.a. discreta, entonces \begin{align*} \Esp{g(X)} &= \sum_{x \in X[\Omega]} g(x) \Prob{X = x}, \end{align*}siempre que esta suma sea absolutamente convergente.
  2. Si $X$ y $g(X)$ son v.a.’s continuas, entonces \begin{align*} \Esp{g(X)} &= \int_{-\infty}^{\infty} g(x) f_{X}(x) \, \mathrm{d}x, \end{align*} siempre que esta integral sea absolutamente convergente, y donde $f_{X}\colon\RR\to\RR$ es la función de densidad de $X$.

Demostración. 1. El caso discreto sirve para ilustrar la intuición, pues para cada $x \in X[\Omega]$ se tiene que $g(x) \in (g \circ X)[\Omega]$. Además, ya sabemos que para cada $y \in (g \circ X)[\Omega]$ se cumple que

\begin{align*} \Prob{g(X) = y} &= \Prob{X \in g^{-1}[\{ y \}]} = \sum_{x \in g^{-1}[\{y\}]} \Prob{X = x} \end{align*}

por lo que el valor esperado de $g(X)$ cumple que

\begin{align*} \Esp{g(X)} = \sum_{y \in (g \circ X)[\Omega]} y \Prob{g(X) = y} &= \sum_{y \in (g \circ X)[\Omega]} y \Prob{X \in g^{-1}[\{ y \}]} \\[1em] &= \sum_{y \in (g \circ X)[\Omega]} y {\left( \sum_{x \in g^{-1}[\{y\}]} \Prob{X = x} \right)} \\[1em] &= \sum_{y \in (g \circ X)[\Omega]} \sum_{x \in g^{-1}[\{y\}]} y \Prob{X = x}, \end{align*}

y como $x \in g^{-1}[\{y \}]$ si y sólamente si $g(x) = y$, se sigue que

\begin{align*} \sum_{y \in (g \circ X)[\Omega]} \sum_{x \in g^{-1}[\{y\}]} y \Prob{X = x} &= \sum_{y \in (g \circ X)[\Omega]} \sum_{x \in g^{-1}[\{y\}]} g(x) \Prob{X = x}. \end{align*}

Ahora, observa que de acuerdo con la suma sobre $y$, por cada $y \in (g \circ X)[\Omega]$ hay un sumando que tiene la forma

\[ \sum_{x \in g^{-1}[\{y\}]} g(x) \Prob{X = x}, \]

y cada uno de estos términos es una suma que corre sobre $x$, donde $x \in g^{-1}[\{ y \}]$. Es decir, estamos sumando sobre todos los $y \in (g \circ X)[\Omega]$, y en cada $y$ tomamos la suma sobre todos los $x \in g^{-1}[\{y \}]$. Esto quiere decir que podemos mover a $x$ sobre la unión de todos los $g^{-1}[\{y\}]$, y prescindir de la suma sobre $y$. Esto es,

\begin{align*} \bigcup_{y \in (g \circ X)[\Omega]} g^{-1}[\{y\}] &= g^{-1}{\left[ \bigcup_{y \in (g \circ X)[\Omega]} \{y\} \right]} \\[1em] &= g^{-1}[(g \circ X)[\Omega]] \\[1em] &= g^{-1}[g[X[\Omega]]], \end{align*}

y por propiedades de la imagen inversa, se tiene que $X[\Omega] \subseteq g^{-1}[g[X[\Omega]]]$. Ahora bien, los $x$ que aparecen en la suma son únicamente aquellos que están en $X[\Omega]$, pues de lo contrario son valores que no toma la v.a. $X$. En consecuencia, la suma se puede reducir a

\begin{align*} \sum_{y \in (g \circ X)[\Omega]} \sum_{x \in g^{-1}[\{y\}]} g(x) \Prob{X = x} &= \sum_{x\in X[\Omega]} g(x) \Prob{X = x}, \end{align*}

y así podemos concluir que

\begin{align*} \Esp{g(X)} &= \sum_{x \in X[\Omega]} g(x) \Prob{X = x}, \end{align*}

que es justamente lo que queríamos demostrar. Intuitivamente, esta última igualdad hace sentido, pues $g(X)$ toma el valor $g(x)$ cuando $X$ toma el valor $x$, y el evento en el que eso ocurre tiene probabilidad $\Prob{X = x}$.

La demostración del caso 2. es menos ilustrativa. Cuando $X$ y $g(X)$ son v.a.’s continuas, será necesario hacer una «doble integral», algo con lo que quizás no te hayas encontrado hasta ahora. Esto es algo que (por desgracia) haremos en algunas demostraciones del valor esperado.

Primero, demostraremos el siguiente lema:


Lema. Si $X\colon\Omega\to\RR$ es una v.a. continua tal que para todo $\omega\in\Omega$ se cumple que $X(\omega) \geq 0$ (es decir, $X$ es una v.a. no-negativa), entonces

\begin{align*} \Esp{X} &= \int_{0}^{\infty} [1 − F_{X}(x)] \, \mathrm{d}x, \end{align*}

donde $F_{X}\colon\RR\to\RR$ es la función de distribución de $X$.


Demostración. Sea $D \subseteq \RR^{2}$ el siguiente conjunto:

\begin{align*} D &= \{ \, (x,y) \in \RR^{2} \mid x > y \, \}. \end{align*}

Sea $\mathbf{1}_{D}\colon\RR^{2}\to\RR$ la función dada por

\begin{align*} \mathbf{1}_{D}(x,y) &= \begin{cases} 1 & \text{si $(x,y) \in D$}, \\[1em] 0 & \text{en otro caso}. \end{cases} \end{align*}

Es decir, $\mathbf{1}_{D}(x,y)$ vale $1$ si $(x,y) \in D$, es decir, vale $1$ si $x$ es mayor a $y$; y vale $0$ en caso contrario. Una función de este tipo es conocida como una función indicadora. Ahora, observa que para cualquier $x \in [0, \infty)$ se cumple que

\begin{align*} x &= \int_{0}^{x} 1 \, \mathrm{d}t, \tag{$*$}\end{align*}

pues la integral devuelve como resultado la longitud del intervalo $(0, x)$, que está bien definido, ya que $x \geq 0$. Dicha longitud es precisamente $x − 0 = x$, por lo que la igualdad $(*)$ es verdadera. Ahora, observa que $\mathbf{1}_{D}(x, t) = 1$ si y sólamente si $x > t$, o equivalentemente, si $t \in (-\infty, x)$. Así, tenemos que

\begin{align*} \int_{0}^{x} 1 \, \mathrm{d}t &= \int_{0}^{\infty} \mathbf{1}_{D}(x, t) \, \mathrm{d}t, \end{align*}

pues para $t \in (0, \infty)$, $\mathbf{1}_{D}(x, t) = 1$ sobre $(0, x)$, y es $0$ en otro caso. En conclusión, para cualquier $x \in [0, \infty)$ se cumple que

\begin{align}\label{id:integral} x &= \int_{0}^{\infty} \mathbf{1}_{D}(x, t) \, \mathrm{d}t. \end{align}

Usaremos esta «mañosa» identidad en el valor esperado de $X$. Primero, observa que $X$ es una v.a. no-negativa, así que $f_{X}(x) = 0$ para $x < 0$. En consecuencia, tenemos que

\begin{align*} \Esp{X} &= \int_{-\infty}^{\infty} x f_{X}(x) \, \mathrm{d}x = \int_{0}^{\infty} x f_{X}(x) \, \mathrm{d}x. \end{align*}

Usando la identidad \eqref{id:integral}, obtenemos que

\begin{align*} \int_{0}^{\infty} x f_{X}(x) \, \mathrm{d}x &= \int_{0}^{\infty}{\left( \int_{0}^{\infty} \mathbf{1}_{D}(x, t) \, \mathrm{d}t \right)} f_{X}(x) \, \mathrm{d}x = \int_{0}^{\infty}\int_{0}^{\infty} \mathbf{1}_{D}(x, t) f_{X}(x) \, \mathrm{d}t \, \mathrm{d}x. \end{align*}

Observa que «metimos» a $f_{X}(x)$ dentro de la integral respecto a $t$ debido a que es una constante con respecto a $t$ (únicamente depende de $x$). La trampa que vamos a hacer es cambiar el orden de integración. Esto NO siempre se puede hacer, y la validez de este paso está dada por el teorema de Fubini, que verás en Cálculo Diferencial e Integral IV. Intercambiando el orden de integración, se tiene que

\begin{align*} \int_{0}^{\infty}\int_{0}^{\infty} \mathbf{1}_{D}(x, t) f_{X}(x) \, \mathrm{d}t \, \mathrm{d}x &= \int_{0}^{\infty}\int_{0}^{\infty} \mathbf{1}_{D}(x, t) f_{X}(x) \, \mathrm{d}x \, \mathrm{d}t \end{align*}

Ahora, observa que, para cada $x \in (0, \infty)$, $\mathbf{1}_{D}(x, t) = 1$ si y sólamente si $x > t$, o equivalentemente, si $x \in (t, \infty)$. En consecuencia,

\begin{align*} \int_{0}^{\infty} \mathbf{1}_{D}(x, t) f_{X}(x) \, \mathrm{d}x &= \int_{t}^{\infty} f_{X}(x) \, \mathrm{d}x = \Prob{ X > t } = 1 − F_{X}(t). \end{align*}

Por lo tanto,

\begin{align*}\int_{0}^{\infty}\int_{0}^{\infty} \mathbf{1}_{D}(x, t) f_{X}(x) \, \mathrm{d}x \, \mathrm{d}t &= \int_{0}^{\infty} [1 − F_{X}(t)] \, \mathrm{d}t, \end{align*}

que nos permite concluir que

\begin{align*} \Esp{X} &= \int_{0}^{\infty} [1 − F_{X}(t)] \, \mathrm{d}t, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Con este lema podemos demostrar el caso 2. del teorema. Lo que haremos será presentar el caso en el que $g$ es una función no-negativa. De esta manera, $g(X)$ es una v.a. que toma valores no-negativos, y podemos aplicarle el lema. Así, tenemos que

\begin{align*} \Esp{g(X)} &= \int_{0}^{\infty} [1 − F_{X}(x)] \, \mathrm{d}x = \int_{0}^{\infty} \Prob{g(X) > x} \, \mathrm{d}x \end{align*}

Ahora, recuerda que \begin{align*} (g(X) > x) = (g \circ X)^{-1}[(x, \infty)] = X^{-1}[g^{-1}[(x,\infty)]] = (X \in g^{-1}[(x, \infty)], \end{align*} por lo que $\Prob{g(X) > x} = \Prob{X \in g^{-1}[(x, \infty)]}$. Por lo tanto,

\begin{align*} \int_{0}^{\infty} \Prob{g(X) > x} \, \mathrm{d}x &= \int_{0}^{\infty} {\left( \int_{g^{-1}[(x,\infty)]} f_{X}(t) \, \mathrm{d}t \right) } \, \mathrm{d}x \end{align*}

donde la integral de adentro se toma sobre $g^{-1}[(x, \infty)]$, pues esto nos devuelve el valor $\Prob{X \in g^{-1}[(x, \infty)]}$. Nuevamente haremos trampa y cambiaremos el orden de integración. Un detalle adicional es que al cambiar el orden de integración, también cambian los dominios de integración.

\begin{align*} \int_{0}^{\infty} \int_{g^{-1}[(x,\infty)]} f_{X}(t) \, \mathrm{d}t \, \mathrm{d}x &= \int_{g^{-1}[(0,\infty)]} \int_{0}^{g(t)} f_{X}(t) \, \mathrm{d}x \, \mathrm{d}t \end{align*}

Finalmente, como $f_{X}(t)$ es constante respecto a $x$, puede salir como constante de la integral de adentro, y además

\begin{align*} \int_{0}^{g(t)} 1 \, \mathrm{d}x &= g(t) − 0 = g(t), \end{align*}

por lo que

\begin{align*} \int_{g^{-1}[(0,\infty)]} \int_{0}^{g(t)} f_{X}(t) \, \mathrm{d}x \, \mathrm{d}t &= \int_{g^{-1}[(0,\infty)]} {\left(\int_{0}^{g(t)} 1 \, \mathrm{d}x \right)} f_{X}(t) \, \mathrm{d}t \\[1em] &= \int_{g^{-1}[(0,\infty)]} g(t) f_{X}(t) \, \mathrm{d}t, \\[1em] &= \int_{-\infty}^{\infty} g(t) f_{X}(t) \, \mathrm{d}t,\end{align*}

donde $g^{-1}[(0,\infty)] = \RR$ porque $g$ es una función no-negativa. Así, finalmente podemos concluir que

\begin{align*} \Esp{g(X)} &= \int_{-\infty}^{\infty} g(t) f_{X}(t) \, \mathrm{d}t, \end{align*}

que es justo lo que queríamos demostrar.

$\square$

Como comentamos anteriormente, el teorema que acabamos de demostrar es conocido como la ley del estadístico inconsciente. De acuerdo con Sheldon M. Ross, en su libro Introduction to Probability Models (1980, 1a Ed.) «Esta ley recibió su nombre por los estadísticos ‘inconscientes’ que la han utilizado como si fuese la definición de $\Esp{g(X)}$».

Figura. Extracto del libro Statistical Inference, de George Casella y Roger Berger (2001, 2a Ed.), en el que los autores expresan su descontento por el nombre de este teorema.

Independientemente de esto, la ley del estadístico inconsciente es un resultado muy importante, y la utilizaremos mucho de aquí en adelante.

Ejemplos del uso de la ley del estadístico inconsciente

Ejemplo 1. Sea \(U\) una v.a. con función de densidad \(f_{U}\) dada por

\begin{align*} f_{U}(u) &= \begin{cases} \lambda e ^{ − \lambda x} & \text{si \(x > 0\),} \\[1em] 0 & \text{en otro caso,} \end{cases} \end{align*}

con \(\lambda > 1\). Obtengamos el valor esperado de \(e^{U}\). Para ello, usemos la ley del estadístico inconsciente:

\begin{align*} \Esp{U} &= \int_{0}^{\infty} e^{u} \lambda e^{-\lambda u} \, \mathrm{d}u \\[1em] &= \int_{0}^{\infty} \lambda e^{-\lambda u + u} \, \mathrm{d}u\\[1em] &= \lambda \int_{0}^{\infty} e^{(1 − \lambda)u} \, \mathrm{d}u.\end{align*}

Para resolver esta integral, observa que se trata de una integral casi inmediata, únicamente le falta el factor \(1 − \lambda\), por lo que multiplicamos por \(1\):

\begin{align*} \lambda \int_{0}^{\infty} e^{(1 − \lambda)u} \, \mathrm{d}u &= \lambda \int_{0}^{\infty} {\left(\frac{ 1 − \lambda }{ 1 − \lambda }\right)}e^{(1 − \lambda)u} \, \mathrm{d}u \\[1em] &= \frac{\lambda}{1 − \lambda} \int_{0}^{\infty} ( 1 − \lambda)e^{( 1 − \lambda )u} \, \mathrm{d}u \\[1em] &= \frac{\lambda}{1 − \lambda} {\left( e^{( 1 − \lambda )u} \right)} \Bigg|_{u=0}^{\infty} \\[1em] &= \frac{\lambda}{1 − \lambda} {\left( 0 − 1 \right)} \\[1em] \frac{\lambda}{1 − \lambda} {\left(− 1 \right)} \\[1em] &= \frac{\lambda}{\lambda − 1}, \end{align*}

así que concluimos que

\begin{align*} \Esp{e^{U}} = \frac{\lambda}{\lambda − 1}. \end{align*}


Ejemplo 2. Sea \(N\) una variable aleatoria con función de masa de probabilidad (f.m.p.) \(f_{N}\) dada por

\begin{align*} f_{N}(n) &= \begin{cases} (1 − p)^{n}p & \text{si \(n \in \mathbb{N}\),} \\[1em] 0 & \text{en otro caso,} \end{cases}\end{align*}

con \(p \in (0,1)\). Obtengamos el valor esperado de \(N^{2}\). Por la ley del estadístico inconsciente, tenemos que

\begin{align} \label{eq:serie1} \Esp{N^{2}} &= \sum_{n=0}^{\infty} n^{2} (1 − p)^{n}p. \end{align}

Como usualmente pasa con los valores esperados de v.a.’s que toman el valor \(0\), el primer término de la serie \eqref{eq:serie1} es \(0\), así que la igualdad anterior pasa a ser

\begin{align*} \Esp{N^{2}} &= \sum_{n=1}^{\infty} n^{2} (1 − p)^{n}p. \end{align*}

Para obtener el valor de la serie anterior, vamos a utilizar una expresión equivalente basada en la siguiente identidad: sea \(n\in\mathbb{N}^{+}\), entonces se cumple que

\begin{align} \label{eq:identidad} n^{2} − (n − 1)^{2} &= 2n − 1. \end{align}

Ahora, observa con atención las siguientes dos series.

\begin{align} \label{eq:serie2} \Esp{N^{2}} &= \sum_{n=1}^{\infty} n^{2} (1 − p)^{n}p = (1 − p)p + 4(1 − p)^{2}p + 9 (1 − p)^{3}p + \cdots \\[1em] \label{eq:serie3} (1 − p)\Esp{N^{2}} &= \sum_{n=1}^{\infty} n^{2} (1 − p)^{n+1}p = (1 − p)^{2}p + 4 (1 − p)^{3}p + 9 (1 − p)^{4}p + \cdots \end{align}

Es decir, multiplicar la serie \eqref{eq:serie2} por \( (1 − p)\) nos da la \eqref{eq:serie3}, que simplemente «desplaza» el índice por \(1\). Por ello, se tiene que

\begin{align*} \Esp{N^{2}} − (1 − p)\Esp{N^{2}} &= (1 − p)p + 3 (1 − p)^{2}p + 5 (1 − p)^{3}p + \cdots = \sum_{n=1}^{\infty} (n^{2} − (n − 1)^{2})(1 − p)^{n}p, \end{align*}

donde tal vez alcances a notar cómo se usará la identidad \eqref{eq:identidad}. En efecto, por esta identidad tenemos que

\begin{align*} \Esp{N^{2}} − (1 − p)\Esp{N^{2}} &= \sum_{n=1}^{\infty} (n^{2} − (n − 1)^{2})(1 − p)^{n}p = \sum_{n=1}^{\infty} (2n − 1)(1 − p)^{n}p \end{align*}

Además, nota que \(\Esp{N^{2}} − (1 − p)\Esp{N^{2}} = p\Esp{N^{2}}\), así que

\begin{align} \label{eq:serie4} p\Esp{N^{2}} &= \sum_{n=1}^{\infty} (2n − 1)(1 − p)^{n}p. \end{align}

Usaremos la igualdad \eqref{eq:serie4} más adelante. Por ahora, centraremos nuestra atención en desarrollar la serie en \eqref{eq:serie4}. Primero, recuerda que la serie debe de ser convergente para que los siguientes pasos tengan sentido, así que revisa la tarea moral en caso de que lo dudes. Así pues, tenemos que

\begin{align*} \sum_{n=1}^{\infty} (2n − 1)(1 − p)^{n}p &= \sum_{n=1}^{\infty} 2n(1 − p)^{n}p − \sum_{n=1}^{\infty} (1 − p)^{n}p \\[1em] &= 2\underbrace{\sum_{n=1}^{\infty} n(1 − p)^{n}p}_{(*)} − \underbrace{\sum_{n=1}^{\infty} (1 − p)^{n}p}_{(**)}. \end{align*}

Por un lado, observa que la expresión \((*)\) es el valor esperado de \(N\) (y ya calculamos ese valor esperado en la entrada pasada), así que \((*) = \frac{ 1 − p }{p}\). Por otro lado, la expresión \((*)\) es casi la suma de las probabilidades de \(N\), por lo que debería de ser \(1\) menos el término en \(0\), ya que la suma empieza en \(1\). Veámoslo:

\begin{align*} \sum_{n=1}^{\infty} (1 − p)^{n}p &= p − p + \sum_{n=1}^{\infty} (1 − p)^{n}p \\[1em] &= {\left[\sum_{n=0}^{\infty} (1 − p)^{n}p\right]} − p \\[1em] &= p\underbrace{\left[\sum_{n=0}^{\infty} (1 − p)^{n}\right]}_{\text{serie geométrica}} − p \\[1em] &= p \frac{1}{1 − (1 − p)} − p \\[1em] &= p\frac{1}{p} − p \\[1em] &= 1 − p. \end{align*}

Por lo tanto, tenemos que

\begin{align*} \sum_{n=1}^{\infty} (2n − 1)(1 − p)^{n}p &= 2\underbrace{\sum_{n=1}^{\infty} n(1 − p)^{n}p}_{(*)} − \underbrace{\sum_{n=1}^{\infty} (1 − p)^{n}p}_{(**)} \\[1em] &= \frac{2 (1 − p) }{p} − (1 − p) \\[1em] &= \frac{2(1 − p) − p(1 − p)}{p} \\[1em] &= \frac{2 − 2p − p + p^{2} }{p} \\[1em] &= \frac{2 − 3p + p^{2}}{p} \\[1em] &= \frac{(2 − p)(1 − p)}{p}. \end{align*}

En consecuencia, volviendo a \eqref{eq:serie4}, tenemos que

\begin{align*} p\Esp{N^{2}} &= \frac{(2 − p)(1 − p)}{p}, \end{align*}

por lo que en conclusión

\begin{align*} \Esp{N^{2}} &= \frac{(2 − p)(1 − p)}{p^{2}}, \end{align*}

que es justamente lo que queríamos obtener.


Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra el caso 2. de la ley del estadístico inconsciente cuando $g$ es una función cualquiera. Sugerencia: Toma la siguiente descomposición de $g$: definimos la parte positiva de $g$, $g^{+}\colon\RR\to\RR$, como sigue: \begin{align*} g^{+}(x) &= \max{\{ g(x), 0 \}} & \text{para cada $x \in \RR$},\end{align*} y definimos la parte negativa de $g$, $g^{-}\colon\RR\to\RR$, como sigue: \begin{align*} g^{-}(x) &= \max{\{ -g(x), 0 \}} & \text{para cada $x \in \RR$}.\end{align*} Verifica que $g$ puede escribirse en términos de $g^{+}$ y $g^{-}$ como\begin{align*} g = g^{+} − g^{-}, \end{align*}y nota que tanto $g^{+}$ como $g^{-}$ son funciones no-negativas. Concluye utilizando lo que demostramos en esta entrada.
  2. Verifica que la serie \eqref{eq:serie1} es convergente. Sugerencia: Utiliza algún criterio de convergencia como el de d’Alembert.
  3. Demuestra la validez de la identidad \eqref{eq:identidad}.

Más adelante…

La ley del estadísico inconsciente es un teorema muy útil en contextos teóricos y aplicados. De hecho, la utilizaremos con mucha frecuencia en la Unidad 3, ya que veremos algunas características de algunas distribuciones de probabilidad importantes.

Por otro lado, en la siguiente entrada veremos más propiedades del valor esperado, centrando nuestra atención en aquellas propiedades que involucran a más de una variable aleatoria.

Entradas relacionadas