Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Probabilidad I: Más Propiedades del Valor Esperado

Por Octavio Daniel Ríos García

Introducción

Como parte de nuestro estudio del valor esperado, en esta entrada abordaremos algunas más de sus propiedades. En la entrada antepasada vimos un primer conjunto de propiedades, y probablemente habrás notado que se trataba de propiedades en las que sólamente había una v.a. Por el contrario, conforme a lo visto en la entrada anterior, las propiedades que veremos en esta entrada involucran a más de una v.a., así que necesitaremos algunos de los elementos básicos de probabilidad multivariada que vimos.

En esta entrada centraremos nuestra atención en ver cómo interactúa el valor esperado con dos operaciones de variables aleatorias: la suma y el producto. Veremos que el valor esperado de la suma de dos v.a.’s se comporta de forma muy agradable, y podremos decir que es lineal. No obstante, el valor esperado del producto de dos v.a.’s requerirá de una condición extra para poder comportarse de manera agradable.

Linealidad con respecto a escalares

Una consecuencia de la ley del estadístico inconsciente es una primera propiedad de linealidad del valor esperado, con respecto a constantes reales.


Propiedad 1. Sea $X\colon\Omega\to\RR$ una variable aleatoria y sean $a$, $b \in \RR$. Entonces se cumple que

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b \end{align*}


Demostración. Sea $g\colon\RR\to\RR$ la transformación dada por

\begin{align*} g(x) &= ax + b & \text{para cada $x \in \RR$}.\end{align*}

De este modo, $g(X) = aX + b$. Aplicando la ley del estadístico inconsciente, se sigue que:

  1. Si $X$ es una v.a. discreta, entonces \begin{align*} \Esp{g(X)} &= \sum_{x \in X[\Omega]} g(x) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} (ax + b) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} {\left( ax\Prob{X = x} + b\Prob{X = x}\right)} \\[1em] &= a \sum_{x\in X[\Omega]} x \Prob{X = x} + \sum_{x\in X[\Omega]} b \Prob{X = x} \\[1em] &= a\Esp{X} + \Esp{b} \\[1em] &= a\Esp{X} + b, \end{align*}por lo que es cierto en el caso discreto.
  2. Si $X$ es una v.a. continua, entonces $g(X)$ es una v.a. continua (porque $g$ es una transformación continua). Así, tenemos que \begin{align*} \Esp{g(X)} &= \int_{-\infty}^{\infty} g(x) f_{X}(x) \, \mathrm{d}x, \\[1em] &= \int_{-\infty}^{\infty} (ax + b) f_{X}(x) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} (axf_{X}(x) + bf_{X}(x)) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} axf_{X}(x) \, \mathrm{d}x + \int_{-\infty}^{\infty} bf_{X}(x) \, \mathrm{d}x \\[1em] &= a \int_{-\infty}^{\infty} xf_{X}(x) \, \mathrm{d}x + b\int_{-\infty}^{\infty} f_{X}(x) \, \mathrm{d}x \\[1em] &= a\Esp{X} + b, \end{align*}por lo que también es cierto en el caso continuo.

Por lo tanto, podemos concluir que si $X$ es una v.a. y $a$ y $b \in \RR$ son constantes reales, entonces

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Es importante notar que para \(a = 1\), la propiedad anterior nos dice que para cualquier \(b \in \RR\) se cumple que

\begin{align*} \Esp{X + b} &= \Esp{X} + b, \end{align*}

lo cual es muy natural: si la v.a. \(X\) tiene una tendencia central hacia \(\Esp{X}\), entonces el comportamiento aleatorio de \(X + b\) estará centrado alrededor de \(\Esp{X} + b\), pues el valor \(b\) está fijo.

Valor esperado de la suma de v.a.’s

Dadas $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ dos v.a.’s definidas sobre el mismo espacio de probabilidad, podemos definir la v.a. $(X+Y)\colon\Omega\to\RR$ dada por

\begin{align*} (X+Y)(\omega) &= X(\omega) + Y(\omega) & \text{para cada $\omega\in\Omega$}. \end{align*}

Ahora, si por alguna razón queremos calcular el valor esperado de $X+Y$, podríamos caer en la trampa de utilizar directamente la definición, e intentaríamos calcular

\begin{align*} \Esp{X+Y} &= \sum_{z \in (X+Y)[\Omega]} z \Prob{X + Y = z}, \end{align*}

en caso de que $X+Y$ sea discreta; o

\begin{align*} \Esp{X+Y} &= \int_{-\infty}^{\infty} z f_{X+Y}(z) \, \mathrm{d}z, \end{align*}

donde $f_{X+Y}\colon\RR\to\RR$ es la función de densidad de $X+Y$… algo que inicialmente no poseemos, incluso si las distribuciones de $X$ y de $Y$ son conocidas. Sin embargo, no es necesario hacer nada de esto: ¡el valor esperado es lineal! Esto lo enunciamos en la siguiente propiedad.


Propiedad 2. Sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ variables aleatorias con valor esperado finito definidas sobre el mismo espacio de probabilidad. Entonces

\begin{align*} \Esp{X + Y} &= \Esp{X} + \Esp{Y}. \end{align*}


Demostración. Demostraremos el caso en el que $X$ y $Y$ son v.a.’s discretas. Para ello, podemos recurrir directamente a la definición formal de valor esperado.

\begin{align*} \Esp{X + Y} &= \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}}. \end{align*}

Sabemos que $(X + Y)(\omega) = X(\omega) + Y(\omega)$, por lo que

\begin{align*} \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}} &= \sum_{\omega\in\Omega} (X(\omega) + Y(\omega)) \Prob{\{\omega\}} \\[1em] &=\sum_{\omega\in\Omega} {\left[X(\omega)\Prob{\{\omega\}} + Y(\omega)\Prob{\{\omega\}} \right]} \\[1em] &= \sum_{\omega\in\Omega} X(\omega) \Prob{\{\omega\}} + \sum_{\omega\in\Omega} Y(\omega) \Prob{\{\omega\}} \\[1em] &= \Esp{X} + \Esp{Y}, \end{align*}

por lo que $\Esp{X + Y} = \Esp{X} + \Esp{Y}$, que es justamente lo que queríamos demostrar.

$\square$

Por otro lado, omitiremos el caso cuando $X$ y $Y$ son v.a.’s continuas, pues la demostración (a este nivel) requiere de hacer más trampa, utilizando además una variante multivariada de la ley del estadístico inconsciente. No obstante, para propósitos de este curso, podrás asumir que el valor esperado es lineal en el caso discreto y en el continuo.

Valor esperado del producto de v.a.’s

De manera similar a la suma, dadas \(X\colon\Omega\to\RR\), \(Y\colon\Omega\to\RR\) v.a.’s, se define el producto de \(X\) con \(Y\) como la función \((XY)\colon\Omega\to\RR\) dada por

\begin{align*} (XY)(\omega) &= X(\omega) Y(\omega) & \text{para cada \(\omega\in\Omega\)}. \end{align*}

Es natural preguntarnos, ¿cómo se comporta esta operación con respecto al valor esperado? ¿Se comporta igual que la suma? Es decir, ¿será cierto que para cualesquiera v.a.’s \(X\) y \(Y\) se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}? \end{align*}

La respuesta es que no, y te ofrecemos el siguiente ejemplo.

Ejemplo 1. Sean \(X\), \(Y\) v.a.’s con función de masa de probabilidad conjunta \(p_{X,Y}\colon\RR^{2}\to\RR\) dada por los valores en la siguiente tabla:

\(X\)
-11\(p_{Y}(y) \)
\(Y\)00.10.40.5
10.40.10.5
\(p_{X}(x)\)0.50.5

De este modo, se tiene que

\begin{align*} p_{X,Y}(-1,0) &= \Prob{X= -1, Y = 0} = 0.1, \\[1em] p_{X,Y}(1,0) &= \Prob{X = 1, Y = 0} = 0.4, \end{align*}

etcétera. En los extremos de la tabla hemos colocado las funciones de masa de probabilidad marginal de \(X\) y de \(Y\). Con ellas podemos calcular \(\Esp{X}\) y \(\Esp{Y}\) como sigue:

\begin{align*} \Esp{X} &= (−1)\cdot p_{X}(−1) + 1 \cdot p_{X}(1) = (−0.5) + 0.5 = 0, \\[1em] \Esp{Y} &= 0\cdot p_{Y}(0) + 1 \cdot p_{Y}(1) = 0 + 0.5 = 0.5. \end{align*}

Así, obtenemos que \(\Esp{X}\Esp{Y} = 0 \cdot 0.5 = 0\). Por otro lado, observa que \(XY\) puede tomar alguno de tres posibles valores: \(0\), \(1\) y \(-1\). \(XY\) vale \(0\) cuando \(Y\) toma el valor \(0\) y \(X\) toma cualquier valor; mientras que \(XY = 1\) cuando \(Y=1\) y \(X = 1\); y además \(XY = -1\) cuando \(Y=1\) y \(X=-1\). Esto nos da todas las probabilidades de \(XY\), que son

\begin{align*} \Prob{XY = 0} &= \Prob{X = 1, Y = 0} + \Prob{X = -1, Y = 0} = 0.4 + 0.1 = 0.5, \\[1em] \Prob{XY=1} &= \Prob{X=1,Y=1} = 0.1, \\[1em] \Prob{XY=-1} &= \Prob{X=-1,Y=0} = 0.4, \end{align*}

así que \(XY\) es una v.a. con función de masa de probabilidad \(p_{XY}\colon\RR\to\RR\) dada por

\begin{align*} p_{XY}(z) &= \begin{cases} 0.4 & \text{si \(z=-1\)}, \\[1em] 0.5 & \text{si \(z = 0\)}, \\[1em] 0.1 & \text{si \(z=1\)}, \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

Por lo tanto, el valor esperado de \(XY\) es

\begin{align*} \Esp{XY} &= (-1)\cdot p_{XY}(-1) + 0\cdot p_{XY}(0) + 1\cdot p_{XY}(1) = −0.4 + 0 + 0.1 = −0.3, \end{align*}

así que claramente \(\Esp{XY} \neq \Esp{X}\Esp{Y}\).


Sin embargo, hay una condición bajo la cual sí se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\), que está dada por el siguiente teorema:


Teorema 1. Si \(X\), \(Y\) son variables aleatorias independientes, entonces se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}. \end{align*}


La demostración de este teorema requiere de más acrobacias tramposas (a este nivel) con integrales múltiples, por lo que la omitiremos.

Observa que el teorema establece que si \(X\) y \(Y\) son v.a.’s independientes, entonces se tendrá que \(\Esp{XY} = \Esp{X}\Esp{Y}\). La implicación conversa no es verdadera, existen v.a.’s no-independientes que satisfacen \(\Esp{XY} = \Esp{X}\Esp{Y}\).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. ¿Cómo interpretas la linealidad del valor esperado? Es decir, sabemos que si \(X\) es una v.a., entonces \(\Esp{X}\) es el «centroide esperado» al obtener muchas observaciones de \(X\), ¿cómo se interpreta que \(\Esp{X + Y} = \Esp{X} + \Esp{Y}\)?
  2. Por otro lado, no siempre se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\). ¿Por qué pasa esto con el producto?
  3. Construye dos v.a.’s \(X\) y \(Y\) tales que \(\Esp{XY} = \Esp{X}\Esp{Y}\), pero de tal manera que \(X\) y \(Y\) no sean independientes. Sugerencia: Para asegurar la no-independencia, escoge una v.a. \(X\) sencilla (como las del Ejemplo 1), y toma a \(Y = g(X)\), donde \(g\) es una transformación conveniente.

Más adelante…

Debido a que el valor esperado es un concepto muy importante en la teoría (y en la práctica) de la probabilidad, las propiedades presentadas en esta entrada y la anterior son muy importantes, y te encontrarás con ellas muy a menudo. Además, en las materias de Probabilidad II y Procesos Estocásticos I verás temas que involucran más de una variable aleatoria (probabilidad multivariada) en los que utilizarás las propiedades vistas en esta entrada (y otras muy parecidas, pero más generales).

Volviendo a nuestro curso, en la entrada siguiente veremos otro valor asociado a una distribución de probabilidad: la varianza.

Entradas relacionadas

Probabilidad I: Interacciones Entre Variables Aleatorias

Por Octavio Daniel Ríos García

Introducción

En esta entrada veremos una breve introducción a las interacciones básicas entre dos v.a.’s. En una entrada previa vimos cómo se interpretaban las operaciones con eventos, y después vimos algunos conceptos asociados a la interacción entre eventos, como es el caso de la definición de independencia. De manera similar, es razonable que definamos ciertos conceptos para describir el comportamiento probabilístico de dos variables aleatorias de manera conjunta.

Primero, un poco de notación

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ dos variables aleatorias. Aquí estamos siendo muy explícitos con el hecho de que el dominio de ambas v.a.’s debe de ser el mismo. Esto es importante porque los eventos que involucran a $X$ y a $Y$ deben de ser elementos del mismo σ-álgebra. Además, las operaciones entre v.a.’s están bien definidas siempre y cuando estas tengan el mismo dominio, pues se definen puntualmente.

Primero, demos un poco de notación. Sean $A$ y $B \in \mathscr{B}(\RR)$. Para denotar la probabilidad del evento en el que $X \in A$ y $Y \in B$ se sigue la siguiente notación:

\begin{align*} \Prob{X \in A, Y \in B} &= \Prob{(X \in A)\cap(Y \in B)}. \end{align*}

Es decir, $(X \in A, Y \in B)$ es la notación para expresar el evento $(X \in A) \cap (Y \in B)$. Observa que este conjunto sí es un evento, pues $X$ y $Y$ son v.a.’s, así que tanto $(X \in A)$ como $(Y \in B)$ son elementos de $\mathscr{F}$, así que también su intersección lo es.

De este modo, podemos expresar muchas probabilidades de intersecciones de eventos de forma más compacta. Por ejemplo:

\begin{align*} \Prob{X = x, Y = y} &= \Prob{(X = x) \cap (Y = y)}, \\[1em] \Prob{X \leq x, Y \leq y} &= \Prob{(X \leq x) \cap (Y \leq y)}, \end{align*}

etcétera.

Independencia de variables aleatorias

En la Unidad 1 de este curso hablamos sobre la independencia de eventos. El paso que sigue ahora es definir la noción de independencia de variables aleatorias. De manera similar a los eventos, que $X$ y $Y$ sean variables aleatorias independientes significa que un evento que involucra a $X$ no afecta las probabilidades de $Y$. Por ello, la noción de independencia se dará en términos de eventos.


Definición 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Diremos que $X$ y $Y$ son independientes si y sólamente si para todo $A$, $B \in \mathscr{B}(\RR)$ se cumple

\begin{align*} \Prob{X \in A, X \in B} &= \Prob{X \in A} \Prob{X \in B}. \end{align*}


También es posible caracterizar la independencia de v.a.’s mediante sus funciones de distribución. Para ello, es necesario definir el concepto de función de distribución conjunta de dos v.a.’s. Esta se define como sigue:


Definición 2. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Se define la función de distribución conjunta de $X$ y $Y$, $F_{X,Y}\colon\RR^{2}\to\RR$, como sigue:

\begin{align*} F_{X,Y}(x,y) &= \Prob{X \leq x, Y \leq y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Esta es una «generalización» multidimensional de la función de distribución de una variable aleatoria. Es decir, sabemos que \(\Prob{X \leq x}\) es la probabilidad de que la v.a. \(X\) tome un valor dentro del intervalo \((-\infty, x]\). De manera similar, \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que las v.a.’s \(X\) y \(Y\) tomen un valor dentro del intervalo \((-\infty, x]\) y \((-\infty, y]\), respectivamente. Esto es, si pensamos a \((X, Y)\) como un punto aleatorio en \(\RR^{2}\), entonces \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que \((X,Y)\) sea un punto dentro del rectángulo \((-\infty, x] \times (-\infty, y]\).

El siguiente teorema nos brinda un criterio de independencia más sencillo que el de la Definición 1:


Teorema 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Las siguientes proposiciones son equivalentes:

  1. $X$ y $Y$ son independientes.
  2. Para cualesquiera $x$, $y \in \RR$ se cumple \begin{align*} F_{XY}(x,y) &= F_{X}(x) F_{Y}(y). \end{align*}

Demostrar que 1. implica a 2. no es complicado, y lo dejamos como tarea moral. Por otro lado, demostrar 2. implica a 1. rebasa los contenidos de este curso, por lo que omitiremos esta parte de la demostración.

Este teorema hace más sencillo verificar si dos v.a.’s son independientes o no lo son. Primero, porque el trabajo se reduce a trabajar con las funciones de distribución. Además, a continuación veremos que es posible recuperar las funciones de probabilidad (masa y densidad) a partir de las funciones de probabilidad conjunta. Por ello, podremos verificar si dos v.a.’s son independientes comparando su distribución conjunta con el producto de sus distribuciones univariadas, gracias al Teorema 1.

Funciones de probabilidad conjunta para v.a.’s discretas

Al haber definido la función de distribución conjunta, se desprenden dos casos importantes: el caso discreto y el caso continuo. En el caso en el que $X$ y $Y$ son v.a.’s discretas, es posible definir la función de masa de probabilidad conjunta de $X$ y $Y$. Esta se define como sigue.


Definición 3. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ v.a.’s discretas. Se define la función de masa de probabilidad conjunta de $X$ y $Y$, $p_{X,Y}\colon\RR^{2}\to\RR$ como sigue:

\begin{align*} p_{X,Y}(x, y) &= \Prob{X = x, Y = y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Es decir, el valor $p_{X,Y}(x,y)$ es la probabilidad de que $X$ tome el valor $x$ y $Y$ tome el valor $y$. Ahora, antes de seguir, es recomendable que recuerdes el teorema de probabilidad total que vimos en una entrada previa. Sabemos que $Y[\Omega]$ es un conjunto a lo más infinito numerable, pues $Y$ es una v.a. discreta. Por ello, podemos ver a $Y[\Omega]$ como una unión numerable de conjuntos, donde cada uno de estos conjuntos tiene un único elemento. Es decir, tomamos los conjuntos $\{y\}$, para cada $y \in Y[\Omega]$, y los unimos a todos:

\begin{align*} Y[\Omega] &= \bigcup_{y \in Y[\Omega]} \{ y \}. \end{align*}

De este modo,

\begin{align*} Y^{-1}[Y[\Omega]] &= Y^{-1}{\left[\bigcup_{y \in Y[\Omega]} \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} Y^{-1}{\left[ \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} (Y = y). \tag{$\triangle$} \end{align*}

Observa que esta es una unión de conjuntos ajenos, pues para cada $y_{1}$, $y_{2} \in Y[\Omega]$ se cumple que si $y_{1} \neq y_{2}$, entonces $\{ y_{1} \} \cap \{ y_{2} \} = \emptyset$. Además,

\begin{align*} Y^{-1}[ \{ y_{1} \} \cap \{ y_{2} \} ] &= Y^{-1}[ \{ y_{1} \}] \cap Y^{-1}[\{ y_{2} \} ], \tag{$*$} \\[1em] Y^{-1}[ { y_{1} } \cap { y_{2} } ] &= Y^{-1}[\emptyset] = \emptyset, \tag{$**$}\end{align*}

así que por $(*)$ y $(**)$ podemos concluir que $Y^{-1}[\{ y_{1} ] \cap Y^{-1}[ \{ y_{2} \} ] = \emptyset$. Por lo tanto, la unión

\begin{align*} \bigcup_{y \in Y[\Omega]} (Y = y) \end{align*}

es una unión de eventos ajenos. Además, por propiedades de la imagen inversa, sabemos que

\begin{align*} \Omega \subseteq Y^{-1}[Y[\Omega]]. \end{align*}

Por otro lado, como el dominio de $Y$ es $\Omega$, también sabemos que $Y^{-1}[Y[\Omega]] \subseteq \Omega$, así que $\Omega = Y^{-1}[Y[\Omega]]$. Finalmente, por $(\triangle)$ se tiene que

\begin{align*} \Omega &= \bigcup_{y \in Y[\Omega]} (Y = y). \end{align*}

Es decir, $\{ \, (Y = y) \mid y \in Y[\Omega] \,\}$ forma una partición de $\Omega$. Sea $x \in X[\Omega]$. Como lo anterior nos da una partición de $\Omega$, podemos aplicar el teorema de probabilidad total para obtener que

\begin{align*} \Prob{X = x} &= \sum_{y \in Y[\Omega]} \Prob{X = x, Y = y}. \end{align*}

Análogamente, para cada $y \in Y[\Omega]$ se tiene que

\begin{align*} \Prob{Y = y} &= \sum_{x \in X[\Omega]} \Prob{X = x, Y = y}. \end{align*}

En términos de las funciones de masa de probabilidad, lo anterior quiere decir que podemos recuperar la masa de probabilidad de $X$ y de $Y$ a partir de la función de masa de probabilidad conjunta, como sigue:

\begin{align*} p_{X}(x) &= \sum_{y \in Y[\Omega]} p_{X,Y}(x, y) & \text{para cada $x \in X[\Omega]$}, \\[1em] p_{Y}(y) &= \sum_{x \in X[\Omega]} p_{X,Y}(x, y) & \text{para cada $y \in Y[\Omega]$}. \end{align*}

Este procedimiento de obtener la función de masa de probabilidad de una v.a. a partir de la masa de probabilidad conjunta se conoce como marginalización, y las funciones resultantes son conocidas como las funciones de masa de probabilidad marginales.

Ejemplo 1. Sean $X$ y $Y$ dos v.a.’s discretas con función de masa de probabilidad conjunta $p_{X,Y}\colon\RR^{2}\to\RR$ dada por:

\begin{align*} p_{X,Y} &= \begin{cases} 0.05 & \text{si $(x, y) = (0,3)$ o $(x,y) = (1,1)$ o $(x, y) = (2,4)$}, \\[1em] 0.1 & \text{si $(x,y)=(0,2)$ o $(x,y) = (1,3)$ o $(x,y) = (2,1)$}, \\[1em] 0.15 & \text{si $(x,y) = (2,2)$}, \\[1em] 0.2 & \text{si $(x,y) = (0,1)$ o $(x,y) = (1,4)$}, \\[1em] 0 & \text{en otro caso}. \end{cases} \end{align*}

Una buena manera de organizar la información contenida en esta función es mediante una tabla como la siguiente:

Valores posibles de $X$
012
Valores posibles de $Y$10.20.050.1
20.100.15
30.050.10
400.20.05

De este modo, $\Prob{X = 0, Y = 1} = 0.2$, y $\Prob{X=0, Y =3} = 0.05$. A partir de las probabilidades de la tabla podemos calcular la función de masa de probabilidad de $X$, $p_{X}\colon\RR\to\RR$. Para ello, simplemente debemos de marginalizar sobre cada uno de los valores que toma $X$. De este modo, obtenemos que

\begin{align*} p_{X}(0) &= p_{X,Y}(0,1) + p_{X,Y}(0,2) + p_{X,Y}(0,3) + p_{X,Y}(0,4) = 0.2 + 0.1 + 0.05 + 0 = 0.35, \\[1em] p_{X}(1) &= p_{X,Y}(1,1) + p_{X,Y}(1,2) + p_{X,Y}(1,3) + p_{X,Y}(1,4) = 0.05 + 0 + 0.1 + 0.2 = 0.35, \\[1em] p_{X}(2) &= p_{X,Y}(2,1) + p_{X,Y}(2,2) + p_{X,Y}(2,3) + p_{X,Y}(2,4) = 0.1 + 0.15 + 0 + 0.05 = 0.3, \end{align*}

por lo que la función de masa de probabilidad de $X$ nos queda

\begin{align*} p_{X}(x) &= \begin{cases} 0.35 & \text{si $x = 0$ o $x = 1$}, \\[1em] 0.3 & \text{si $x = 2$}. \end{cases} \end{align*}

Sin embargo, observa que el uso de una tabla sólo tiene sentido si $X[\Omega]$ y $Y[\Omega]$ son conjuntos finitos. De otro modo, sería una «tabla» infinita, y nunca acabaríamos de escribirla…

Independencia en el caso discreto

Una consecuencia (casi inmediata) del Teorema 1 es el siguiente criterio de independencia para v.a.’s discretas.


Proposición 1. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son discretas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} \Prob{X = x, Y = y} &= \Prob{X = x} \Prob{Y = y}, & \text{para cualesquiera \(x,y \in \RR\).} \end{align*}


Por ejemplo, retomemos las v.a.’s del Ejemplo 1. Sumando los valores en el renglón donde \(Y = 1\), obtenemos que

\begin{align*} \Prob{Y = 1} = 0.35, \end{align*}

y nosotros calculamos que \(\Prob{X = 1} = 0.35\). En consecuencia,

\begin{align} \label{eq:prod} \Prob{X = 1}\Prob{Y = 1} &= 0.1225.\end{align}

Sin embargo, de acuerdo con la tabla, \(\Prob{X = 1, Y = 1} = 0.05\), que no coincide con el valor en \eqref{eq:prod}. Por ello, podemos concluir que las v.a.’s del Ejemplo 1 no son independientes.

Función de densidad conjunta para v.a.’s continuas

Como de costumbre, el caso para las v.a.’s continuas es distinto. En este caso, lo que tendremos es una función de densidad conjunta, que juega el mismo papel que una función de densidad univariada, pero para \(2\) v.a.’s conjuntamente. Esto da lugar a la siguiente definición.


Definición. Sean \(X\) y \(Y\) v.a.’s continuas, y \(F_{X,Y}\colon\RR^{2}\to\RR\) su función de distribución conjunta. Entonces \(F_{X,Y}\) puede expresarse como sigue:

\begin{align*} F_{X,Y}(x,y) &= \int_{-\infty}^{x}\int_{-\infty}^{y} f_{X,Y}(u,v) \, \mathrm{d}v \, \mathrm{d}u, & \text{para cada \((x, y) \in \RR^{2}\).} \end{align*}

De este modo, \(f_{X,Y}\colon\RR^{2}\to\RR\) es llamada la función de densidad conjunta de \(X\) y \(Y\).


De igual forma que con las función de distribución conjunta, la función de densidad conjunta es una generalización multivariada de la función de densidad. Además, también existen técnicas de marginalización que son análogas al caso discreto. Primero, recuerda que integrar la función de densidad sobre un intervalo es nuestra forma de sumar continuamente las probabilidades de cada punto en el intervalo. Esto es:

\begin{align*} \Prob{X \in (a,b]} &= \int_{a}^{b} f_{X}(x) \, \mathrm{d}x. \end{align*}

Si tomamos la idea del teorema de probabilidad total, pero integramos sobre todo el conjunto de valores de una de las v.a.’s (en vez de sumar, como hicimos en el caso discreto), podemos expresar la función de densidad marginal de \(X\) como

\begin{align*} f_{X}(x) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}y, & \text{para cada \(x\in\RR\).}\end{align*}

Es decir, integramos sobre todo el dominio de la v.a. que queremos quitar, que en este caso es \(Y\). Análogamente, para \(Y\) se tiene que

\begin{align*} f_{Y}(y) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}x, & \text{para cada \(y\in\RR\).}\end{align*}

Este es el proceso de marginalización para el caso continuo. Observa que las funciones resultantes son las funciones de densidad marginales. Como tal, los valores que toman estas funciones no son probabilidades, por lo que la marginalización es más sutil que en el caso discreto (ya que el teorema de probabilidad total se usa para probabilidades, y para particiones a lo más numerables).

Ejemplo 2. Sean \(X\) y \(Y\) dos v.a.’s tales que su función de densidad conjunta es \(f_{X,Y}\) dada por

\begin{align*} f_{X,Y}(x,y) &= \begin{cases} y{\left( \dfrac{1}{2} − x\right)} + x &\text{si \(x \in (0,1)\) y \(y \in (0,2)\),} \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

La gráfica de esta función se ve como sigue:

Gráfica de la densidad conjunta de 'X' y 'Y'.
Figura. Gráfica de la función de densidad conjunta de \(X\) y \(Y\). Como el dominio de \(f_{X,Y}\) es \(\RR^{2}\), la gráfica de esta función es un lugar geométrico en \(\RR^{3}\).

Sin embargo, hay un detallito que quizás tengas en la cabeza: ¿cómo se interpreta que esta función sea «de densidad», en un sentido vibariado? A grandes rasgos, debe de cumplir lo mismo que una función de densidad univariada. En particular, el valor de la integral sobre su dominio debe de ser \(1\). En este caso, esto significa que se debe de cumplir que

\begin{align*} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}x \, \mathrm{d}y &= 1. \end{align*}

Como muy probablemente no conoces métodos (ni teoría) de integración bivariada, simplemente te diremos que \(f_{X,Y}\) sí es una función de densidad bivariada, y que sí cumple la condición anterior.

Por otro lado, algo que podemos hacer con los conocimientos que posees hasta ahora es obtener las marginales. Obtengamos la densidad marginal de \(X\), para lo cual hay que integrar \(f_{X,Y}\) sobre todo el dominio de \(Y\):

\begin{align*} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}y &= \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y, \end{align*}

en donde \(x \in (0,1)\), pues es donde la densidad conjunta no vale \(0\). Como esta integral es con respecto a \(y\), podemos pensar que \(x\) es una constante respecto a la variable de integración. Por ello, la integral anterior puede resolverse de manera directa con herramientas de Cálculo II:

\begin{align*} \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y &= \int_{0}^{2} {\left( \dfrac{1}{2} − x\right)}y \, \mathrm{d}y + \int_{0}^{2} x \mathrm{d}y \\[1em] &= {\left( \dfrac{1}{2} − x\right)} \int_{0}^{2} y \, \mathrm{d}y + x \int_{0}^{2} 1 \, \mathrm{d}y \\[1em] &= {\left(\frac{1}{2} − x\right)}{\left( \frac{y^{2}}{2} \right)}\Bigg|_{y=0}^{2} + x(2 − 0) \\[1em] &= {\left(\frac{1}{2} − x\right)} {\left( \frac{4 − 0}{2} \right)} + 2x \\[1em] &= 2{\left( \frac{1}{2} − x \right)} + 2x \\[1em] &= 1 + 2x − 2x \\[1em] &= 1, \end{align*}

para cada \(x \in (0,1)\). En consecuencia, la densidad marginal de \(X\) es \(f_{X}\) dada por

\begin{align*} f_{X}(x) &= \begin{cases} 1 & \text{si \(x \in (0,1)\),} \\[1em] 0 & \text{en otro caso.} \end{cases} \end{align*}

Así, llegamos a que \(X\) sigue una distribución uniforme en el intervalo \((0,1)\).


Independencia en el caso continuo

De manera similar al caso discreto, además del criterio dado por el Teorema 1, podemos dar la siguiente criterio de independencia para dos v.a.’s continuas.


Proposición 2. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son continuas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} f_{X,Y}(x,y) &= f_{X}(x) f_{Y}(y), & \text{para cualesquiera \(x,y \in \RR\),} \end{align*}

donde \(f_{X,Y}\) es la función de densidad conjunta de \(X\) y \(Y\), y \(f_{X}\) y \(f_{Y}\) son las funciones de densidad marginales.


Es decir, dos v.a.’s continuas son independientes si su función de densidad conjunta es el producto de sus funciones de densidad (marginales).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que 1. implica a 2. en el Teorema 1.
  2. En el Ejemplo 1:
    1. Verifica que la función $p_{X}\colon\RR\to\RR$ que obtuvimos es una función de masa de probabilidad.
    2. Encuentra $p_{Y}\colon\RR\to\RR$, la función de masa de probabilidad de $Y$.
  3. En el Ejemplo 2:
    1. Encuentra la función de densidad marginal de \(Y\).
    2. ¿Son independientes \(X\) y \(Y\)?

Más adelante…

Usaremos los temas que vimos en esta entrada en la próxima entrada, ya que serán necesarios algunos detallitos de probabilidad multivariada para entender las propiedades del valor esperado que veremos a continuación. Por el momento sólo es importante que sepas que existen estos temas de probabilidad multivariada, y entiendas lo que significan los conceptos vistos en esta entrada.

En un curso de Probabilidad II verás con muchísimo detalle los temas que presentamos en esta entrada, así que no te preocupes si los temas que vimos aquí no te quedaron completamente claros.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: El plano traza – determinante

Por Eduardo Vera Rosales

Introducción

Antes de finalizar con el estudio cualitativo a sistemas de ecuaciones de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$, vamos a clasificar la estabilidad del punto de equilibrio, y por tanto el plano fase, en un diagrama que resume toda la información que estudiamos en las últimas entradas. Este diagrama es llamado plano traza – determinante. En esta entrada veremos cómo interpretar dicho diagrama.

Vimos que el plano fase y la estabilidad de los puntos de equilibrio depende de la forma de los valores propios asociados. Es fácil observar que los valores propios del sistema son las soluciones a la ecuación $$\det{(\textbf{A}-\lambda\textbf{Id})}=\lambda^{2}-(a+d)\lambda+(ad-bc)=0.$$ Notemos que podemos reescribir la ecuación anterior en términos de dos propiedades de la matriz asociada $\textbf{A}$: su traza y su determinante. En efecto, resulta que $$ \lambda^{2}-(a+d)\lambda+(ad-bc)=\lambda^{2}-\lambda\mathrm{tr}{A}+\det{A}.$$ Entonces los valores propios están dados por la fórmula $$\lambda=\frac{\mathrm{tr}{A}\pm\sqrt{\mathrm{tr}{A}^{2}-4\det{A}}}{2}$$ Así, el plano fase y la estabilidad de los puntos de equilibrio dependerán de la traza y el determinante de la matriz asociada. Analizaremos la forma de los valores propios según la última fórmula.

La información obtenida se podrá resumir en el plano traza – determinante, que puedes observar en la siguiente imagen (tomada del siguiente sitio) que nos indica la forma del plano fase, según los valores de la traza y el determinante.

Plano traza determinante
Plano traza – determinante. Imagen tomada de https://es.m.wikipedia.org/wiki/Archivo:Stability_Diagram.png

El plano traza – determinante

Clasificamos la naturaleza del plano fase y la estabilidad de los puntos de equilibrio del sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ según la traza y el determinante de la matriz asociada. Englobamos toda la información obtenida en el plano traza – determinante.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Muestra que los valores propios del sistema $\lambda_{1}, \lambda_{2}$ satisfacen las identidades $$\lambda_{1}+\lambda_{2}=\mathrm{tr}{A}$$ $$\lambda_{1}\lambda_{2}=\det{A}.$$ Recuerda considerar los casos cuando los valores propios son distintos o iguales.

Clasifica el plano fase y puntos de equilibrio de los siguientes sistemas de ecuaciones, calculando únicamente la traza y el determinante de la matriz asociada:

  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 15 & -1 \\ -60 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} \pi & 0 \\ e & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+2 \\ a-2 & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Determina la forma del plano fase y la estabilidad del punto de equilibrio según la traza y el determinante de la matriz asociada, y el valor $a$.
  • Para el ejercicio anterior, identifica la región del plano traza – determinante donde los planos fase tienen comportamientos similares.
  • Realiza el mismo análisis de los dos ejercicios anteriores para el sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+b \\ a-b & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$ para cualquier valor de $a$ y $b$.

Más adelante

Con todo el conocimiento adquirido acerca de sistemas de ecuaciones lineales, es momento de estudiar, al menos de manera cualitativa, sistemas de ecuaciones no lineales. En la próxima entrada daremos una breve introducción a tales sistemas.

Además, veremos que es posible linealizar este tipo de sistemas para obtener un sistema de ecuaciones lineales equivalente que nos brinde la información cualitativa de las soluciones al sistema no lineal. Así, podremos dibujar el plano fase de un sistema no lineal, sin conocer explícitamente las soluciones a dicho sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna II: Potencia de un punto

Por Armando Arzola Pérez

Introducción

En esta primera unidad abordaremos varios los temas relacionados con las circunferencias coaxiales. Para ello, iniciaremos hablando de la potencia de un punto con respecto a una circunferencia. A grandes rasgos, esto trata de lo siguiente.

Tomemos una circunferencia $\mathcal{C}$. Tomemos $P$ un punto cualquiera. Tomemos una recta $l$ por $P$ y llamemos $A$ y $B$ los puntos de intersección de $l$ con $\mathcal{C}$. Bajo estas elecciones, la potencia de $P$ será $PA\cdot PB$. Lo que veremos en esta entrada es que dicho producto es constante sin importar la elección de $l$. Para mostrar esto, introduciremos algunas definiciones y posteriormente haremos una demostración por casos.

Definición de potencia de un punto

Comenzaremos dando una primer definición de potencia, que dependerá de cierto punto, circunferencia y recta que elijamos.

Definición. Sea $\mathcal{C}$ una circunferencia, $P$ un punto y $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ en la recta $l$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C},l):=PA\cdot PB.$$

En esta definición y de aquí en adelante, a menos que se diga lo contrario, se estará trabajando con segmentos dirigidos. Es decir, estamos pensando que cada segmento tiene una dirección del primer punto al segundo. Así, por ejemplo, el valor de $PA$ dependerá de la longitud del segmento y su signo dependerá de una dirección (usualmente implícita) que se le asigne a la recta por $A$ y $P$. De este modo, tendremos, por ejemplo, que $PA=-AP$.

La definición de potencia de un punto puede simplificarse notablemente en vista de la siguiente proposición.

Proposición. La potencia de un punto con respecto a una circunferencia no depende de la recta elegida. Es decir, tomemos $\mathcal{C}$ una circunferencia, $P$ un punto y $l,m$ rectas. Supongamos que los puntos de intersección de $l$ con $\mathcal{C}$ son $A$ y $B$; y que los puntos de intersección de $m$ con $\mathcal{C}$ son $C$ y $D$ (en caso de tangencias, repetimos los puntos). Entonces: $$PA\cdot PB = PC\cdot PD.$$

Demostración. Haremos la demostración por casos de acuerdo a cuando $P$ está dentro o fuera de la circunferencia, o sobre ella.

Dentro de la circunferencia:

Tomemos las cuerdas $AB$ y $CD$ en la circunferencia, las cuales se cortan en $P$. Los triángulos $\triangle APC$ y $\triangle DPB$ son semejantes ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está dentro de la circunferencia.
  1. $\angle PAC = \angle PDB $ por abrir el mismo arco $\overline{BC}$.
  2. $\angle APC = \angle BPD $ por ser opuestos al vértice.
  3. $\angle PCA = \angle PBD $ por abrir mismo arco $\overline{AD}$.

Entonces de la semejanza $\triangle APC \cong \triangle DPB $ tenemos que

$\frac{PA}{PD}=\frac{PC}{PB},$

de donde obtenemos la igualdad $PA\cdot PB =PC \cdot PD$ deseada.

Fuera de la circunferencia:

Ahora, $AB$ y $CD$ son dos secantes que se intersecan en $P$, pero con $P$ exterior a $\mathcal{C}$. Tenemos que $\triangle APC $ y $\triangle DPB $ son semejantes, ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está fuera de la circunferencia.
  1. El cuadrilátero $\square ABDC$ es cíclico, entonces: $\angle ACD + \angle ABD = 180^\circ$ y $\angle ABD + \angle DBP = 180^\circ $, de donde $\angle DBP = \angle ACD$.
  2. $\angle BPD$ y $\angle CPA$ son los mismos ángulos.

Entonces $\frac{PA}{PC}=\frac{PD}{PB},$ de donde se obtiene la igualdad buscada $PA\cdot PB=PC\cdot PD.$

Sobre la circunferencia:

Este caso es sencillo pues sin importar las secantes tomadas, en cada una hay un punto igual a $P$ y por lo tanto una distancia igual a cero. De este modo, $PA\cdot PB=0=PC\cdot PD$.

$\square$

Nota que las demostraciones anteriores sirven aunque $l$ ó $m$ sean tangentes, sólo que hay que hacer ligeras adaptaciones sobre los ángulos usados y los motivos por los que son iguales. Enunciaremos el caso de la tangencia un poco más abajo.

En vista de la proposición anterior, podemos simplificar nuestra definición notablemente.

Definición. Sea $\mathcal{C}$ una circunferencia y $P$ un punto. Tomemos $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C}):=PA\cdot PB.$$

La potencia queda bien definida sin importar la recta $l$, debido a la proposición anterior.

El signo de la potencia

En esta definición estamos usando segmentos dirigidos, y eso nos lleva a que la potencia de un punto puede tener distintos signos. El comportamiento queda determinado por el siguiente resultado.

Proposición. La potencia de un punto $P$ con respecto a una circunferencia $\mathcal{C}$ es positiva, negativa o cero, de acuerdo a si el punto $P$ está fuera de $\mathcal{C}$, dentro de ella, o sobre ella, respectivamente.

Demostración. Veamos esto caso por caso.

  • Sea $P$ un punto externo a $\mathcal{C}$. Entonces $PA$ y $PB$ tienen la misma orientación y por lo tanto el mismo signo. Además, como $P$ no está sobre $\mathcal{C}$, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})> 0$.
Geometría Moderna II: Potencia de un punto respecto a un punto externo.
  • Sea $P$ un punto interno a $\mathcal{C}$. Entonces $PA$ está dirigido hacia un lado y $PB$ está dirigido hacia el otro, de modo que tienen signo contrario. Además, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})<0$.
Geometría Moderna II: Potencia de un punto respecto a un punto interno de la circunferencia.
  • Finalmente, sea $P$ un punto sobre $\mathcal{C}$. Esto quiere decir que alguno de los puntos $A$ o $B$ es $P$ (quizás ambos, si $l$ es tangente). Así, $PA=0$ ó $PB=0$. De este modo $\text{Pot}(P,\mathcal{C})=0$.
Geometría Moderna II: Potencia de un punto que está sobre la circunferencia.

$\square$

Otras fórmulas para la potencia

La potencia es invariante sin importar la recta elegida. De este modo, podemos elegir a una recta tangente y obtener una fórmula para la potencia en términos de la longitud de dicha tangente.

Proposición. Sea $\mathcal{C}$ una circunferencia. Para un punto $P$ fuera de $\mathcal{C}$, su potencia es igual al cuadrado de la longitud de una tangente de él a la circunferencia.

Es decir, sea $T$ un punto sobre la circunferencia tal que $PT$ sea tangente a $\mathcal{C}$. Entonces, $\text{Pot}(P,\mathcal{C})=PT^2$.

Imagen representativa de la Proposición 2.

El resultado se sigue de llevar al límite lo que ya probamos en la proposición de invarianza de la potencia. Pero a continuación damos un argumento alternativo.

Demostración. Tracemos otra recta por $P$ que no sea tangente a $\mathcal{C}$ y cuyos puntos de intersección con $\mathcal{C}$ son $A$ y $B$ como en la figura. Tenemos que mostrar que $PA\cdot PB =PT^2$.

El ángulo $\angle PTA$ es semi-inscrito y es igual al ángulo inscrito $ \angle TBA$, pues ambos tienen el mismo arco $\overline{AT}$.

Entonces los triángulos $\triangle APT$ y $\triangle TPB$ comparten el ángulo con vértice en $P$ y $\angle PTA=\angle TBA$. Por ello, se tiene que $\triangle APT \cong \triangle TPB $ son semejantes y sus lados son proporcionales: $\frac{PA}{PT} = \frac{PT}{PB}$. De aquí, $$PT^2=PT\cdot PT=PA\cdot PB=\text{Pot}(P,\mathcal{C}).$$

$\square$

También es posible conocer la potencia de un punto hacia una circunferencia si conocemos el radio de la circunferencia y la distancia del punto al centro.

Proposición. Sea $\mathcal{C}$ una circunferencia de centro $O$ y radio $r$. Sea $P$ un punto en cualquier posición. La potencia de $P$ con respecto a $\mathcal{C}$ es $$\text{Pot}(P,\mathcal{C}) = OP^2 – r^2.$$

Demostración. Haremos la demostración por casos

Dentro de la circunferencia:

Sea $AB$ la cuerda que pasa por el centro $O$ y $P$ (si $O=P$, tomamos cualquier cuerda $AB$ por el centro). Supongamos sin pérdida de generalidad que la recta está dirigida de $A$ a $B$. Tenemos que $AO=r>0$ y llamemos $d=OP>0$. De aquí, $PB=r-d>0$. La siguiente figura resume estas igualdades.

Potencia de un punto imagen de Proposición 3 cuando un punto está dentro de la circunferencia.

La potencia desde $P$ sería entonces, cuidando los signos:

\begin{align*}
PA\cdot PB &= (PO+OA)(PB)\\
&=(-d-r)(r-d)\\
&=-(d+r)(r-d)\\
&=-(r^2-d^2)\\
&=d^2-r^2\\
&=OP^2-r^2.
\end{align*}

Así, $\text{Pot}(P,\mathcal{C})=OP^2-r^2$.

Fuera de la circunferencia:

Ahora desde $P$ tracemos una tangente $PT$ a $\mathcal{C}$ con $T$ sobre $\mathcal{C}$. Como $\angle PTO =90^o$, entonces $\triangle POT$ es un triángulo rectángulo.

Potencia de un punto imagen de Proposición 3 cuando un punto está fuera de la circunferencia.

Por el teorema de Pitágoras y la expresión de potencia en términos de la tangente: $$OP^2=r^2+PT^2=r^2+\text{Pot}(P,\mathcal{C}).$$ Despejando, obtenemos la expresión deseada: $$\text{Pot}(P,\mathcal{C})=OP^2-r^2.$$

Sobre la circunferencia:

Este caso es sencillo, pues sabemos que la potencia de $P$ debe ser cero. Pero además, como $P$ está en la circunferencia, entonces $OP=r$, de modo que $OP^2-r^2=0$, y entonces la expresión también es lo que queremos.

$\square$

Más adelante…

Seguiremos abordando el tema de potencia de un punto y veremos cómo a partir de él se define el eje radical de dos circunferencias.

Entradas relacionadas

Geometría Moderna I: Puntos de Brocard

Por Rubén Alexander Ocampo Arellano

Introducción

En esta entrada hablaremos sobre un par de puntos conjugados isogonales del triángulo, los puntos de Brocard, que surgen de una construcción particular de circunferencias tangentes a los lados del triángulo.

Puntos de Brocard

Definición y notación. Dado un triángulo $\triangle ABC$, considera $\Gamma(BC)$ la circunferencia tangente a $BC$ en $B$ que pasa por $A$, $\Gamma(CA)$ la circunferencia tangente a $CA$ en $C$ que pasa por $B$, $\Gamma(AB)$ la circunferencia tangente a $AB$ en $A$ que pasa por $C$. Llamaremos a este conjunto de circunferencias, grupo directo de circunferencias.

De manera análoga, la circunferencia $\Gamma(CB)$ tangente a $BC$ en $C$ que pasa por $A$, la circunferencia $\Gamma(AC)$ tangente a $CA$ en $A$ que pasa por $B$ y la circunferencia $\Gamma(BA)$ tangente a $AB$ en $B$ que pasa por $C$, seran referidas como grupo indirecto de circunferencias.

Teorema 1. Las tres circunferencias del grupo directo (indirecto) asociado a un triángulo tienen un punto en común, al punto de concurrencia $\Omega$ $(\Omega’)$ se le conoce como primer (segundo) punto de Brocard.

Demostración. Sean $\triangle ABC$ y $\Omega = \Gamma(BC) \cap \Gamma(CA)$, considera $D \in \overset{\LARGE{\frown}}{AB}$ arco de $\Gamma(BC)$, recorrido en ese sentido.

Como $\angle CBA$ es un ángulo semiinscrito de $\Gamma(BC)$ entonces $\angle BDA = \angle CBA$, por lo tanto, $\angle A\Omega B = \pi – \angle B$.

Figura 1

De manera análoga vemos que $\angle B\Omega C = \pi – \angle C$.

En consecuencia,
$\angle C\Omega A = 2\pi – (\angle A\Omega B) – (\angle B\Omega C) $
$= 2\pi – (\pi – \angle B) – (\pi – \angle C) = \angle B + \angle C $
$= \pi – \angle A$.

Por otra parte, como $\angle BAC$ es un ángulo semiinscrito de $\Gamma(AB)$, entonces todos los puntos en el arco $\overset{\LARGE{\frown}}{CA}$, recorrido en ese sentido, subtienden un ángulo $\angle A$ con la cuerda $CA$, por lo tanto, el arco $\overset{\LARGE{\frown}}{AC}$ es el lugar geométrico de los puntos que subtienden con la cuerda $CA$ un ángulo igual a $\pi – \angle A$.

En conclusión $\Omega \in \Gamma(AB)$.

La demostración es análoga para el caso del grupo indirecto.

$\blacksquare$

Corolario 1. Los dos puntos de Brocard son los únicos puntos dentro de un triángulo $\triangle ABC$ que tienen la siguiente propiedad:
$i)$ $\angle BA\Omega = \angle CB\Omega = \angle AC\Omega $,
$ii)$ $\angle \Omega’ AC = \angle \Omega’ CB = \angle \Omega’ BA$.

Demostración. $i)$ $\angle BA\Omega$ y $\angle CB\Omega$ son ángulos inscrito y semiinscrito respectivamente de $\Gamma(BC)$ que abarcan el mismo arco, por lo tanto son iguales.

De manera análoga vemos que $\angle CB\Omega = \angle AC\Omega$.

Por otro lado supongamos que existe un punto $F$ dentro de $\triangle ABC$ tal que $\angle BAF = \angle CBF = \angle ACF$, considera el circuncírculo de $\triangle ABF$, como $\angle CBF$ es igual al ángulo inscrito $\angle BAF$, entonces $BC$ debe ser tangente al circuncírculo de $\triangle ABF$ en $B$, por lo tanto, $F \in \Gamma(BC)$.

De manera análoga vemos que $F \in \Gamma(CA)$ y $F \in \Gamma(AB)$ por lo tanto $F$ coincide con $\Omega$.

$ii)$ Se muestra de manera similar.

$\blacksquare$

Ángulo de Brocard

Corolario 2. Los puntos de Brocard son puntos conjugados isogonales.

Demostración. Si $X$ es el conjugado isogonal de $\Omega$ entonces (figura 1)
$\angle BA\Omega = \angle XAC$,
$\angle CB\Omega = \angle XBA$,
$ \angle AC\Omega = \angle XCB$.

Pero $\angle BA\Omega = \angle CB\Omega = \angle AC\Omega = \omega$, por lo tanto, el conjugado isogonal de $\Omega$ respecto a $\triangle ABC$ cumple que $\angle XAC = \angle XBA = \angle XCB$.

Como $\Omega’$ es el único punto que tiene esa propiedad dentro de $\triangle ABC$ entonces $X = \Omega’$.

$\blacksquare$

Definición 2. Los segmentos $A\Omega$, $A\Omega’$; $B\Omega$, $B\Omega’$; $C\Omega$, $C\Omega’$, se conocen como rayos de Brocard y el ángulo $\angle BA\Omega = \angle \Omega’AC = \omega$ se conoce como ángulo de Brocard.

Definición 3. Los lados del triángulo anticomplementario de un triángulo dado (las rectas paralelas a los lados de un triángulo por los vértices opuestos), se llaman exmedianas del triángulo dado.

Teorema 2. Una exsimediana, una exmediana y un rayo de Brocard, cada una por un vértice distinto de un triángulo dado, son concurrentes.

Demostración. En $\triangle ABC$ sea $B\Omega$ el rayo de Brocard que pasa por el primer punto de Brocard y $D$ la intersección de este rayo con la exmediana por $A$.

Figura 2

Como $AD \parallel BC$ entonces $\angle CAD = \angle C$ y $\angle ADB = \angle CB\Omega = \omega = \angle AC\Omega$, por lo tanto, $\square A\Omega CD$ está inscrito en $\Gamma(AB)$.

Por el corolario 1, $\angle C\Omega A = \angle B + \angle C$, esto implica que $\angle ADC = \angle A$, por lo tanto, $\angle DCA = \angle B$.

Como resultado $CD$ es exsimediana de $\triangle ABC$, es decir, es tangente al circuncírculo de $\triangle ABC$ en $C$.

$\blacksquare$

Corolario 3. El ángulo de Brocard $\omega$ de un triángulo $\triangle ABC$ satisface la siguiente igualdad $\cot \omega = \cot \angle A + \cot \angle B + \cot \angle C$

Demostración. En la figura anterior sean $H_a$, $H_d$ las proyecciones de $A$ y $D$ en $BC$, como $\angle DCA = \angle B$ entonces $\angle H_dCD = \angle A$, por lo tanto,
$\cot \omega = \dfrac{BH_d}{DH_d}$
$= \dfrac{BH_a}{DH_d} + \dfrac{H_aC}{DH_d} + \dfrac{CH_d}{DH_d}$
$= \dfrac{BH_a}{AH_a} + \dfrac{H_aC}{AH_a} + \dfrac{CH_d}{DH_d}$
$ = \cot \angle B + \cot \angle C + \cot \angle A$.

$\blacksquare$

Construcción de un triángulo dado su ángulo de Brocard

Problema. Construye un triángulo, dados un lado, un ángulo y $\omega$, su ángulo de Brocard.

Solución. Sea $\angle B’AC’$ el ángulo dado, en $AC’$ tomamos un punto $C$ arbitrario, sobre $CA$ y con vértice en $C$ abrimos un ángulo igual a $\omega$ en el sentido contrario al de las manecillas del reloj, hacemos lo mismo pero esta vez sobre $AB$ en y vértice en $A$.

Figura 3

La intersección de los segundos lados de los ángulos construidos será $\Omega$, el primer punto de Brocard, ahora sobre $\Omega C$ construimos el lugar geométrico de los puntos que subtienden un ángulo igual a $\omega$ con los puntos $\Omega$ y $C$, el cual es un arco de circunferencia.

Este arco puede intersecar a $AB’$ en dos puntos $B$ y $B’’$, entonces obtenemos $\triangle ABC$ y $\triangle ACB’’$, sin embargo, estos dos triángulos son semejantes, si este arco no interseca a $AB$ entonces no hay solución.

$\triangle ABC$ es semejante al triangulo requerido, el cual puede ser construido a partir del lado dado.

$\blacksquare$

Triángulo circunscrito de ceva de los puntos de Brocard

Teorema 3.
$i)$ Los rayos de Brocard intersecan otra vez al circuncírculo del triángulo, en tres puntos que forman un triángulo congruente con el triángulo original,
$ii)$ este triángulo puede ser obtenido rotando el triángulo original un ángulo igual a dos veces su ángulo de Brocard con centro en el circuncentro,
$iii)$ el primer (segundo) punto de Brocard del triángulo original es el segundo (primer) punto de Brocard del triángulo rotado.

Demostración. Sea $\Omega$ el punto positivo de Brocard de $\triangle ABC$, consideremos $B’$, $C’$, $A’$ las segundas intersecciones de $A\Omega$, $B\Omega$, $C\Omega$ con el circuncírculo de $\triangle ABC$.

Figura 4

Entonces,
$\angle B’A’C’ = \angle B’A’C + \angle CA’C’ = \angle B’AC + \angle CBC’ = \angle B’AC + \omega = \angle BAC$.

Igualmente vemos que $\angle B = \angle B’$ y $\angle C’ = \angle C$.

Como $\triangle ABC$ y $\triangle A’B’C’$ son semejantes y están inscritos en el mismo circulo, entonces son congruentes.

Por otro lado, $\angle AOA’ = 2 \angle ACA’ = 2 \omega$.

Finalmente $\angle \Omega A’C’ = \angle CA’C’ = \angle CBC’ = \omega$.

Similarmente, $\angle \Omega C’B’ = \omega = \angle \Omega B’A’$.

Por lo tanto $\Omega$ es el segundo punto de Brocard de $\triangle A’B’C’$.

$\blacksquare$

Corolario 4. Los dos puntos de Brocard de un triángulo son equidistantes del circuncentro del triángulo.

Demostración. Si partimos esta vez del triángulo $\triangle A’B’C’$ y hacemos una rotación un ángulo igual a $2\omega$ con centro en $O$ en el sentido de las manecillas del reloj, entonces su segundo punto de Brocard coincidirá con el segundo punto de Brocard de $\triangle ABC$.

Ya que el segundo punto de Brocard de $\triangle A’B’C’$, es el primer punto de Brocard de $\triangle ABC$, entonces estos puntos son equidistantes a $O$.

$\blacksquare$

Triángulo pedal de los puntos de Brocard

Corolario 5. El triángulo pedal del primer (segundo) punto de Brocard es semejante a su triángulo de referencia, además el primer (segundo) punto de Brocard es el mismo para ambos triángulos.

Demostración. En la figura anterior, sean $\Omega_a$, $\Omega_b$, $\Omega_c$, las proyecciones de $\Omega$ en $BC$, $CA$, $AB$, respectivamente.

En la entrada anterior mostramos que para cualquier punto $\omega$, su triángulo pedal $\triangle \Omega_a\Omega_b\Omega_c$, es semejante a su triángulo circunscrito de Ceva respecto de $\triangle B’C’A’$.

Por el teorema anterior, $\triangle ABC \cong \triangle A’B’C’$, por lo tanto $\triangle \Omega_c\Omega_a\Omega_b \sim \triangle ABC$.

Por otro lado, como $\square \Omega_cB\Omega_a\Omega$ es cíclico entonces
$\angle \Omega\Omega_c\Omega_a = \angle \Omega B\Omega_a = \omega$.

Igualmente vemos que $\angle \Omega\Omega_a\Omega_b = \omega = \angle \Omega\Omega_b\Omega_c$.

La prueba es análoga para el caso del segundo punto de Brocard.

$\blacksquare$

Corolario 6. Los triángulos pedales de los dos puntos de Brocard de un triángulo son congruentes.

Demostración. Como los dos puntos de Brocard de un triángulo son conjugados isogonales, entonces sus triangulo pedales tienen el mismo circuncírculo y como son semejantes, entonces son congruentes.

$\blacksquare$

Más adelante…

Continuando con el tema de geometría de Brocard, en la siguiente entrada hablaremos de la circunferencia de Brocard, veremos que los puntos de Brocard están en esta circunferencia y que estos permiten la construcción de un triángulo que es semejante y esta en perspectiva con el triángulo original.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Prueba que $\cot \omega = \dfrac{a^2 + b^2 + c^2}{4(\triangle ABC)}$.
  2. Muestra que el valor del ángulo de Brocard $\omega$ de un triángulo es a lo mas $\dfrac{\pi}{6}$.
  3. Muestra que los triángulos antipedales de los puntos de Brocard son semejantes a su triangulo de referencia.
  4. Construye un triángulo dados dos lados indefinidos y un punto de Brocard.
  5. Muestra que un rayo de Brocard, una mediana y una simediana, cada uno por un vértice distinto de un triángulo, son concurrentes.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 274-278.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 263-270.
  • Honsberger, R., Episodes in Nineteenth and Twentieth Century Euclidean Geometry. Washington: The Mathematical Association of America, 1995, pp 99-106.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 71-73.
  • Aref, M. y Wernick, W., Problems and Solutions in Euclidean Geometry. New York: Dover, 2010, pp 188-191.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»