Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Geometría Moderna I: Circunferencia de Brocard

Por Rubén Alexander Ocampo Arellano

Introducción

Con esta entrada concluimos la unidad tres y en general temas relacionados con el triángulo, hablaremos de la circunferencia de Brocard y el primer triángulo de Brocard, veremos como se relacionan con los puntos de Brocard.

Circunferencia de Brocard

Definición. La circunferencia $\Gamma(KO)$ que tiene como diámetro el segmento que une el punto simediano $K$ y el circuncentro $O$ de un triángulo se conoce como circunferencia de Brocard.

El triángulo cuyos vértices son las segundas intersecciones de las mediatrices de un triángulo con su circunferencia de Brocard es el primer triángulo de Brocard.

Observación. Recordemos que el centro de la primera circunferencia de Lemoine es el punto medio entre el punto simediano y el circuncentro de un triángulo, por lo tanto, la circunferencia de Brocard y la primera circunferencia de Lemoine son concéntricas.

Teorema 1. Los puntos de Brocard están en la circunferencia de Brocard.

Demostración. En $\triangle ABC$ sea $\Omega$ el primer punto de Brocard, $K$ el punto simediano, $O$ el circuncentro y $A’$, $B’$, $C’$, los puntos medios de $BC$, $CA$ y $AB$ respectivamente.

Recordemos que las distancias de $K$ a los lados del triángulo son proporciónales a estos,
$d(K, BC) = a \dfrac{2(\triangle ABC)}{a^2 + b^2 + c^2}$

Figura 1

En un ejercicio de la entrada anterior se pide mostrar que
$\dfrac{1}{\tan \omega} = \cot \omega = \dfrac{a^2 + b^2 + c^2}{4(\triangle ABC)}$.

Donde $\omega$ es el ángulo de Brocard y $a$, $b$, $c$ los lados de $\triangle ABC$.

Por lo tanto, $d(K, BC) = \dfrac{a}{2} \tan \omega$.

Sea $A_1 = OA’ \cap B\Omega$, en $\triangle A_1BA’$, $A’A_1 = \dfrac{a}{2} \tan \omega$.

Esto implica que $A_1K \parallel BC$, como $OA_1$ es mediatriz de $BC$ entonces $\angle OA_1K = \dfrac{\pi}{2}$, y por lo tanto $A_1 \in \Gamma (KO)$.

De manera similar si consideramos $B_1$ la intersección del rayo $C\Omega$ con la mediatriz de $CA$, podemos ver $B_1K \parallel CA$ y que $B_1 \in \Gamma(KO)$.

Como $A_1K \parallel BC$ y $B_1K \parallel CA$ entonces $\angle KA_1\Omega = \omega = \angle KB_1\Omega$.

En consecuencia, el cuadrilátero $\square \Omega A_1B_1K$ es cíclico, pero el circuncírculo de $\triangle A_1B_1K$, es la circunferencia de Brocard.

Por lo tanto, el primer punto de Brocard $\Omega$, está en la circunferencia de Brocard.

Sea $\Omega’$ el segundo punto de Brocard, como $A_1$ y $B_1$ están en las mediatrices de $BC$ y $CA$ entonces $\triangle A_1BC$ y $\triangle B_1CA$ son isósceles y $\angle A_1CB = \angle B_1AC = \angle \Omega’CB = \angle \Omega’AC = \omega$.

Esto implica que $CA_1$ y $AB_1$ se intersecan en $\Omega’$.

Ya que $A_1K \parallel BC$ y $B_1K \parallel CA$, entonces, $\angle \Omega’A_1K = \omega$ y $\angle KB_1\Omega’ = \pi – \omega$.

Esto implica que $\square A_1\Omega B_1K$ es cíclico, y así el segundo punto de Brocard está en la circunferencia de Brocard.

$\blacksquare$

Corolario 1. Un triángulo y su primer triángulo de Brocard están en perspectiva desde los puntos de Brocard.

Demostración. En el teorema anterior vimos que $BA_1$ y $CB_1$ se intersecan en el primer punto de Brocard, de manera similar se puede ver que $A$, $C_1$ y $\Omega$ son colineales.

También mostramos que $CA_1 \cap AB_1 = \Omega’$, de manera análoga podemos ver que $BC_1$ pasa por $\Omega’$.

Por lo tanto $\Omega$ y $\Omega’$ son centros de perspectiva de $\triangle ABC$ y $\triangle A_1B_1C_1$.

$\blacksquare$

Corolario 2. $\triangle ABC$ y su primer triángulo de Brocard son semejantes.

Demostración. Como $B_1K \parallel CA$, $A_1K \parallel BC$ y tomando en cuenta que $\square A_1C_1B_1K$ es cíclico entonces $\angle ACB = \pi – \angle A_1KB_1 = \angle B_1C_1A_1$.

De manera similar vemos que $\angle A = \angle A_1$ y $\angle B = \angle B_1$.

$\blacksquare$

Conjugado isotómico del punto simediano

En la entrada triángulos en perspectiva vimos que si dos triángulos tienen dos centros de perspectiva entonces existe un tercero, en la siguiente proposición describimos este punto.

Proposición 1. El tercer centro de perspectiva entre un triángulo y su triángulo de Brocard es el conjugado isotómico del punto simediano respecto del triángulo original.

Demostración. Bajo la misma notación del teorema anterior, Recordemos que la $A$-simediana y la $A$-exsimediana son conjugadas armónicas respecto de $AB$, $AC$.

También sabemos que $BK$ y la $A$-exsimediana se intersecan en un punto exsimediano, es decir el punto de intersección de las tangentes por $A$ y $C$ al circuncírculo de $\triangle ABC$.

Figura 2

Sea $S = BK \cap AC$, entonces la hilera $BKSE$ es armónica, así, el haz $B’(BKSE)$ es armónico.

Tomando en cuenta que $OB_1B’E$ es una recta.

En el teorema anterior vimos que $B_1K  \parallel AC$, entonces las otras tres rectas del haz bisecan a $B_1K$, es decir $BB’$ biseca a $B_1K$.

Sea $X = BB_1 \cap AC$, como $\triangle BB_1K$ y $\triangle BXS$ son semejantes entonces $B’$ es el punto medio entre $X$ y $S$.

Por lo tanto, $BK$, $BB_1$, son rectas isotómicas, es decir, unen puntos isotómicos con el vértice opuesto.

Igualmente vemos que $AK$, $AA_1$ y $CK$, $CC_1$ son rectas isotómicas, como las simedianas concurren en $K$, entonces, $AA_1$, $BB_1$, $CC_1$concurren en u punto $Y$.

$\blacksquare$

Centroide del triángulo de Brocard

Teorema 2. El centroide de un triángulo y el centroide de su primer triángulo de Brocard coinciden.

Demostración. Nuevamente emplearemos la notación del teorema 1.

Figura 3

$A_1$, $B_1$ y $C_1$ están en las mediatrices de $BC$, $CA$ y $AB$ entonces $\triangle A_1BC$, $\triangle B_1CA$, $\triangle C_1AB$ son isósceles, además son semejantes, pues $\angle A_1BC = \angle B_1CA = \angle C_1AB = \omega$, por lo tanto,

$\dfrac{AC_1}{AB_1} = \dfrac{AB}{CA}$ y $\dfrac{CA_1}{CB_1} = \dfrac{BC}{CA}$.

Sea $X$ la reflexión de $B_1$ respecto de $CA$, entonces
$\angle C_1AX = \angle C_1AC + \angle CAX $
$= \angle C_1AC + \angle B_1AC = \angle C_1AC + \omega $
$= \angle A$,

además $\dfrac{AC_1}{AX} = \dfrac{AC_1}{AB_1} =\dfrac{AB}{CA}$.

Por criterio de semejanza LAL, $\triangle ABC \sim \triangle AC_1X$, igualmente podemos ver que $\triangle ABC \sim \triangle XA_1C$.

Por lo tanto, $\triangle AC_1X \sim \triangle XA_1C$, pero $AX = AB_1 = B_1C = CX$, así que $\triangle AC_1X$ y $\triangle XA_1C$ son congruentes.

En consecuencia, $C_1X = A_1C = A_1B$ y $XA_1 = AC_1 = C_1B$, esto implica que $\square C_1BA_1X$ es un paralelogramo y por lo tanto $A_1C_1$ y $BX$ se cortan en su punto medio $M$.

En $\triangle B_1BX$, $B_1M$ y $BB’$ son medianas, donde $B’$ es el punto medio de $B_1X$ y $CA$, por lo tanto, su intersección $G$, triseca a ambas medianas de $\triangle B_1BX$.

Pero el centroide de $\triangle ABC$ y de $\triangle A_1B_1C_1$ es el único punto con esa propiedad, por lo tanto, su centroide es el mismo.

$\blacksquare$

Concurrencia en el centro de los nueve puntos.

Proposición 3. Las perpendiculares a los lados de un triángulo desde los puntos medios de su primer triángulo de Brocard concurren en el centro de los nueve puntos.

Demostración. Sean $\triangle ABC$ y $\triangle A_1B_1C_1$ su primer triángulo de Brocard, $D$, $E$, $F$, los puntos medios de $B_1C_1$, $C_1A_1$, $A_1B_1$ respectivamente.

Figura 4

Notemos que las perpendiculares por $D$, $E$, $F$, a $BC$, $CA$, $AB$, respectivamente, son paralelas a $OA_1$, $OB_1$, $OC_1$ respectivamente, donde $O$ es el circuncentro de $\triangle ABC$.

Como $\triangle A_1B_1C_1$ y $\triangle DEF$, están en homotecia desde $G$, el centroide de $\triangle A_1B_1C_1$, y razón $\dfrac{- 1}{2}$, entonces los tres pares de rectas paralelas son pares de rectas homotéticas, pues pasan por puntos homólogos.

Como $OA_1$, $OB_1$, $OC_1$, concurren en $O$ entonces sus correspondientes rectas homotéticas concurren en el correspondiente punto homólogo, $O’$.

Entonces $O$, $G$ y $O’$ son colineales en ese orden y $\dfrac{OG}{2} = GO’$.

Como $G$ también es el centroide de $\triangle ABC$ entonces $O’$ es el centro de los nueve puntos de $\triangle ABC$.

$\blacksquare$

Punto de Steiner

Proposición 4. Las rectas paralelas (perpendiculares) por los vértices de un triángulo a los respectivos lados de su primer triángulo de Brocard concurren en el circuncírculo del triángulo original, el punto de concurrencia se conoce como punto de Steiner (Tarry).

Demostración. Si $\triangle A_1B_1C_1$ es el primer triángulo de Brocard de $\triangle ABC$, sea $S$ la intersección de la paralela a $A_1C_1$  por $B$ y la paralela a $A_1B_1$ por $C$.

Figura 5

$\angle BSC = \angle C_1A_1B_1 = \angle BAC$, por lo tanto, $S$ se encuentra en el arco $\overset{\LARGE{\frown}}{AB}$.

De manera análoga vemos que $CS$ y la paralela a $B_1C_1$ por $A$ se intersecan en el circuncírculo de $\triangle ABC$.

Por lo tanto, las paralelas concurren en $S$.

Considera $T$ el punto diametralmente opuesto a $S$, entonces $AT \perp AS \Rightarrow AT \perp B_1C_1$.

De manera similar vemos que $BT \perp A_1C_1$ y $CT \perp A_1B_1$.

Por lo tanto, las perpendiculares concurren en el circuncírculo de $\triangle ABC$.

$\blacksquare$

Más adelante…

Con la siguiente entrada comenzaremos la última unidad en la que hablaremos sobre cuadriláteros, mostraremos algunos teoremas que establecen propiedades análogas a la de los triángulos, como, cuando un cuadrilátero tiene un incírculo o la formula de Euler que mide la distancia entre el incentro y el circuncentro pero esta vez para cuadriláteros.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Construye un triángulo, dado su primer triángulo de Brocard.
  2. Muestra que la recta que une los vértices de un triángulo con los correspondientes vértices de su primer triángulo de Brocard dividen a los lados opuestos del triángulo original en el inverso de la razón de los cuadrados de los lados adyacentes.
  3. Prueba que la reflexión del punto simediano respecto del centro de los nueve puntos de un triángulo es el centro de la circunferencia de Brocard de su triángulo anticomplementario.
  4. Muestra que el punto simediano y el circuncentro de un triángulo son el punto de Steiner y el punto de Tarry de su primer triángulo de Brocard.
  5. El triángulo cuyos vértices son las segundas intersecciones de las simedianas de un triángulo con su circunferencia de Brocard es el segundo triángulo de Brocard, demuestra que:
    $i)$ los vértices del segundo triángulo de Brocard son los puntos medios de las cuerdas del circuncírculo de su triángulo de referencia determinadas por sus simedianas,
    $ii)$ las circunferencias del grupo directo e indirecto que son tangentes a los lados de un mismo ángulo de un triángulo se intersecan en los vértices de su segundo triángulo de Brocard.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 279-284.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 277-282.
  • Shively, L., Introducción a la Geómetra Moderna. México: Ed. Continental, 1961, pp 73-75.
  • Honsberger, R., Episodes in Nineteenth and Twentieth Century Euclidean Geometry. Washington: The Mathematical Association of America, 1995, pp 106-124.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Probabilidad I: Más Propiedades del Valor Esperado

Por Octavio Daniel Ríos García

Introducción

Como parte de nuestro estudio del valor esperado, en esta entrada abordaremos algunas más de sus propiedades. En la entrada antepasada vimos un primer conjunto de propiedades, y probablemente habrás notado que se trataba de propiedades en las que sólamente había una v.a. Por el contrario, conforme a lo visto en la entrada anterior, las propiedades que veremos en esta entrada involucran a más de una v.a., así que necesitaremos algunos de los elementos básicos de probabilidad multivariada que vimos.

En esta entrada centraremos nuestra atención en ver cómo interactúa el valor esperado con dos operaciones de variables aleatorias: la suma y el producto. Veremos que el valor esperado de la suma de dos v.a.’s se comporta de forma muy agradable, y podremos decir que es lineal. No obstante, el valor esperado del producto de dos v.a.’s requerirá de una condición extra para poder comportarse de manera agradable.

Linealidad con respecto a escalares

Una consecuencia de la ley del estadístico inconsciente es una primera propiedad de linealidad del valor esperado, con respecto a constantes reales.


Propiedad 1. Sea $X\colon\Omega\to\RR$ una variable aleatoria y sean $a$, $b \in \RR$. Entonces se cumple que

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b \end{align*}


Demostración. Sea $g\colon\RR\to\RR$ la transformación dada por

\begin{align*} g(x) &= ax + b & \text{para cada $x \in \RR$}.\end{align*}

De este modo, $g(X) = aX + b$. Aplicando la ley del estadístico inconsciente, se sigue que:

  1. Si $X$ es una v.a. discreta, entonces \begin{align*} \Esp{g(X)} &= \sum_{x \in X[\Omega]} g(x) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} (ax + b) \Prob{X = x} \\[1em] &= \sum_{x \in X[\Omega]} {\left( ax\Prob{X = x} + b\Prob{X = x}\right)} \\[1em] &= a \sum_{x\in X[\Omega]} x \Prob{X = x} + \sum_{x\in X[\Omega]} b \Prob{X = x} \\[1em] &= a\Esp{X} + \Esp{b} \\[1em] &= a\Esp{X} + b, \end{align*}por lo que es cierto en el caso discreto.
  2. Si $X$ es una v.a. continua, entonces $g(X)$ es una v.a. continua (porque $g$ es una transformación continua). Así, tenemos que \begin{align*} \Esp{g(X)} &= \int_{-\infty}^{\infty} g(x) f_{X}(x) \, \mathrm{d}x, \\[1em] &= \int_{-\infty}^{\infty} (ax + b) f_{X}(x) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} (axf_{X}(x) + bf_{X}(x)) \, \mathrm{d}x \\[1em] &= \int_{-\infty}^{\infty} axf_{X}(x) \, \mathrm{d}x + \int_{-\infty}^{\infty} bf_{X}(x) \, \mathrm{d}x \\[1em] &= a \int_{-\infty}^{\infty} xf_{X}(x) \, \mathrm{d}x + b\int_{-\infty}^{\infty} f_{X}(x) \, \mathrm{d}x \\[1em] &= a\Esp{X} + b, \end{align*}por lo que también es cierto en el caso continuo.

Por lo tanto, podemos concluir que si $X$ es una v.a. y $a$ y $b \in \RR$ son constantes reales, entonces

\begin{align*} \Esp{aX + b} &= a\Esp{X} + b, \end{align*}

que es justamente lo que queríamos demostrar.

$\square$

Es importante notar que para \(a = 1\), la propiedad anterior nos dice que para cualquier \(b \in \RR\) se cumple que

\begin{align*} \Esp{X + b} &= \Esp{X} + b, \end{align*}

lo cual es muy natural: si la v.a. \(X\) tiene una tendencia central hacia \(\Esp{X}\), entonces el comportamiento aleatorio de \(X + b\) estará centrado alrededor de \(\Esp{X} + b\), pues el valor \(b\) está fijo.

Valor esperado de la suma de v.a.’s

Dadas $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ dos v.a.’s definidas sobre el mismo espacio de probabilidad, podemos definir la v.a. $(X+Y)\colon\Omega\to\RR$ dada por

\begin{align*} (X+Y)(\omega) &= X(\omega) + Y(\omega) & \text{para cada $\omega\in\Omega$}. \end{align*}

Ahora, si por alguna razón queremos calcular el valor esperado de $X+Y$, podríamos caer en la trampa de utilizar directamente la definición, e intentaríamos calcular

\begin{align*} \Esp{X+Y} &= \sum_{z \in (X+Y)[\Omega]} z \Prob{X + Y = z}, \end{align*}

en caso de que $X+Y$ sea discreta; o

\begin{align*} \Esp{X+Y} &= \int_{-\infty}^{\infty} z f_{X+Y}(z) \, \mathrm{d}z, \end{align*}

donde $f_{X+Y}\colon\RR\to\RR$ es la función de densidad de $X+Y$… algo que inicialmente no poseemos, incluso si las distribuciones de $X$ y de $Y$ son conocidas. Sin embargo, no es necesario hacer nada de esto: ¡el valor esperado es lineal! Esto lo enunciamos en la siguiente propiedad.


Propiedad 2. Sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ variables aleatorias con valor esperado finito definidas sobre el mismo espacio de probabilidad. Entonces

\begin{align*} \Esp{X + Y} &= \Esp{X} + \Esp{Y}. \end{align*}


Demostración. Demostraremos el caso en el que $X$ y $Y$ son v.a.’s discretas. Para ello, podemos recurrir directamente a la definición formal de valor esperado.

\begin{align*} \Esp{X + Y} &= \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}}. \end{align*}

Sabemos que $(X + Y)(\omega) = X(\omega) + Y(\omega)$, por lo que

\begin{align*} \sum_{\omega\in\Omega} (X + Y)(\omega) \Prob{\{ \omega \}} &= \sum_{\omega\in\Omega} (X(\omega) + Y(\omega)) \Prob{\{\omega\}} \\[1em] &=\sum_{\omega\in\Omega} {\left[X(\omega)\Prob{\{\omega\}} + Y(\omega)\Prob{\{\omega\}} \right]} \\[1em] &= \sum_{\omega\in\Omega} X(\omega) \Prob{\{\omega\}} + \sum_{\omega\in\Omega} Y(\omega) \Prob{\{\omega\}} \\[1em] &= \Esp{X} + \Esp{Y}, \end{align*}

por lo que $\Esp{X + Y} = \Esp{X} + \Esp{Y}$, que es justamente lo que queríamos demostrar.

$\square$

Por otro lado, omitiremos el caso cuando $X$ y $Y$ son v.a.’s continuas, pues la demostración (a este nivel) requiere de hacer más trampa, utilizando además una variante multivariada de la ley del estadístico inconsciente. No obstante, para propósitos de este curso, podrás asumir que el valor esperado es lineal en el caso discreto y en el continuo.

Valor esperado del producto de v.a.’s

De manera similar a la suma, dadas \(X\colon\Omega\to\RR\), \(Y\colon\Omega\to\RR\) v.a.’s, se define el producto de \(X\) con \(Y\) como la función \((XY)\colon\Omega\to\RR\) dada por

\begin{align*} (XY)(\omega) &= X(\omega) Y(\omega) & \text{para cada \(\omega\in\Omega\)}. \end{align*}

Es natural preguntarnos, ¿cómo se comporta esta operación con respecto al valor esperado? ¿Se comporta igual que la suma? Es decir, ¿será cierto que para cualesquiera v.a.’s \(X\) y \(Y\) se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}? \end{align*}

La respuesta es que no, y te ofrecemos el siguiente ejemplo.

Ejemplo 1. Sean \(X\), \(Y\) v.a.’s con función de masa de probabilidad conjunta \(p_{X,Y}\colon\RR^{2}\to\RR\) dada por los valores en la siguiente tabla:

\(X\)
-11\(p_{Y}(y) \)
\(Y\)00.10.40.5
10.40.10.5
\(p_{X}(x)\)0.50.5

De este modo, se tiene que

\begin{align*} p_{X,Y}(-1,0) &= \Prob{X= -1, Y = 0} = 0.1, \\[1em] p_{X,Y}(1,0) &= \Prob{X = 1, Y = 0} = 0.4, \end{align*}

etcétera. En los extremos de la tabla hemos colocado las funciones de masa de probabilidad marginal de \(X\) y de \(Y\). Con ellas podemos calcular \(\Esp{X}\) y \(\Esp{Y}\) como sigue:

\begin{align*} \Esp{X} &= (−1)\cdot p_{X}(−1) + 1 \cdot p_{X}(1) = (−0.5) + 0.5 = 0, \\[1em] \Esp{Y} &= 0\cdot p_{Y}(0) + 1 \cdot p_{Y}(1) = 0 + 0.5 = 0.5. \end{align*}

Así, obtenemos que \(\Esp{X}\Esp{Y} = 0 \cdot 0.5 = 0\). Por otro lado, observa que \(XY\) puede tomar alguno de tres posibles valores: \(0\), \(1\) y \(-1\). \(XY\) vale \(0\) cuando \(Y\) toma el valor \(0\) y \(X\) toma cualquier valor; mientras que \(XY = 1\) cuando \(Y=1\) y \(X = 1\); y además \(XY = -1\) cuando \(Y=1\) y \(X=-1\). Esto nos da todas las probabilidades de \(XY\), que son

\begin{align*} \Prob{XY = 0} &= \Prob{X = 1, Y = 0} + \Prob{X = -1, Y = 0} = 0.4 + 0.1 = 0.5, \\[1em] \Prob{XY=1} &= \Prob{X=1,Y=1} = 0.1, \\[1em] \Prob{XY=-1} &= \Prob{X=-1,Y=0} = 0.4, \end{align*}

así que \(XY\) es una v.a. con función de masa de probabilidad \(p_{XY}\colon\RR\to\RR\) dada por

\begin{align*} p_{XY}(z) &= \begin{cases} 0.4 & \text{si \(z=-1\)}, \\[1em] 0.5 & \text{si \(z = 0\)}, \\[1em] 0.1 & \text{si \(z=1\)}, \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

Por lo tanto, el valor esperado de \(XY\) es

\begin{align*} \Esp{XY} &= (-1)\cdot p_{XY}(-1) + 0\cdot p_{XY}(0) + 1\cdot p_{XY}(1) = −0.4 + 0 + 0.1 = −0.3, \end{align*}

así que claramente \(\Esp{XY} \neq \Esp{X}\Esp{Y}\).


Sin embargo, hay una condición bajo la cual sí se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\), que está dada por el siguiente teorema:


Teorema 1. Si \(X\), \(Y\) son variables aleatorias independientes, entonces se cumple que

\begin{align*} \Esp{XY} &= \Esp{X}\Esp{Y}. \end{align*}


La demostración de este teorema requiere de más acrobacias tramposas (a este nivel) con integrales múltiples, por lo que la omitiremos.

Observa que el teorema establece que si \(X\) y \(Y\) son v.a.’s independientes, entonces se tendrá que \(\Esp{XY} = \Esp{X}\Esp{Y}\). La implicación conversa no es verdadera, existen v.a.’s no-independientes que satisfacen \(\Esp{XY} = \Esp{X}\Esp{Y}\).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. ¿Cómo interpretas la linealidad del valor esperado? Es decir, sabemos que si \(X\) es una v.a., entonces \(\Esp{X}\) es el «centroide esperado» al obtener muchas observaciones de \(X\), ¿cómo se interpreta que \(\Esp{X + Y} = \Esp{X} + \Esp{Y}\)?
  2. Por otro lado, no siempre se cumple que \(\Esp{XY} = \Esp{X}\Esp{Y}\). ¿Por qué pasa esto con el producto?
  3. Construye dos v.a.’s \(X\) y \(Y\) tales que \(\Esp{XY} = \Esp{X}\Esp{Y}\), pero de tal manera que \(X\) y \(Y\) no sean independientes. Sugerencia: Para asegurar la no-independencia, escoge una v.a. \(X\) sencilla (como las del Ejemplo 1), y toma a \(Y = g(X)\), donde \(g\) es una transformación conveniente.

Más adelante…

Debido a que el valor esperado es un concepto muy importante en la teoría (y en la práctica) de la probabilidad, las propiedades presentadas en esta entrada y la anterior son muy importantes, y te encontrarás con ellas muy a menudo. Además, en las materias de Probabilidad II y Procesos Estocásticos I verás temas que involucran más de una variable aleatoria (probabilidad multivariada) en los que utilizarás las propiedades vistas en esta entrada (y otras muy parecidas, pero más generales).

Volviendo a nuestro curso, en la entrada siguiente veremos otro valor asociado a una distribución de probabilidad: la varianza.

Entradas relacionadas

Probabilidad I: Interacciones Entre Variables Aleatorias

Por Octavio Daniel Ríos García

Introducción

En esta entrada veremos una breve introducción a las interacciones básicas entre dos v.a.’s. En una entrada previa vimos cómo se interpretaban las operaciones con eventos, y después vimos algunos conceptos asociados a la interacción entre eventos, como es el caso de la definición de independencia. De manera similar, es razonable que definamos ciertos conceptos para describir el comportamiento probabilístico de dos variables aleatorias de manera conjunta.

Primero, un poco de notación

Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$, $Y\colon\Omega\to\RR$ dos variables aleatorias. Aquí estamos siendo muy explícitos con el hecho de que el dominio de ambas v.a.’s debe de ser el mismo. Esto es importante porque los eventos que involucran a $X$ y a $Y$ deben de ser elementos del mismo σ-álgebra. Además, las operaciones entre v.a.’s están bien definidas siempre y cuando estas tengan el mismo dominio, pues se definen puntualmente.

Primero, demos un poco de notación. Sean $A$ y $B \in \mathscr{B}(\RR)$. Para denotar la probabilidad del evento en el que $X \in A$ y $Y \in B$ se sigue la siguiente notación:

\begin{align*} \Prob{X \in A, Y \in B} &= \Prob{(X \in A)\cap(Y \in B)}. \end{align*}

Es decir, $(X \in A, Y \in B)$ es la notación para expresar el evento $(X \in A) \cap (Y \in B)$. Observa que este conjunto sí es un evento, pues $X$ y $Y$ son v.a.’s, así que tanto $(X \in A)$ como $(Y \in B)$ son elementos de $\mathscr{F}$, así que también su intersección lo es.

De este modo, podemos expresar muchas probabilidades de intersecciones de eventos de forma más compacta. Por ejemplo:

\begin{align*} \Prob{X = x, Y = y} &= \Prob{(X = x) \cap (Y = y)}, \\[1em] \Prob{X \leq x, Y \leq y} &= \Prob{(X \leq x) \cap (Y \leq y)}, \end{align*}

etcétera.

Independencia de variables aleatorias

En la Unidad 1 de este curso hablamos sobre la independencia de eventos. El paso que sigue ahora es definir la noción de independencia de variables aleatorias. De manera similar a los eventos, que $X$ y $Y$ sean variables aleatorias independientes significa que un evento que involucra a $X$ no afecta las probabilidades de $Y$. Por ello, la noción de independencia se dará en términos de eventos.


Definición 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Diremos que $X$ y $Y$ son independientes si y sólamente si para todo $A$, $B \in \mathscr{B}(\RR)$ se cumple

\begin{align*} \Prob{X \in A, X \in B} &= \Prob{X \in A} \Prob{X \in B}. \end{align*}


También es posible caracterizar la independencia de v.a.’s mediante sus funciones de distribución. Para ello, es necesario definir el concepto de función de distribución conjunta de dos v.a.’s. Esta se define como sigue:


Definición 2. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Se define la función de distribución conjunta de $X$ y $Y$, $F_{X,Y}\colon\RR^{2}\to\RR$, como sigue:

\begin{align*} F_{X,Y}(x,y) &= \Prob{X \leq x, Y \leq y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Esta es una «generalización» multidimensional de la función de distribución de una variable aleatoria. Es decir, sabemos que \(\Prob{X \leq x}\) es la probabilidad de que la v.a. \(X\) tome un valor dentro del intervalo \((-\infty, x]\). De manera similar, \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que las v.a.’s \(X\) y \(Y\) tomen un valor dentro del intervalo \((-\infty, x]\) y \((-\infty, y]\), respectivamente. Esto es, si pensamos a \((X, Y)\) como un punto aleatorio en \(\RR^{2}\), entonces \(\Prob{X \leq x, Y \leq y}\) es la probabilidad de que \((X,Y)\) sea un punto dentro del rectángulo \((-\infty, x] \times (-\infty, y]\).

El siguiente teorema nos brinda un criterio de independencia más sencillo que el de la Definición 1:


Teorema 1. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ variables aleatorias. Las siguientes proposiciones son equivalentes:

  1. $X$ y $Y$ son independientes.
  2. Para cualesquiera $x$, $y \in \RR$ se cumple \begin{align*} F_{XY}(x,y) &= F_{X}(x) F_{Y}(y). \end{align*}

Demostrar que 1. implica a 2. no es complicado, y lo dejamos como tarea moral. Por otro lado, demostrar 2. implica a 1. rebasa los contenidos de este curso, por lo que omitiremos esta parte de la demostración.

Este teorema hace más sencillo verificar si dos v.a.’s son independientes o no lo son. Primero, porque el trabajo se reduce a trabajar con las funciones de distribución. Además, a continuación veremos que es posible recuperar las funciones de probabilidad (masa y densidad) a partir de las funciones de probabilidad conjunta. Por ello, podremos verificar si dos v.a.’s son independientes comparando su distribución conjunta con el producto de sus distribuciones univariadas, gracias al Teorema 1.

Funciones de probabilidad conjunta para v.a.’s discretas

Al haber definido la función de distribución conjunta, se desprenden dos casos importantes: el caso discreto y el caso continuo. En el caso en el que $X$ y $Y$ son v.a.’s discretas, es posible definir la función de masa de probabilidad conjunta de $X$ y $Y$. Esta se define como sigue.


Definición 3. Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad y sean $X\colon\Omega\to\RR$ y $Y\colon\Omega\to\RR$ v.a.’s discretas. Se define la función de masa de probabilidad conjunta de $X$ y $Y$, $p_{X,Y}\colon\RR^{2}\to\RR$ como sigue:

\begin{align*} p_{X,Y}(x, y) &= \Prob{X = x, Y = y}, & \text{para cada $(x,y) \in \RR^{2}$}. \end{align*}


Es decir, el valor $p_{X,Y}(x,y)$ es la probabilidad de que $X$ tome el valor $x$ y $Y$ tome el valor $y$. Ahora, antes de seguir, es recomendable que recuerdes el teorema de probabilidad total que vimos en una entrada previa. Sabemos que $Y[\Omega]$ es un conjunto a lo más infinito numerable, pues $Y$ es una v.a. discreta. Por ello, podemos ver a $Y[\Omega]$ como una unión numerable de conjuntos, donde cada uno de estos conjuntos tiene un único elemento. Es decir, tomamos los conjuntos $\{y\}$, para cada $y \in Y[\Omega]$, y los unimos a todos:

\begin{align*} Y[\Omega] &= \bigcup_{y \in Y[\Omega]} \{ y \}. \end{align*}

De este modo,

\begin{align*} Y^{-1}[Y[\Omega]] &= Y^{-1}{\left[\bigcup_{y \in Y[\Omega]} \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} Y^{-1}{\left[ \{ y \} \right]} \\[1em] &= \bigcup_{y \in Y[\Omega]} (Y = y). \tag{$\triangle$} \end{align*}

Observa que esta es una unión de conjuntos ajenos, pues para cada $y_{1}$, $y_{2} \in Y[\Omega]$ se cumple que si $y_{1} \neq y_{2}$, entonces $\{ y_{1} \} \cap \{ y_{2} \} = \emptyset$. Además,

\begin{align*} Y^{-1}[ \{ y_{1} \} \cap \{ y_{2} \} ] &= Y^{-1}[ \{ y_{1} \}] \cap Y^{-1}[\{ y_{2} \} ], \tag{$*$} \\[1em] Y^{-1}[ { y_{1} } \cap { y_{2} } ] &= Y^{-1}[\emptyset] = \emptyset, \tag{$**$}\end{align*}

así que por $(*)$ y $(**)$ podemos concluir que $Y^{-1}[\{ y_{1} ] \cap Y^{-1}[ \{ y_{2} \} ] = \emptyset$. Por lo tanto, la unión

\begin{align*} \bigcup_{y \in Y[\Omega]} (Y = y) \end{align*}

es una unión de eventos ajenos. Además, por propiedades de la imagen inversa, sabemos que

\begin{align*} \Omega \subseteq Y^{-1}[Y[\Omega]]. \end{align*}

Por otro lado, como el dominio de $Y$ es $\Omega$, también sabemos que $Y^{-1}[Y[\Omega]] \subseteq \Omega$, así que $\Omega = Y^{-1}[Y[\Omega]]$. Finalmente, por $(\triangle)$ se tiene que

\begin{align*} \Omega &= \bigcup_{y \in Y[\Omega]} (Y = y). \end{align*}

Es decir, $\{ \, (Y = y) \mid y \in Y[\Omega] \,\}$ forma una partición de $\Omega$. Sea $x \in X[\Omega]$. Como lo anterior nos da una partición de $\Omega$, podemos aplicar el teorema de probabilidad total para obtener que

\begin{align*} \Prob{X = x} &= \sum_{y \in Y[\Omega]} \Prob{X = x, Y = y}. \end{align*}

Análogamente, para cada $y \in Y[\Omega]$ se tiene que

\begin{align*} \Prob{Y = y} &= \sum_{x \in X[\Omega]} \Prob{X = x, Y = y}. \end{align*}

En términos de las funciones de masa de probabilidad, lo anterior quiere decir que podemos recuperar la masa de probabilidad de $X$ y de $Y$ a partir de la función de masa de probabilidad conjunta, como sigue:

\begin{align*} p_{X}(x) &= \sum_{y \in Y[\Omega]} p_{X,Y}(x, y) & \text{para cada $x \in X[\Omega]$}, \\[1em] p_{Y}(y) &= \sum_{x \in X[\Omega]} p_{X,Y}(x, y) & \text{para cada $y \in Y[\Omega]$}. \end{align*}

Este procedimiento de obtener la función de masa de probabilidad de una v.a. a partir de la masa de probabilidad conjunta se conoce como marginalización, y las funciones resultantes son conocidas como las funciones de masa de probabilidad marginales.

Ejemplo 1. Sean $X$ y $Y$ dos v.a.’s discretas con función de masa de probabilidad conjunta $p_{X,Y}\colon\RR^{2}\to\RR$ dada por:

\begin{align*} p_{X,Y} &= \begin{cases} 0.05 & \text{si $(x, y) = (0,3)$ o $(x,y) = (1,1)$ o $(x, y) = (2,4)$}, \\[1em] 0.1 & \text{si $(x,y)=(0,2)$ o $(x,y) = (1,3)$ o $(x,y) = (2,1)$}, \\[1em] 0.15 & \text{si $(x,y) = (2,2)$}, \\[1em] 0.2 & \text{si $(x,y) = (0,1)$ o $(x,y) = (1,4)$}, \\[1em] 0 & \text{en otro caso}. \end{cases} \end{align*}

Una buena manera de organizar la información contenida en esta función es mediante una tabla como la siguiente:

Valores posibles de $X$
012
Valores posibles de $Y$10.20.050.1
20.100.15
30.050.10
400.20.05

De este modo, $\Prob{X = 0, Y = 1} = 0.2$, y $\Prob{X=0, Y =3} = 0.05$. A partir de las probabilidades de la tabla podemos calcular la función de masa de probabilidad de $X$, $p_{X}\colon\RR\to\RR$. Para ello, simplemente debemos de marginalizar sobre cada uno de los valores que toma $X$. De este modo, obtenemos que

\begin{align*} p_{X}(0) &= p_{X,Y}(0,1) + p_{X,Y}(0,2) + p_{X,Y}(0,3) + p_{X,Y}(0,4) = 0.2 + 0.1 + 0.05 + 0 = 0.35, \\[1em] p_{X}(1) &= p_{X,Y}(1,1) + p_{X,Y}(1,2) + p_{X,Y}(1,3) + p_{X,Y}(1,4) = 0.05 + 0 + 0.1 + 0.2 = 0.35, \\[1em] p_{X}(2) &= p_{X,Y}(2,1) + p_{X,Y}(2,2) + p_{X,Y}(2,3) + p_{X,Y}(2,4) = 0.1 + 0.15 + 0 + 0.05 = 0.3, \end{align*}

por lo que la función de masa de probabilidad de $X$ nos queda

\begin{align*} p_{X}(x) &= \begin{cases} 0.35 & \text{si $x = 0$ o $x = 1$}, \\[1em] 0.3 & \text{si $x = 2$}. \end{cases} \end{align*}

Sin embargo, observa que el uso de una tabla sólo tiene sentido si $X[\Omega]$ y $Y[\Omega]$ son conjuntos finitos. De otro modo, sería una «tabla» infinita, y nunca acabaríamos de escribirla…

Independencia en el caso discreto

Una consecuencia (casi inmediata) del Teorema 1 es el siguiente criterio de independencia para v.a.’s discretas.


Proposición 1. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son discretas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} \Prob{X = x, Y = y} &= \Prob{X = x} \Prob{Y = y}, & \text{para cualesquiera \(x,y \in \RR\).} \end{align*}


Por ejemplo, retomemos las v.a.’s del Ejemplo 1. Sumando los valores en el renglón donde \(Y = 1\), obtenemos que

\begin{align*} \Prob{Y = 1} = 0.35, \end{align*}

y nosotros calculamos que \(\Prob{X = 1} = 0.35\). En consecuencia,

\begin{align} \label{eq:prod} \Prob{X = 1}\Prob{Y = 1} &= 0.1225.\end{align}

Sin embargo, de acuerdo con la tabla, \(\Prob{X = 1, Y = 1} = 0.05\), que no coincide con el valor en \eqref{eq:prod}. Por ello, podemos concluir que las v.a.’s del Ejemplo 1 no son independientes.

Función de densidad conjunta para v.a.’s continuas

Como de costumbre, el caso para las v.a.’s continuas es distinto. En este caso, lo que tendremos es una función de densidad conjunta, que juega el mismo papel que una función de densidad univariada, pero para \(2\) v.a.’s conjuntamente. Esto da lugar a la siguiente definición.


Definición. Sean \(X\) y \(Y\) v.a.’s continuas, y \(F_{X,Y}\colon\RR^{2}\to\RR\) su función de distribución conjunta. Entonces \(F_{X,Y}\) puede expresarse como sigue:

\begin{align*} F_{X,Y}(x,y) &= \int_{-\infty}^{x}\int_{-\infty}^{y} f_{X,Y}(u,v) \, \mathrm{d}v \, \mathrm{d}u, & \text{para cada \((x, y) \in \RR^{2}\).} \end{align*}

De este modo, \(f_{X,Y}\colon\RR^{2}\to\RR\) es llamada la función de densidad conjunta de \(X\) y \(Y\).


De igual forma que con las función de distribución conjunta, la función de densidad conjunta es una generalización multivariada de la función de densidad. Además, también existen técnicas de marginalización que son análogas al caso discreto. Primero, recuerda que integrar la función de densidad sobre un intervalo es nuestra forma de sumar continuamente las probabilidades de cada punto en el intervalo. Esto es:

\begin{align*} \Prob{X \in (a,b]} &= \int_{a}^{b} f_{X}(x) \, \mathrm{d}x. \end{align*}

Si tomamos la idea del teorema de probabilidad total, pero integramos sobre todo el conjunto de valores de una de las v.a.’s (en vez de sumar, como hicimos en el caso discreto), podemos expresar la función de densidad marginal de \(X\) como

\begin{align*} f_{X}(x) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}y, & \text{para cada \(x\in\RR\).}\end{align*}

Es decir, integramos sobre todo el dominio de la v.a. que queremos quitar, que en este caso es \(Y\). Análogamente, para \(Y\) se tiene que

\begin{align*} f_{Y}(y) &= \int_{-\infty}^{\infty} f_{X,Y}(x, y) \, \mathrm{d}x, & \text{para cada \(y\in\RR\).}\end{align*}

Este es el proceso de marginalización para el caso continuo. Observa que las funciones resultantes son las funciones de densidad marginales. Como tal, los valores que toman estas funciones no son probabilidades, por lo que la marginalización es más sutil que en el caso discreto (ya que el teorema de probabilidad total se usa para probabilidades, y para particiones a lo más numerables).

Ejemplo 2. Sean \(X\) y \(Y\) dos v.a.’s tales que su función de densidad conjunta es \(f_{X,Y}\) dada por

\begin{align*} f_{X,Y}(x,y) &= \begin{cases} y{\left( \dfrac{1}{2} − x\right)} + x &\text{si \(x \in (0,1)\) y \(y \in (0,2)\),} \\[1em] 0 & \text{en otro caso.}\end{cases}\end{align*}

La gráfica de esta función se ve como sigue:

Gráfica de la densidad conjunta de 'X' y 'Y'.
Figura. Gráfica de la función de densidad conjunta de \(X\) y \(Y\). Como el dominio de \(f_{X,Y}\) es \(\RR^{2}\), la gráfica de esta función es un lugar geométrico en \(\RR^{3}\).

Sin embargo, hay un detallito que quizás tengas en la cabeza: ¿cómo se interpreta que esta función sea «de densidad», en un sentido vibariado? A grandes rasgos, debe de cumplir lo mismo que una función de densidad univariada. En particular, el valor de la integral sobre su dominio debe de ser \(1\). En este caso, esto significa que se debe de cumplir que

\begin{align*} \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}x \, \mathrm{d}y &= 1. \end{align*}

Como muy probablemente no conoces métodos (ni teoría) de integración bivariada, simplemente te diremos que \(f_{X,Y}\) sí es una función de densidad bivariada, y que sí cumple la condición anterior.

Por otro lado, algo que podemos hacer con los conocimientos que posees hasta ahora es obtener las marginales. Obtengamos la densidad marginal de \(X\), para lo cual hay que integrar \(f_{X,Y}\) sobre todo el dominio de \(Y\):

\begin{align*} \int_{-\infty}^{\infty} f_{X,Y}(x,y) \, \mathrm{d}y &= \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y, \end{align*}

en donde \(x \in (0,1)\), pues es donde la densidad conjunta no vale \(0\). Como esta integral es con respecto a \(y\), podemos pensar que \(x\) es una constante respecto a la variable de integración. Por ello, la integral anterior puede resolverse de manera directa con herramientas de Cálculo II:

\begin{align*} \int_{0}^{2} {\left[ y{\left( \dfrac{1}{2} − x\right)} + x \right]} \, \mathrm{d}y &= \int_{0}^{2} {\left( \dfrac{1}{2} − x\right)}y \, \mathrm{d}y + \int_{0}^{2} x \mathrm{d}y \\[1em] &= {\left( \dfrac{1}{2} − x\right)} \int_{0}^{2} y \, \mathrm{d}y + x \int_{0}^{2} 1 \, \mathrm{d}y \\[1em] &= {\left(\frac{1}{2} − x\right)}{\left( \frac{y^{2}}{2} \right)}\Bigg|_{y=0}^{2} + x(2 − 0) \\[1em] &= {\left(\frac{1}{2} − x\right)} {\left( \frac{4 − 0}{2} \right)} + 2x \\[1em] &= 2{\left( \frac{1}{2} − x \right)} + 2x \\[1em] &= 1 + 2x − 2x \\[1em] &= 1, \end{align*}

para cada \(x \in (0,1)\). En consecuencia, la densidad marginal de \(X\) es \(f_{X}\) dada por

\begin{align*} f_{X}(x) &= \begin{cases} 1 & \text{si \(x \in (0,1)\),} \\[1em] 0 & \text{en otro caso.} \end{cases} \end{align*}

Así, llegamos a que \(X\) sigue una distribución uniforme en el intervalo \((0,1)\).


Independencia en el caso continuo

De manera similar al caso discreto, además del criterio dado por el Teorema 1, podemos dar la siguiente criterio de independencia para dos v.a.’s continuas.


Proposición 2. Sean \(X\), \(Y\) variables aleatorias. Si \(X\) y \(Y\) son continuas, entonces \(X\) y \(Y\) son independientes si y sólamente si

\begin{align*} f_{X,Y}(x,y) &= f_{X}(x) f_{Y}(y), & \text{para cualesquiera \(x,y \in \RR\),} \end{align*}

donde \(f_{X,Y}\) es la función de densidad conjunta de \(X\) y \(Y\), y \(f_{X}\) y \(f_{Y}\) son las funciones de densidad marginales.


Es decir, dos v.a.’s continuas son independientes si su función de densidad conjunta es el producto de sus funciones de densidad (marginales).

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu dominio de los conceptos abordados en esta entrada.

  1. Demuestra que 1. implica a 2. en el Teorema 1.
  2. En el Ejemplo 1:
    1. Verifica que la función $p_{X}\colon\RR\to\RR$ que obtuvimos es una función de masa de probabilidad.
    2. Encuentra $p_{Y}\colon\RR\to\RR$, la función de masa de probabilidad de $Y$.
  3. En el Ejemplo 2:
    1. Encuentra la función de densidad marginal de \(Y\).
    2. ¿Son independientes \(X\) y \(Y\)?

Más adelante…

Usaremos los temas que vimos en esta entrada en la próxima entrada, ya que serán necesarios algunos detallitos de probabilidad multivariada para entender las propiedades del valor esperado que veremos a continuación. Por el momento sólo es importante que sepas que existen estos temas de probabilidad multivariada, y entiendas lo que significan los conceptos vistos en esta entrada.

En un curso de Probabilidad II verás con muchísimo detalle los temas que presentamos en esta entrada, así que no te preocupes si los temas que vimos aquí no te quedaron completamente claros.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: El plano traza – determinante

Por Eduardo Vera Rosales

Introducción

Antes de finalizar con el estudio cualitativo a sistemas de ecuaciones de la forma $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix}$$, vamos a clasificar la estabilidad del punto de equilibrio, y por tanto el plano fase, en un diagrama que resume toda la información que estudiamos en las últimas entradas. Este diagrama es llamado plano traza – determinante. En esta entrada veremos cómo interpretar dicho diagrama.

Vimos que el plano fase y la estabilidad de los puntos de equilibrio depende de la forma de los valores propios asociados. Es fácil observar que los valores propios del sistema son las soluciones a la ecuación $$\det{(\textbf{A}-\lambda\textbf{Id})}=\lambda^{2}-(a+d)\lambda+(ad-bc)=0.$$ Notemos que podemos reescribir la ecuación anterior en términos de dos propiedades de la matriz asociada $\textbf{A}$: su traza y su determinante. En efecto, resulta que $$ \lambda^{2}-(a+d)\lambda+(ad-bc)=\lambda^{2}-\lambda\mathrm{tr}{A}+\det{A}.$$ Entonces los valores propios están dados por la fórmula $$\lambda=\frac{\mathrm{tr}{A}\pm\sqrt{\mathrm{tr}{A}^{2}-4\det{A}}}{2}$$ Así, el plano fase y la estabilidad de los puntos de equilibrio dependerán de la traza y el determinante de la matriz asociada. Analizaremos la forma de los valores propios según la última fórmula.

La información obtenida se podrá resumir en el plano traza – determinante, que puedes observar en la siguiente imagen (tomada del siguiente sitio) que nos indica la forma del plano fase, según los valores de la traza y el determinante.

Plano traza determinante
Plano traza – determinante. Imagen tomada de https://es.m.wikipedia.org/wiki/Archivo:Stability_Diagram.png

El plano traza – determinante

Clasificamos la naturaleza del plano fase y la estabilidad de los puntos de equilibrio del sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ según la traza y el determinante de la matriz asociada. Englobamos toda la información obtenida en el plano traza – determinante.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Muestra que los valores propios del sistema $\lambda_{1}, \lambda_{2}$ satisfacen las identidades $$\lambda_{1}+\lambda_{2}=\mathrm{tr}{A}$$ $$\lambda_{1}\lambda_{2}=\det{A}.$$ Recuerda considerar los casos cuando los valores propios son distintos o iguales.

Clasifica el plano fase y puntos de equilibrio de los siguientes sistemas de ecuaciones, calculando únicamente la traza y el determinante de la matriz asociada:

  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} 15 & -1 \\ -60 & 4 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} \pi & 0 \\ e & -1 \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$
  • Considera el sistema de ecuaciones $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+2 \\ a-2 & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}.$$ Determina la forma del plano fase y la estabilidad del punto de equilibrio según la traza y el determinante de la matriz asociada, y el valor $a$.
  • Para el ejercicio anterior, identifica la región del plano traza – determinante donde los planos fase tienen comportamientos similares.
  • Realiza el mismo análisis de los dos ejercicios anteriores para el sistema $$\begin{pmatrix} \dot{x} \\ \dot{y} \end{pmatrix}=\begin{pmatrix} a & a+b \\ a-b & a \end{pmatrix}\begin{pmatrix} x \\ y \end{pmatrix}$$ para cualquier valor de $a$ y $b$.

Más adelante

Con todo el conocimiento adquirido acerca de sistemas de ecuaciones lineales, es momento de estudiar, al menos de manera cualitativa, sistemas de ecuaciones no lineales. En la próxima entrada daremos una breve introducción a tales sistemas.

Además, veremos que es posible linealizar este tipo de sistemas para obtener un sistema de ecuaciones lineales equivalente que nos brinde la información cualitativa de las soluciones al sistema no lineal. Así, podremos dibujar el plano fase de un sistema no lineal, sin conocer explícitamente las soluciones a dicho sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna II: Potencia de un punto

Por Armando Arzola Pérez

Introducción

En esta primera unidad abordaremos varios los temas relacionados con las circunferencias coaxiales. Para ello, iniciaremos hablando de la potencia de un punto con respecto a una circunferencia. A grandes rasgos, esto trata de lo siguiente.

Tomemos una circunferencia $\mathcal{C}$. Tomemos $P$ un punto cualquiera. Tomemos una recta $l$ por $P$ y llamemos $A$ y $B$ los puntos de intersección de $l$ con $\mathcal{C}$. Bajo estas elecciones, la potencia de $P$ será $PA\cdot PB$. Lo que veremos en esta entrada es que dicho producto es constante sin importar la elección de $l$. Para mostrar esto, introduciremos algunas definiciones y posteriormente haremos una demostración por casos.

Definición de potencia de un punto

Comenzaremos dando una primer definición de potencia, que dependerá de cierto punto, circunferencia y recta que elijamos.

Definición. Sea $\mathcal{C}$ una circunferencia, $P$ un punto y $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ en la recta $l$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C},l):=PA\cdot PB.$$

En esta definición y de aquí en adelante, a menos que se diga lo contrario, se estará trabajando con segmentos dirigidos. Es decir, estamos pensando que cada segmento tiene una dirección del primer punto al segundo. Así, por ejemplo, el valor de $PA$ dependerá de la longitud del segmento y su signo dependerá de una dirección (usualmente implícita) que se le asigne a la recta por $A$ y $P$. De este modo, tendremos, por ejemplo, que $PA=-AP$.

La definición de potencia de un punto puede simplificarse notablemente en vista de la siguiente proposición.

Proposición. La potencia de un punto con respecto a una circunferencia no depende de la recta elegida. Es decir, tomemos $\mathcal{C}$ una circunferencia, $P$ un punto y $l,m$ rectas. Supongamos que los puntos de intersección de $l$ con $\mathcal{C}$ son $A$ y $B$; y que los puntos de intersección de $m$ con $\mathcal{C}$ son $C$ y $D$ (en caso de tangencias, repetimos los puntos). Entonces: $$PA\cdot PB = PC\cdot PD.$$

Demostración. Haremos la demostración por casos de acuerdo a cuando $P$ está dentro o fuera de la circunferencia, o sobre ella.

Dentro de la circunferencia:

Tomemos las cuerdas $AB$ y $CD$ en la circunferencia, las cuales se cortan en $P$. Los triángulos $\triangle APC$ y $\triangle DPB$ son semejantes ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está dentro de la circunferencia.
  1. $\angle PAC = \angle PDB $ por abrir el mismo arco $\overline{BC}$.
  2. $\angle APC = \angle BPD $ por ser opuestos al vértice.
  3. $\angle PCA = \angle PBD $ por abrir mismo arco $\overline{AD}$.

Entonces de la semejanza $\triangle APC \cong \triangle DPB $ tenemos que

$\frac{PA}{PD}=\frac{PC}{PB},$

de donde obtenemos la igualdad $PA\cdot PB =PC \cdot PD$ deseada.

Fuera de la circunferencia:

Ahora, $AB$ y $CD$ son dos secantes que se intersecan en $P$, pero con $P$ exterior a $\mathcal{C}$. Tenemos que $\triangle APC $ y $\triangle DPB $ son semejantes, ya que:

Geometría Moderna II: Potencia de un punto proposición 1 cuando el punto está fuera de la circunferencia.
  1. El cuadrilátero $\square ABDC$ es cíclico, entonces: $\angle ACD + \angle ABD = 180^\circ$ y $\angle ABD + \angle DBP = 180^\circ $, de donde $\angle DBP = \angle ACD$.
  2. $\angle BPD$ y $\angle CPA$ son los mismos ángulos.

Entonces $\frac{PA}{PC}=\frac{PD}{PB},$ de donde se obtiene la igualdad buscada $PA\cdot PB=PC\cdot PD.$

Sobre la circunferencia:

Este caso es sencillo pues sin importar las secantes tomadas, en cada una hay un punto igual a $P$ y por lo tanto una distancia igual a cero. De este modo, $PA\cdot PB=0=PC\cdot PD$.

$\square$

Nota que las demostraciones anteriores sirven aunque $l$ ó $m$ sean tangentes, sólo que hay que hacer ligeras adaptaciones sobre los ángulos usados y los motivos por los que son iguales. Enunciaremos el caso de la tangencia un poco más abajo.

En vista de la proposición anterior, podemos simplificar nuestra definición notablemente.

Definición. Sea $\mathcal{C}$ una circunferencia y $P$ un punto. Tomemos $l$ una recta que intersecta a $\mathcal{C}$. Sean $A$ y $B$ los puntos de intersección de $l$ y $\mathcal{C}$ ($A=B$ si $l$ es tangente a $\mathcal{C}$). La potencia de $P$ con respecto a $\mathcal{C}$ es la cantidad $PA\cdot PB$. Usaremos la siguiente notación: $$\text{Pot}(P,\mathcal{C}):=PA\cdot PB.$$

La potencia queda bien definida sin importar la recta $l$, debido a la proposición anterior.

El signo de la potencia

En esta definición estamos usando segmentos dirigidos, y eso nos lleva a que la potencia de un punto puede tener distintos signos. El comportamiento queda determinado por el siguiente resultado.

Proposición. La potencia de un punto $P$ con respecto a una circunferencia $\mathcal{C}$ es positiva, negativa o cero, de acuerdo a si el punto $P$ está fuera de $\mathcal{C}$, dentro de ella, o sobre ella, respectivamente.

Demostración. Veamos esto caso por caso.

  • Sea $P$ un punto externo a $\mathcal{C}$. Entonces $PA$ y $PB$ tienen la misma orientación y por lo tanto el mismo signo. Además, como $P$ no está sobre $\mathcal{C}$, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})> 0$.
Geometría Moderna II: Potencia de un punto respecto a un punto externo.
  • Sea $P$ un punto interno a $\mathcal{C}$. Entonces $PA$ está dirigido hacia un lado y $PB$ está dirigido hacia el otro, de modo que tienen signo contrario. Además, ninguno de ellos es cero. Así, $\text{Pot}(P,\mathcal{C})<0$.
Geometría Moderna II: Potencia de un punto respecto a un punto interno de la circunferencia.
  • Finalmente, sea $P$ un punto sobre $\mathcal{C}$. Esto quiere decir que alguno de los puntos $A$ o $B$ es $P$ (quizás ambos, si $l$ es tangente). Así, $PA=0$ ó $PB=0$. De este modo $\text{Pot}(P,\mathcal{C})=0$.
Geometría Moderna II: Potencia de un punto que está sobre la circunferencia.

$\square$

Otras fórmulas para la potencia

La potencia es invariante sin importar la recta elegida. De este modo, podemos elegir a una recta tangente y obtener una fórmula para la potencia en términos de la longitud de dicha tangente.

Proposición. Sea $\mathcal{C}$ una circunferencia. Para un punto $P$ fuera de $\mathcal{C}$, su potencia es igual al cuadrado de la longitud de una tangente de él a la circunferencia.

Es decir, sea $T$ un punto sobre la circunferencia tal que $PT$ sea tangente a $\mathcal{C}$. Entonces, $\text{Pot}(P,\mathcal{C})=PT^2$.

Imagen representativa de la Proposición 2.

El resultado se sigue de llevar al límite lo que ya probamos en la proposición de invarianza de la potencia. Pero a continuación damos un argumento alternativo.

Demostración. Tracemos otra recta por $P$ que no sea tangente a $\mathcal{C}$ y cuyos puntos de intersección con $\mathcal{C}$ son $A$ y $B$ como en la figura. Tenemos que mostrar que $PA\cdot PB =PT^2$.

El ángulo $\angle PTA$ es semi-inscrito y es igual al ángulo inscrito $ \angle TBA$, pues ambos tienen el mismo arco $\overline{AT}$.

Entonces los triángulos $\triangle APT$ y $\triangle TPB$ comparten el ángulo con vértice en $P$ y $\angle PTA=\angle TBA$. Por ello, se tiene que $\triangle APT \cong \triangle TPB $ son semejantes y sus lados son proporcionales: $\frac{PA}{PT} = \frac{PT}{PB}$. De aquí, $$PT^2=PT\cdot PT=PA\cdot PB=\text{Pot}(P,\mathcal{C}).$$

$\square$

También es posible conocer la potencia de un punto hacia una circunferencia si conocemos el radio de la circunferencia y la distancia del punto al centro.

Proposición. Sea $\mathcal{C}$ una circunferencia de centro $O$ y radio $r$. Sea $P$ un punto en cualquier posición. La potencia de $P$ con respecto a $\mathcal{C}$ es $$\text{Pot}(P,\mathcal{C}) = OP^2 – r^2.$$

Demostración. Haremos la demostración por casos

Dentro de la circunferencia:

Sea $AB$ la cuerda que pasa por el centro $O$ y $P$ (si $O=P$, tomamos cualquier cuerda $AB$ por el centro). Supongamos sin pérdida de generalidad que la recta está dirigida de $A$ a $B$. Tenemos que $AO=r>0$ y llamemos $d=OP>0$. De aquí, $PB=r-d>0$. La siguiente figura resume estas igualdades.

Potencia de un punto imagen de Proposición 3 cuando un punto está dentro de la circunferencia.

La potencia desde $P$ sería entonces, cuidando los signos:

\begin{align*}
PA\cdot PB &= (PO+OA)(PB)\\
&=(-d-r)(r-d)\\
&=-(d+r)(r-d)\\
&=-(r^2-d^2)\\
&=d^2-r^2\\
&=OP^2-r^2.
\end{align*}

Así, $\text{Pot}(P,\mathcal{C})=OP^2-r^2$.

Fuera de la circunferencia:

Ahora desde $P$ tracemos una tangente $PT$ a $\mathcal{C}$ con $T$ sobre $\mathcal{C}$. Como $\angle PTO =90^o$, entonces $\triangle POT$ es un triángulo rectángulo.

Potencia de un punto imagen de Proposición 3 cuando un punto está fuera de la circunferencia.

Por el teorema de Pitágoras y la expresión de potencia en términos de la tangente: $$OP^2=r^2+PT^2=r^2+\text{Pot}(P,\mathcal{C}).$$ Despejando, obtenemos la expresión deseada: $$\text{Pot}(P,\mathcal{C})=OP^2-r^2.$$

Sobre la circunferencia:

Este caso es sencillo, pues sabemos que la potencia de $P$ debe ser cero. Pero además, como $P$ está en la circunferencia, entonces $OP=r$, de modo que $OP^2-r^2=0$, y entonces la expresión también es lo que queremos.

$\square$

Más adelante…

Seguiremos abordando el tema de potencia de un punto y veremos cómo a partir de él se define el eje radical de dos circunferencias.

Entradas relacionadas