Cálculo Diferencial e Integral I: Sucesiones divergentes y sus propiedades

Introducción

Anteriormente estuvimos revisando el concepto de sucesiones convergentes así como varios ejemplos y sus propiedades. Hasta este punto, deberíamos sentirnos bastante cómodos con las sucesiones convergentes puesto que en esta entrada revisaremos con mayor detalle las sucesiones divergentes.

Sucesiones divergentes

Antes de iniciar a ver las propiedades de este tipo de sucesiones, vale la pena recordar la definición que se dio previamente.

Definición. Sea $\{a_n\}$ una sucesión en $\mathbb{R}$. Decimos que $\{a_n\}$ diverge a infinito si $\forall M \in \mathbb{R}$ existe $n_0 \in \mathbb{N}$ tal que si $n \geq n_0$ entonces $M < a_n$.

Como lo habíamos mencionado antes, la definición nos indica que una sucesión diverge a infinito si para cualquier número real ($M$), existe un punto ($n_0$) en el que todos los valores subsecuentes en la sucesión son mayores que $M$. Cuando una sucesión $\{a_n\}$ diverge a infinito lo denotaremos como $$\lim_{n \to \infty} a_n = \infty.$$

Propiedades de las sucesiones divergentes

Ahora sí, estamos listos para indagar las propiedades de las sucesiones que divergen a infinito. La primera propiedad que probaremos será el hecho de que si multiplicamos una sucesión divergente a infinito por una constante positiva, la sucesión resultante también diverge a infinito.

Proposición. Sea $\{a_n\}$ en $\mathbb{R}$ tal que $$\lim_{n \to \infty} a_n = \infty $$ y sea $c > 0$ fijo, entonces $$\lim_{n \to \infty} c \cdot a_n = \infty$$

Demostración.
Sea $M \in \mathbb{R}$. Consideremos $\frac{M}{c} \in \mathbb{R}$
Como $\{a_n\}$ diverge a infinito, entonces existe $n_0$ tal que para todo $n \geq n_0$ se tiene

\begin{gather*}
\frac{M}{c} < a_n \\
\Rightarrow M < c \cdot a_n
\end{gather*}

$$\therefore \lim_{n \to \infty} c \cdot a_n = \infty$$

$\square$

Lo que se hizo en la demostración es dar un valor arbitrario de $M$ y se debía mostrar que existe un natural $n_0$ tal que para todos los valores subsecuentes de la sucesión $\{c \cdot a_n\}$, quedará por arriba de $M$ y nos aprovechamos del hecho de que $\{a_n\}$ es divergente y, particularmente, para el número real $\frac{M}{c}$ en efecto existe ese natural.

La siguiente proposición nos indica cómo se comporta la suma y la multiplicación de sucesiones divergentes que, como es de esperarse, el resultado de tales operaciones resulta en una sucesión divergente.

Proposición. Sean $\{ a_n \}$ y $\{ b_n \}$ dos sucesiones en $\mathbb{R}$ tales que $$\lim_{n \to \infty} a_n = \infty \quad \text{ y } \quad \lim_{n \to \infty} b_n = \infty $$

Entonces

$i$) $$\lim_{n \to \infty} (a_n + b_n) = \infty$$
$ii$) $$\lim_{n \to \infty} (a_n b_n) = \infty$$

Demostración.

$i$) Sea $M \in \mathbb{R}$. Como $\{a_n\}$ y $\{b_n\}$ divergen a infinito

\begin{gather*}
\exists n_1 \in \mathbb{N} \text{ tal que si } n \geq n_1 \Rightarrow \frac{M}{2} < a_n \\
\exists n_2 \in \mathbb{N} \text{ tal que si } n \geq n_2 \Rightarrow \frac{M}{2} < b_n \\
\end{gather*}

Consideremos $n_0 = max\{n_1, n_2 \}$. Si $n \geq n_0$, entonces se cumplen las dos expresiones de arriba y al sumarlas obtenemos que $M < a_n+b_n$
$$\therefore \lim_{n \to \infty} (a_n + b_n) = \infty$$

$ii$) Sea $M \in \mathbb{R}$.
Para $\{a_n\}$ consideremos el número real $\hat{M} = max\{M, 0\}$. Debido a que $\{a_n\}$ diverge, existe $n_1 \in \mathbb{N}$ tal que si $n \geq n_1$, entonces $\hat{M} < a_n$, lo que implica que $M < a_n$ y $0 < a_n$.

Para $\{b_n\}$ consideremos el número real $1$. Debido a que $\{b_n\}$ diverge, existe $n_2 \in \mathbb{N}$ tal que si $n \geq n_2$, entonces $1 < b_n$.

Sea $n_0 = max\{n_1, n_2 \}$. Si $n \geq n_0$, entonces se cumplen las condiciones anteriores. Como $a_n$ es positivo para todo $n \geq n_0$, podemos multiplicar la expresión $1 < b_n$ por $a_n$ y la desigualdad se preservará, es decir, $a_n < a_n b_n$ y además $M < a_n$, por transitividad concluimos que $M < a_n b_n$

$\square$

Después de haber revisado las propiedades anteriores y sabiendo que la sucesión $\{n\}$ diverge, es posible ampliar nuestro repertorio de sucesiones divergentes, por ejemplo las siguientes sucesiones divergen por implicación directa de las proposiciones vistas: $\{5n\}$, $\{n+n^2+n^3\}$, $\{7n^2+4n\}$, etc.

La siguiente propiedad hace referencia a que si tenemos una sucesión $\{a_n\}$ divergente a infinito y otra sucesión $\{b_n\}$ para la cual existe un punto a partir del cual siempre es mayor que $\{a_n\}$, entonces $\{b_n\}$ también diverge a infinito

Proposición. Sean $\{a_n\}$ y $\{b_n\}$ sucesiones en $\mathbb{R}$ tales que
$i$) Existe $n_1 \in \mathbb{N}$ tal que para todo $n \geq n_1$ se cumple $a_n \geq b_n$
$ii$) $$\lim_{n\to \infty} a_n = \infty$$
Entonces $$\lim_{n\to \infty} b_n = \infty$$

La demostración de esta propiedad quedará como tarea moral.

Proposición. Sea $c > 1$, entonces $$\lim_{n \to \infty} c^n = \infty$$

Demostración.

Para realizar esta demostración haremos uso de la proposición anterior. Sea $n \in \mathbb{N}$. Como $c > 1$, entonces $c-1>0$ y por la desigualdad de Bernoulli, tenemos

\begin{gather*}
c^n = (1+c-1)^n \geq 1+n(c-1) > n(c-1) \\
\therefore c^n > n(c-1) \tag{1}
\end{gather*}

Además sabemos que la sucesión $\{n\}$ diverge a infinito y si multiplicamos esta sucesión por una constante positiva, en este caso $c-1$, la sucesión $\{(c-1)n\}$ también diverge a infinito y por $(1)$ podemos utilizar la proposición anterior y concluir que $$\lim_{n \to \infty} c^n = \infty.$$

$\square$

Como última propiedad, probaremos que una sucesión monótona no acotada es divergente. Probaremos el caso para las sucesiones crecientes no acotadas y veremos que divergen a $\infty$ y se dejará como tarea moral probar que las sucesiones decrecientes no acotadas divergen a $-\infty$.

Proposición. Si $\{ a_n \}$ es una sucesión creciente y no acotada, entonces $$\lim_{n \to \infty} a_n = \infty$$

Demostración.
Sea $\{a_n \}$ una sucesión creciente y no acotada y sea $M \in \mathbb{R}$. Como la sucesión no está acotada, existe $n_0 \in \mathbb{N}$ tal que $M < a_{n_0}$ y como la sucesión es creciente $a_n \geq a_{n_0}$ para todo $n \geq n_0$.

\begin{gather*}
\therefore M < a_n \text{, para todo } n \geq n_0 \\ \\
\therefore \lim_{n \to \infty} a_n = \infty
\end{gather*}

$\square$

En la demostración anterior hay una sutileza que vale la pena enfatizar: usamos el hecho de que la sucesión no está acotada para probar que existe al menos un elemento específico ($n_0$) que es mayor que un real arbitrario $M$, pero para probar que diverge a infinito, hay que probar que también todos los elementos subsecuentes de $n_0$ son mayores a $M$ y, en ese momento, es cuando usamos la hipótesis de monotonía.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

  1. Sean $\{a_n\}$ y $\{b_n\}$ sucesiones en $\mathbb{R}$ tales que
    $i$) Existe $n_1 \in \mathbb{N}$ tal que para todo $n \geq n_1$ se cumple $a_n \geq b_n$
    $ii$) $\{a_n \}$ diverge a infinito
    Entonces $$\lim_{n\to \infty} b_n = \infty$$
  2. Si $\{ a_n \}$ es una sucesión decreciente y no acotada , entonces $$\lim_{n \to \infty} a_n = – \infty$$
  3. Sea $\{ a_n \}$ una sucesión divergente a infinito tal que para todo $n\in \mathbb{N}$ se cumple que $a_n \neq 0$. Entonces $$\lim_{n \to \infty} \frac{1}{a_n} = 0.$$
  4. Prueba lo siguiente:
    $i$) $$\lim_{n \to \infty} \frac{n^2+1}{n+1} = \infty$$
    $ii$) $$\lim_{n \to \infty} (n – \sqrt{n} )= \infty$$
  5. Demuestra que si $$\lim_{n \to \infty} \frac{a_n}{n} = L,$$ donde $L > 0,$ entonces $$\lim_{n\to \infty} a_n = \infty.$$

Más adelante…

Hemos revisado a detalle el límite de una sucesión así como el concepto y propiedades de las funciones, es tiempo de continuar con un concepto más avanzado que requiere del entendimiento de ambos temas: límite de una función. Y, como veremos más adelante, la noción de límite de una función es fundamental para poder entender la derivada de una función y es a través de este tema que se abre la puerta para un campo de aplicación bastante amplio guiado por el propósito de la optimización.

Entradas relacionadas

Medida de Probabilidad

Introducción

En la última sesión demostramos un teorema de vital importancia que permite construir un σ-álgebra a partir de cualquier familia dada de conjuntos. Con esto, ya tenemos los objetos necesarios para empezar a tratar con el concepto de «medida». Anteriormente comentamos que un σ-álgebra es el conjunto cuyos elementos son a los que podremos «calificar», es decir, los que podremos medir. En esta sesión describiremos la noción de «medir» los elementos de un σ-álgebra dado.

Definición de Medida de Probabilidad

Dado un espacio muestral $\Omega$ y $\mathscr{F}$ un σ-álgebra sobre $\Omega$, pretendemos asignar a cada $A \in \mathscr{F}$ un valor numérico. Para ello, en matemáticas utilizamos funciones. En este caso, necesitaremos una función que exprese nuestra noción de «probabilidad de ocurrencia». A cada elemento $A \in \mathscr{F}$ se le asignará un valor $\mathbb{P}(A) \in \mathbb{R}$ que deberá estar en el intervalo $[0,1]$. Así, el $0$ representará lo menos probable posible, y el $1$ lo más probable posible. Esta discusión da lugar a la definición de medida de probabilidad.


Definición 1.5. Sea $\Omega$ un conjunto y $\mathscr{F}$ un σ-álgebra sobre $\Omega$. Diremos que una función $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad si cumple las siguientes propiedades:

  1. Para todo $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. Esto es, $\mathbb{P}$ es no-negativa.
  2. Si $\left\lbrace A_{n} \right\rbrace_{n=1}^{\infty}$ es una familia numerable de elementos ajenos de $\mathscr{F}$, entonces
    \[ \mathbb{P}\left( \bigcup_{n=1}^{\infty} A_{n} \right) = \sum_{n=1}^{\infty} \mathbb{P}(A_{n}). \]Esta propiedad es conocida como σ-aditividad. Es decir, $\mathbb{P}$ es σ-aditiva.
  3. $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$.

En resumidas cuentas, una medida de probabilidad es cualquier función que satisface las tres propiedades de la definición anterior. Además, si $\Omega$ es un conjunto, $\mathscr{F}$ un σ-álgebra sobre $\Omega$, y $\mathbb{P}\colon\mathscr{F} \longrightarrow \mathbb{R}$ es una medida de probabilidad, la terna $(\Omega, \mathscr{F}, \mathbb{P})$ recibe el nombre de espacio de probabilidad. Es decir, a partir de ahora, cuando digamos que «$(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad», se entenderá que $\Omega$, $\mathscr{F}$ y $\mathbb{P}$ son los objetos que corresponden.

Juntando todas nuestras herramientas

Ya que tenemos los conceptos más fundamentales de la probabilidad, hay que ver cómo encajan juntos. Para empezar, recuerda que el espacio muestral de un fenómeno aleatorio es el conjunto $\Omega$. Los elementos de este conjunto son todos los resultados posibles del fenómeno. Luego, tomaremos a $\mathscr{F}$, que es un σ-álgebra sobre $\Omega$. Finalmente, sobre $\mathscr{F}$ se define la medida de probabilidad $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$.

Pero, ¿por qué se define la medida sobre el σ-álgebra? ¿Por qué no la definimos directamente sobre $\Omega$? Recuerda que los elementos de un σ-álgebra, a los cuales llamaremos eventos, son subconjuntos de $\Omega$. En la primera entrada de este curso justificamos las propiedades de un σ-álgebra. En particular, mencionamos que un evento $A \in \mathscr{F}$ burdamente cumple lo siguiente: Dado cualquier $\omega \in \Omega$ (es decir, dado cualquiera de los resultados posibles del fenómeno aleatorio), la pregunta «¿es cierto que $\omega \in A$» tiene respuesta. Por ello, cuando nuestra medida de probabilidad asigne el número $\mathbb{P}(A)$ al conjunto $A$, ese número expresa cuál es la probabilidad de que sea cierto que $\omega \in A$. En otras palabras, entre $0$ y $1$, ¿qué tan probable es que ocurra cualquiera de los resultados en $A$? La respuesta será $\mathbb{P}(A)$. Por este motivo, el número $\mathbb{P}(A)$ suele leerse como «la probabilidad del evento $A$», o simplemente, «la probabilidad de $A$».

Justificando las propiedades de una medida de probabilidad

Por otro lado, veamos un poco sobre la motivación de las propiedades de una medida de probabilidad. La no-negatividad surge muy naturalmente de nuestra restricción de la medida al intervalo $[0,1]$. Por otro lado, la σ-aditividad tiene dos razones de ser. Primero, observa que la σ-aditividad implica la aditividad finita. Si $A$, $B \in \mathscr{F}$ son dos eventos cualesquiera tales que $A \cap B = \emptyset$, podemos definir la siguiente familia numerable de conjuntos:

\[ E_{1} = A, E_{2} = B, E_{3} = \emptyset, E_{4} = \emptyset, \ldots, \]

Es decir, para cada $i \in \mathbb{N}$ tal que $i \geq 3$, se define $E_{i} = \emptyset$. Esta es una familia numerable de eventos ajenos (observa que la intersección de cualesquiera dos eventos de la familia resulta ser vacía). Por lo tanto, podemos aplicar la σ-aditividad de $\mathbb{P}$. Esto es, se tiene que

\[ \mathbb{P}\left( \bigcup_{n=1}^{\infty} E_{n} \right) = \sum_{n=1}^{\infty} \mathbb{P}(E_{n}), \]

pero recuerda que para cada $i \geq 3$, se tiene que $E_{i} = \emptyset$. Por un lado, esto significa que

\[ \bigcup_{n=1}^{\infty} E_{n} = E_{1} \cup E_{2} \cup \left( \bigcup_{n=3}^{\infty} E_{n} \right) = A \cup B \cup (\emptyset) = A \cup B. \]

Por otra parte, tenemos que

\begin{align*}
\sum_{n=1}^{\infty} \mathbb{P}(E_{n}) &= \mathbb{P}(E_{1}) + \mathbb{P}(E_{2}) + \sum_{n=3}^{\infty} \mathbb{P}(E_{n}) \\&= \mathbb{P}(A) + \mathbb{P}(B) + \sum_{n=3}^{\infty} \mathbb{P}(\emptyset) \\
&= \mathbb{P}(A) + \mathbb{P}(B) + \sum_{n=1}^{\infty} 0 \\
&= \mathbb{P}(A) + \mathbb{P}(B)
\end{align*}

Esto nos permite concluir que

\[ \mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B). \]

En conclusión, si $\mathbb{P}$ es una medida de probabilidad y $A$, $B \in \mathscr{F}$ son eventos ajenos, entonces $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. En otras palabras, cualquier medida de probabilidad es finitamente aditiva.

La σ-aditividad y, en consecuencia, la aditividad, obedecen a nuestra intuición de medir la probabilidad de dos o más eventos que no comparten elementos. Si $A$ y $B$ son eventos ajenos, cuando un $\omega$ es uno de los elementos de $A$, no puede ser un elemento de $B$. Por ello, como la probabilidad de que el resultado del fenómeno aleatorio sea alguno de los elementos de $A$ es $\mathbb{P}(A)$, este valor no expresa nada sobre la probabilidad de que el resultado del fenómeno sea un elemento de $B$. Análogamente, $\mathbb{P}(B)$ tampoco expresa nada sobre la probabilidad de que el resultado sea un elemento de $A$. Burdamente, cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A)$ y $\mathbb{P}(B)$ no expresan la probabilidad de algo en común.

Por lo tanto, sumar estos dos valores resulta en la probabilidad de que el resultado sea un elemento exclusivamente de $A$ o exclusivamente de de $B$. Pero al ser ajenos, esto es lo mismo que expresar la probabilidad de que el resultado sea un elemento de $A \cup B$. Esto motiva que cuando $A$ y $B$ son eventos ajenos, $\mathbb{P}(A\cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Esta misma idea se extiende al caso de una familia numerable de eventos ajenos, y es la que motiva la σ-aditividad.

Finalmente, la última propiedad establece que $\mathbb{P}(\emptyset) = 0$ y $\mathbb{P}(\Omega) = 1$. ¿Por qué le pedimos a $\mathbb{P}$ que cumpla esto? Recordando que $0$ representa lo más improbable y $1$ lo más probable posible, que $\mathbb{P}(\emptyset) = 0$ expresa que la probabilidad de algo lógicamente imposible debe de ser $0$. Mucho cuidado, el evento $\emptyset$ no representa «que no ocurra nada», esa es una interpretación errónea de $\emptyset$ como evento. Por otro lado, $\mathbb{P}(\Omega) = 1$ se pide porque la probabilidad de que el resultado sea cualquiera de los resultados posibles debe de ser la más alta posible, pues siempre se obtiene alguno de los elementos de $\Omega$ como resultado.

Ejemplo básico de medida de probabilidad

Sean $\Omega = \{ 1, 2, 3 \}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por la siguiente regla de correspondencia: para cada $A \in \mathscr{F}$, definimos

\[ \mathbb{P}(A) = \frac{\left| A \right|}{\left| \Omega \right|}, \]

donde $\left| A \right|$ es la cardinalidad de $A$. Esto es, $|A|$ es el número de elementos que tiene $A$. Primero, tenemos que ver que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad. Ya sabemos que $\Omega$ es un conjunto y que $\mathscr{P}(\Omega)$ es un σ-álgebra sobre $\Omega$. Nos falta ver que $\mathbb{P}$ es una medida de probabilidad. Es decir, hay que ver que satisface las propiedades de una medida de probabilidad.

  1. Primero, hay que verificar que para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$. En efecto, para cualquier conjunto finito $A$ se tiene que $\left| A \right| \in \mathbb{N}$. Además, $\Omega \neq \emptyset$, por lo que $|\Omega| \neq 0$. Por lo tanto, $\frac{|A|}{|\Omega|}$ está bien definido, y se cumple que $\frac{|A|}{|\Omega|} \geq 0$. En conclusión, para cualquier evento $A \in \mathscr{F}$ se cumple que $\mathbb{P}(A) \geq 0$.
  2. Para ver la segunda propiedad, como $\Omega$ es finito, basta con ver que $\mathbb{P}$ es finitamente aditiva. Sean $A$, $B \in \mathscr{F}$ eventos cualesquiera tales que $A \cap B = \emptyset$. Debemos de demostrar que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$. Observa que como $A$ y $B$ son finitos y $A \cap B = \emptyset$, se tiene que $|A \cup B| = |A| + |B|$. Así, tenemos que
    \[ \frac{|A \cup B|}{|\Omega|} = \frac{|A|+|B|}{|\Omega|} = \frac{|A|}{|\Omega|} + \frac{|B|}{|\Omega|}, \]y por la definición de $\mathbb{P}$, podemos concluir que $\mathbb{P}(A \cup B) = \mathbb{P}(A) + \mathbb{P}(B)$.
  3. Finalmente, como $|\emptyset| = 0$, se tiene que $\mathbb{P}(\emptyset) = 0$, y por la definición de $\mathbb{P}$, tenemos que $\mathbb{P}(\Omega) = \frac{|\Omega|}{|\Omega|} = 1$.

Bien, con esto hemos demostrado que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.

Ahora veamos algunos aspectos más prácticos de este ejemplo. Por ejemplo, ¿cuál será la probabilidad de que el resultado de este fenómeno sea $3$? Para obtenerla, hay que encontrar a qué evento nos referimos. En este caso, nos interesa que el resultado sea $3$. Así, el evento en cuestión sería aquel que tenga como único elemento a $3$, es decir, $\{ 3 \}$. Bien, entonces la probabilidad de que el resultado sea $3$ es $\mathbb{P}(\{3\})$. Utilicemos la definición de $\mathbb{P}$ para el cálculo:

\begin{align*}
\mathbb{P}(\{3\}) &= \frac{|\{3\}|}{|\Omega|} \\ &= \frac{|\{3\}|}{|\{1, 2, 3\}|} \\ &= \frac{1}{3},
\end{align*}

así, $\mathbb{P}(\{3\}) = \frac{1}{3}$, por lo que la probabilidad de que el resultado de este fenómeno sea $3$ es $\frac{1}{3}$, o $0.33333\ldots$ Hay quienes escriben la probabilidad de un evento de manera porcentual. De esta forma, la probabilidad de que el resultado sea $3$ es $33.333\ldots\%$.

Hagamos otra pregunta. ¿Cuál es la probabilidad de que el resultado de este fenómeno sea un número impar? Hay que encontrar primero el evento que contiene todos los resultados impares. Esto es, sería el siguiente conjunto

\[ B = \{ \omega \in \Omega \mid \exists k \in \mathbb{Z}\colon \omega = 2k + 1 \}, \]

que para este $\Omega$ es muy sencillo: son $1$ y $3$. Así, $B = \{1,3\}$, y podemos calcular la probabilidad de $B$ usando la expresión que define a $\mathbb{P}$ como sigue.

\begin{align*}
\mathbb{P}(B) &= \mathbb{P}(\{1, 3\}) \\ &= \frac{|\{1,3\}|}{|\Omega|} \\ &= \frac{|{1,3}|}{|{1,2,3}|} \\ &= \frac{2}{3}.
\end{align*}

Por lo tanto, la probabilidad d e que el resultado de este fenómeno sea un número impar es $\frac{2}{3}$, o bien $0.6666\ldots$, o $66.666\ldots\%$.

Para terminar con este ejemplo, veamos algo relacionado con la aditividad de $\mathbb{P}$. Ya vimos que $\mathbb{P}$ es aditiva. ¿Qué pasa si sumamos las probabilidades de dos eventos que no son ajenos? Por ejemplo, sean $C_{1} = \{1,2\}$ y $C_{2} = \{2,3\}$. Primero, se tiene que

\begin{align*}
\mathbb{P}(C_{1}) = \mathbb{P}(\{1,2\}) = \frac{2}{3}, \\
\mathbb{P}(C_{1}) = \mathbb{P}(\{2,3\}) = \frac{2}{3},
\end{align*}

por lo que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2}) = \frac{4}{3}$, y $\frac{4}{3} > 1$. ¿Qué falló aquí? Llegamos a un número que es mayor a $1$, ¿no debería de pasar que $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$ es la probabilidad de algún evento? El problema está en que $C_{1}$ y $C_{2}$ no son ajenos. Observa que $C_{1} \cap C_{2} = \{1,2\} \cap \{2,3\} = \{2\}$. Nota que $\mathbb{P}(C_{1})$ expresa «la probabilidad de que el resultado del experimento sea un elemento de $C_{1}$». En términos más amigables, $\mathbb{P}(C_{1})$ expresa la probabilidad de que el resultado sea $1$ o $2$. Es decir, en esta cantidad se incluye la posibilidad de que el resultado sea $2$. De manera similar, $\mathbb{P}(C_{2})$ expresa la probabilidad de que el resultado sea $2$ o $3$. Por ello, en el momento en el que sumamos $\mathbb{P}(C_{1})$ y $\mathbb{P}(C_{2})$, estamos contabilizando la probabilidad de que el resultado sea $2$ más de una vez, algo que no debemos de hacer.

Así, se confirma que cuando $C_{1}$ y $C_{2}$ son eventos que no son ajenos, la probabilidad de $\mathbb{P}(C_{1} \cup C_{2})$ no coincide con $\mathbb{P}(C_{1}) + \mathbb{P}(C_{2})$.

Tarea moral

Los siguientes ejercicios son opcionales. Es decir, no formarán parte de tu calificación. Sin embargo, te recomiendo resolverlos para que desarrolles tu manejo de los conceptos abordados en esta entrada.

  • Sean $\Omega = \{1,2,3,4\}$ y $\mathscr{F} = \mathscr{P}(\Omega)$. Definimos la siguiente función auxiliar $p\colon \Omega \rightarrow \mathbb{R}$ mediante las siguientes reglas de correspondencia:
    \begin{align*}
    p(1) = \frac{1}{4}, \quad p(2) = \frac{1}{4}, \quad p(3) = \frac{1}{8}, \quad p(4) = \frac{3}{8}.
    \end{align*} Sea $\mathbb{P}\colon \mathscr{F} \longrightarrow \mathbb{R}$ la función dada por: Para cada $A \in \mathscr{F}$, definimos
    \begin{align*}
    \mathbb{P}(A) = \sum_{k \in A} p(k).
    \end{align*} Por ejemplo, $\mathbb{P}(\{1,3\}) = p(1) + p(4) = \frac{1}{4} + \frac{3}{8}$. Adicionalmente, se define $\mathbb{P}(\emptyset) = 0$.
    • Demuestra que $(\Omega, \mathscr{F}, \mathbb{P})$ es un espacio de probabilidad.
    • ¿Cuál es la probabilidad de que el resultado del fenómeno en este ejercicio sea un número par?
    • ¿Cuál es la probabilidad de que el resultado sea un número impar?
  • Sea $(\Omega, \mathscr{F}, \mathbb{P})$ un espacio de probabilidad. Sean $A$, $B \in \mathscr{F}$ tales que $A \cap B \neq \emptyset$. ¿Qué le sumarías (o restarías) a $\mathbb{P}(A) + \mathbb{P}(B)$ para obtener una expresión que sí sea igual a $\mathbb{P}(A) + \mathbb{P}(B)$? Daremos la respuesta a esta pregunta en la próxima sesión, pero comienza a pensarlo.
  • En la entrada mencionamos que el evento $\emptyset$ no representa «que no ocurra nada», y que debe de interpretarse como el evento «imposible». ¿Por qué? Por ejemplo, retomando cuando $\Omega = \{1,2,3\}$, es claro que $\{1 \} \cap \{3\} = \emptyset$. ¿Tiene sentido que su probabilidad sea $0$? ¿Existe algún resultado $\omega \in \Omega$ tal que $\omega \in \{1 \} \cap \{3 \}$?

Más adelante…

En esta sesión tocamos las propiedades que hacen que una función sea considerada una medida de probabilidad. Estas propiedades tienen consecuencias que abordaremos en la siguiente sesión. Posteriormente veremos ejemplos «famosos» de medidas de probabilidad que tienen particular importancia histórica.

Entradas relacionadas

Álgebra Lineal II: Teorema de Gauss

Introducción

En la entrada anterior vimos un recordatorio de las formas bilineales, cuadráticas y sus polares, en esta entrada continuaremos recordando algunas propiedades vistas previamente enfocándonos en el teorema de Gauss y su demostración, la cual, cabe decirlo, nos dará una pequeña pista de la relación (que esperaríamos tener, al ser álgebra lineal) entre las formas cuadráticas y matrices.

Además, con el teorema de Gauss obtendremos un algoritmo (aunque ciertamente no es obvio cual es este, basado en la demostración) para poder escribir cualquier forma cuadrática en una forma estandarizada, permitiéndonos así buscar propiedades particulares a cada forma cuadrática que más adelante motivara otro resultado importante.

Preparaciones para el teorema de Gauss

Antes de empezar con el teorema, veamos una propiedad de las formas cuadráticas en $\mathbb{R}^n$.
Sea $q$ una forma cuadrática en $\mathbb{R}^n$ con $b$ su polar, y sea $e_1, \dots , e_n$ la base canónica. sabemos que, dado $x \in \mathbb{R}^n$ con $x=(x_1, \dots , x_n)$
\begin{align*} q(x)=q(x_1,\dots , x_n)=q(\sum_{i=1}^nx_ie_i)=b(\sum_{i=1}^nx_ie_i, \sum_{j=1}^nx_je_j) \end{align*}
Desarrollemos la suma presentada en la primera entrada
\begin{align*} =b(x_1e_1, \sum_{j=1}^nx_je_j)+ b(x_2e_2, \sum_{j=1}^nx_je_j) + \dots + b(x_ne_n, \sum_{j=1}^nx_je_j) \end{align*}
Ahora, desarrollemos únicamente la suma de la segunda entrada de $ b(x_1e_1, \sum_{j=1}^nx_je_j)$
\begin{align*} =b(x_1e_1, x_1e_1)+ b(x_1e_1, x_2e_2) + \dots + b(x_1e_1,x_ne_n) \end{align*}
Haciendo lo mismo en cada sumando hasta desarrollar la suma de $b(x_ne_n, \sum_{j=1}^nx_je_j)$
\begin{align*} =b(x_ne_n, x_1e_1)+ b(x_ne_n, x_2e_2) + \dots + b(x_n e_n ,x_n e_n) \end{align*}
Acomodemos todas estas sumas de la siguiente manera, que si has llevado teoría de conjuntos podría resultarte familiar
\begin{align*} =b(x_1e_1, x_1e_1)+ b(x_1e_1, x_2e_2) + \dots + b(x_1e_1,x_ne_n) \\
+b(x_2e_2, x_1e_1) + b (x_2e_2, x_2e_2) + \dots + b(x_2e_2,x_ne_n) \\
\vdots \qquad \qquad \qquad \qquad \qquad \qquad \\
+b(x_ne_n, x_1e_1) + b (x_n e_n, x_2e_2) + \dots + b (x_n e_n , x_n e_n) \end{align*}
Al encontrarnos con esta notación un tanto engorrosa, intentemos simplificarla, nombremos $b(e_i , e_j)=a_{ij}$ y como sabemos que $b$ es simétrica (¿por qué?), podemos afirmar que $a_{ij}=a_{ji}$ además, en cada uno de estos sumandos utilicemos la linealidad, sacando los coeficientes $x_i$ y $x_j$
\begin{align*} =x_1^2a_{11}+ x_1x_2a_{12} + \dots + x_1x_na_{1n} \\
+x_2x_1a_{21}+ x_2^2a_{22} + \dots +x_2x_na_{2n} \\
\vdots \qquad \qquad \qquad \qquad \qquad \qquad \\
+x_nx_1a_{n1} + x_nx_2a_{n2} + \dots + x_n^2 a_{nn} \end{align*}
No está de más notar la similitud que esta notación tiene con una matriz, ¿será que $q$ se puede representar como una matriz?
Más allá de ello, notemos que las $ij$-esima entrada es igual a la entrada $ji$ por lo que $q$ se puede terminar reescribiendo de la siguiente manera
\begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
Al juntar todos los elementos de la diagonal en la primera suma y todos los que están fuera de ella en la segunda.

Habiendo hecho esto, procedamos a el teorema cuya demostración, como es de esperar, utilizará la observación recién hecha.

Teorema de Gauss de formas cuadráticas

Teorema
Sea $q$ una forma cuadrática en $V=\mathbb{R}^n$. Existen $\alpha_1, \dots , \alpha_r \in \mathbb{R}$ y formas (funciones) lineales $l_1, \dots l_r \in V^*$ linealmente independientes tales que, para todo $x \in V$
\begin{align*} q(x)= \sum_{i=1}^r \alpha _i (l_i(x))^2 \end{align*}
Recordemos que $V^*$ es el espacio vectorial dual de $V$.

Demostración

Sea $q$ una forma cuadrática cualquiera en $\mathbb{R}^n$.

Procedamos por inducción sobre $n$.

$\underline{ \text{Cuando }n=1}.$

Utilizando la observación anterior sabemos que $q$ se puede escribir como
\begin{align*} q(x_1)=x_1^2a_{11}=x_1^2b(1,1)=x_1^2q(1) \end{align*}.
Con $b$ la polar de $q$, nombrando $\alpha=q(1)$ y $l: V \rightarrow \mathbb{R}$ la identidad, tenemos que
\begin{align*} q(x_1)= x_1^2q(1)=(l_1(x_1))^2 \alpha_1 \end{align*}.

Por lo que el teorema se cumple cuando n=1.

$\underline{ \text{Supongamos que el teorema se cumple para }n-1}$

Nuevamente, por la observación anterior, sabemos que
\begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_ix_ja_{ij} \end{align*}
Separemos este pedazo de la demostración en dos casos.

  • Si existe $ i \in \{ 1, \dots n\}$ tal que $a_{ii} \neq 0$ sin pérdida de generalidad, supongamos que $a_{nn} \neq 0$ (¿Por qué podemos hacer esto?)

    Observemos que
    \begin{align*} 2\sum_{1 \leq i < j \leq n} x_ix_ja_{ij}= 2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} +2(\sum_{i=1}^{n-1} x_ia_{in})x_n \end{align*}
    y
    \begin{align*} \sum_{i=1}^n x_i^2a_{ii}=x_n^2a_{nn} + \sum_{i=1}^{n-1} x_i^2a_{ii} \end{align*}
    Con esto
    \begin{align*} q(x_1,\dots , x_n)=x_n^2a_{nn} + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} +2(\sum_{i=1}^{n-1} x_ia_{in})x_n \end{align*}
    Dado esto, utilicemos el primero y último término para completar el cuadrado, viendo a $q$ como un polinomio de segundo grado en $x_n$
    \begin{align*} q(x_1,\dots , x_n)= a_{nn} (x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2- a_{nn}(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2 + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} \end{align*}
    Y finalmente, nombrando
    \begin{align*} q'(x_1,\dots , x_{n-1})= – a_{nn}(\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2 + \sum_{i=1}^{n-1} x_i^2a_{ii}+2\sum_{1 \leq i < j \leq n-1} x_ix_ja_{ij} \end{align*}
    Tenemos que
    \begin{align*} q(x_1,\dots , x_n)= a_{nn} (x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i )^2+q'(x_1,\dots , x_{n-1}) \end{align*}
    Donde $q’$ es una forma cuadrática en $\mathbb{R}^{n-1}$ (¿Por qué?) por lo que podemos aplicar la hipótesis de inducción, es decir que
    \begin{align*} q'(x_1,\dots , x_{n-1})= \sum_{i=1}^r \alpha_i (l_i'(x))^2 \end{align*}
    Con $\{ l’_1, \dots , l’_r\} \subseteq (\mathbb{R}^{n-1})^*$ linealmente independientes, definamos
    \begin{align*} l_{r+1}(x_1, \dots , x_n)= x_n+\sum_{i=1}^{n-1} \frac{a_{in}}{a_{nn}}x_i \text{,} \qquad \alpha_{r+1}=a_{nn}\end{align*}
    Y
    \begin{align*} l_i(x_1, \dots , x_n)=l_i'(x_1, \dots , x_{n-1}) \end{align*}
    con $1 \leq i \leq r$, ya con estos nombres tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^{r+1} \alpha_i (l_i(x_1, \dots , x_n))^2 \end{align*}
    Por lo tanto, para todo $x \in \mathbb{R}^n$
    \begin{align*} q(x)= \sum_{i=1}^{r+1} \alpha_i (l_i(x))^2 \end{align*}
    con $\{ l_1, \dots , l_{r+1} \}$ linealmente independientes (¿Por qué?).
    \begin{align*} \\ \end{align*}
  • Si $ \forall i \in \{ 1, \dots n\}$ $a_{ii}=0$

    De nuevo, separaremos este caso en dos:

    Si suponemos que $\forall i,j \in \{ 1, \dots n\}$ $a_{ij}=0$ entonces debemos tener que $q=0$ así tomando a $\{ l_1, \dots , l_{n} \}$ como la base de $V^*$ que sabemos es linealmente independiente y a $\alpha_i=0$ para todo $1 \leq i \leq n$ es claro que
    \begin{align*} q(x)= \sum_{i=1}^{n} \alpha_i (l_i(x))^2 \end{align*}.

    Así supongamos que existe algún $a_{ij} \neq 0$ sin pérdida de generalidad supongamos que $a_{n-1.n} \neq 0$ (De nuevo ¿Por qué aquí podemos hacer esta afirmación sin pérdida de generalidad?)

    Recordando la observación del principio, tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^nx_i^2a_{ii} + 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
    Además, como $ \forall i \in \{ 1, \dots n\}$ $a_{ii}=0$ tenemos que $q$ se puede simplificar aún más
    \begin{align*} q(x_1,\dots , x_n)= 2\sum_{1 \leq i < j \leq n} x_i x_j a_{ij} \end{align*}
    Más aún esta suma se puede separar como sigue
    \begin{align*} q(x_1,\dots , x_n)= 2a_{n-1.n}x_{n-1}x_n +2\sum_{i=1}^{n-2}a_{in}x_ix_n+ 2\sum_{i=1}^{n-2}a_{i,n-1}x_ix_{n-1} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}.
    Para no alargar esta entrada, te sugiero intentes probar que $q$ efectivamente se puede escribir de esta manera, tal vez te resulte útil volver a pensar a $q$ en la «notación matricial» que utilizamos al principio.
    Prosigamos, utilizaremos la siguiente identidad algebraica
    \begin{align*} axy+bx+cy= a ( x + \frac{c}{a} ) ( y + \frac{b}{a} ) -\frac{bc}{a} \end{align*}
    Y nombrando
    \begin{align*} a =2a_{n-1.n}, \qquad b=2\sum_{i=1}^{n-2}a_{in}x_i, \qquad c=2\sum_{i=1}^{n-2}a_{i,n-1}x_i, \qquad x=x_n, \qquad y=x_{n-1} \end{align*}
    Tenemos que $q$ se puede escribir como sigue
    \begin{align*}2a_{n-1.n}(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i )( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) – 2\frac{\sum_{i=1}^{n-2}a_{in}x_i \times \sum_{i=1}^{n-2}a_{i,n-1}x_i}{a_{n-1.n}} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}
    Por suerte, para la notación nombraremos
    \begin{align*} q'(x_1,\dots , x_{n-2})= – 2\frac{\sum_{i=1}^{n-2}a_{in}x_i \times \sum_{i=1}^{n-2}a_{i,n-1}x_i}{a_{n-1.n}} + 2\sum_{1 \leq i < j \leq n-2} x_i x_j a_{ij} \end{align*}
    Que es una forma cuadrática en $\mathbb{R}^{n-2}$ por lo que, gracias a la hipótesis de inducción se puede escribir como
    \begin{align*} q'(x_1, \dots , x_{n-2})= \sum_{i=1}^r \alpha’_i (l’_i(x_1, \dots , x_{n-2}))^2 \end{align*}
    Con $\{ l’_1, \dots , l’_r\} \subseteq (\mathbb{R}^{n-2})^*$ linealmente independientes, trabajemos con la otra parte de $q$, para esto usaremos otra identidad algebraica
    \begin{align*} ab=\frac{(a+b)^2 -(a-b)^2 }{4} \end{align*}
    Y nombrando
    \begin{align*} a =(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i ), \qquad b= ( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) \end{align*}
    Por suerte, aquí no necesitamos sustituir y desarrollar, definamos ingeniosamente $l_{r+1}$ y $l_{r+2}$ como sigue
    \begin{align*} l_{r+1}(x_1, \dots , x_n)= x_n + x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n-1}+a_{i,n}}{a_{n-1.n}} x_i \end{align*}
    Y
    \begin{align*} l_{r+2}(x_1, \dots , x_n)= x_n – x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n-1}-a_{i,n}}{a_{n-1.n}} x_i \end{align*}
    De esta manera
    \begin{align*}2a_{n-1.n}(x_n + \sum_{i=1}^{n-2}\frac{a_{i,n-1}}{a_{n-1.n}} x_i )( x_{n-1} + \sum_{i=1}^{n-2}\frac{a_{i,n}}{a_{n-1.n}} x_i ) \\
    =\frac{a_{n-1.n}}{2} [ (l_{r+1}(x_1, \dots , x_n))^2- (l_{r+2}(x_1, \dots , x_n))^2 ] \end{align*}
    Para finalizar, con todas estas igualdades tenemos que
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^r \alpha’_i (l’_i(x_1, \dots , x_{n-2} ))^2 + \frac{a_{n-1.n}}{2} [ (l_{r+1}(x_1, \dots , x_n))^2- (l_{r+2}(x_1, \dots , x_n))^2 ]\end{align*}
    Y sólo resta cambiar nombres como sigue
    \begin{align*} l_i(x_1, \dots x_n) = l’_i(x_1, \dots , x_{n-2}) \qquad \text{y} \qquad \alpha_i=\alpha’_i \end{align*}
    Para $ i \in \{1, \dots r \}$ y
    \begin{align*} \alpha_{r+1}=\frac{a_{n-1.n}}{2} \qquad \text{y} \qquad \alpha_{r+2}=-\frac{a_{n-1.n}}{2} \end{align*}
    Ya con estos nombres, $q$ se escribe como sigue
    \begin{align*} q(x_1,\dots , x_n)= \sum_{i=1}^{r+2} \alpha_i (l_i(x_1, \dots , x_n ))^2 \end{align*}
    con $\{ l_1, \dots , l_{r+2} \}$ linealmente independientes (¿Por qué?).

Por lo que, en cualquiera de los dos casos propuestos se cumple que
\begin{align*} q(x)= \sum_{i=1}^{r} \alpha_i (l_i(x))^2 \end{align*}
con con $\{ l_1, \dots , l_{r} \}$ linealmente independientes.

Así por principio de inducción tenemos que el teorema de Gauss se cumple para cualquier forma cuadrática $q$ en $\mathbb{R^n}$ pata todo $n \in \mathbb{N}$.

$\square$

Más adelante

Debido a la longitud de esta demostración, los ejemplos serán reservados para la siguiente entrada, además, al principio de la entrada se dieron pistas a que existe una relación entre formas bilineales y matrices, esto será explorado posteriormente.

Por el momento nos centraremos en utilizar el teorema de Gauss para poder escribir $q$ de una forma estándar y observar que propiedades extra podemos obtener al escribirla de esta manera, esto motivará el siguiente teorema de interés la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $q$ una forma cuadrática en $\mathbb{R}^n$ y $x=(x_1, \dots x_n)$ muestra que \begin{align*} q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \text{ con } a_{ij}=(b_i,b_j). \end{align*}
  2. Sea $A=[a_{ij}]$ con $a_{ij}$ definida del problema anterior, ¿Qué podrías afirmar acerca de A sin importar la $q$ elegida?
  3. Sea $A=[a_{ij}]$ una matriz simétrica en $M_n(\mathbb{R})$ y definamos
    \begin{align*} q: \mathbb{R}^n \rightarrow \mathbb{R} \text{ con } q(x)=\sum_{i,j=1}^na_{ij}x_ix_j \end{align*} ¿Es $q$ así definida una forma cuadrática?
  4. En el ejercicio anterior, ¿Es necesario que $A$ sea simétrica?
  5. Sean $\alpha _1, \dots , \alpha_r $ números reales y $l_1 , \dots , l_r$ formas lineales, linealmente independientes en $\mathbb{R}^n$ y $x \in \mathbb{R}^n$ definamos $q$ como sigue:
    \begin{align*} q(x)=\sum_{i,j=1}^n \alpha_i(l_i(x)) \end{align*}
    ¿Es $q$ así definida una forma cuadrática en $\mathbb{R}^n$?

Probabilidad I-Videos: Probabilidad geométrica

Introducción

La definición “clásica” se usó durante muchos años, pero luego de analizar algunos ejemplos especiales, estos llevaron a cierta modificación de la definición y a la construcción de un concepto de probabilidad para los casos en los que es concebible incluso un conjunto infinito de resultados. Este concepto es el de probabilidad geométrica.

Probabilidad geométrica

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más a profundidad la teoría vista.

En un plano sea $\Omega$ cierta región y supongamos en ella hay otras dos regiones $A$ y $B$, todas con área finita y bien definida. Prueba que la definición de la probabilidad geométrica usando como medida el área, satisface las siguientes propiedades:

  • $P(\emptyset)=0$ y $P\left(\Omega\right)=1$.
  • $P\left(A\right)\geq0$ para cualquier evento A.
  • $P\left(A^c\right)=1-P(A)$.
  • $P\left(A\bigcup B\right)=P\left(A\right)+P(B)$ cuando A y B son ajenos.
  • $P(A\bigcup\ B)=P\left(A\right)+P\left(B\right)-P(A\bigcap\ B)$. 

Más adelante…

Así como la probabilidad geométrica ayuda a extender la definición de probabilidad clásica para casos con un espacio muestral no finito, en la siguiente entrada de video veremos la interpretación frecuentista de la probabilidad que nos brinda una alternativa para cuando no necesariamente los posibles resultados son equiprobables.

Entradas relacionadas

Variable Compleja I : El campo de los Números Complejos

Introducción

Para las ecuaciones como $x^2+2x+2 = 0$ y $x^3=6x+4$, durante el siglo XVI, se encontraron soluciones como $1+\sqrt{-1}$ y $\sqrt[3]{2+\sqrt{-2}}+\sqrt[3]{2-\sqrt{-2}}$ respectivamente, lo cual genero incertidumbre entre los matemáticos de la época, puesto que expresiones como $\sqrt{-1}$ y $\sqrt{-2}$ no tenían sentido. Conforme la teoría de los números complejos se desarrollo, para evitar expresiones como las anteriores, se opto por definir una nueva cantidad, la unidad imaginaria, denotada por el símbolo $i$, la cual es caracterizada por cumplir la propiedad $i^2 = -1$, es decir, es la raíz cuadrada de $-1$. Considerando esta notación las expresiones $\sqrt{-1}$ y $\sqrt{-2}$ ahora pueden reescribirse como $i$ y $\sqrt{2} i$, respectivamente.

El campo de los Números Complejos $\mathbb{C}$

Definición 1. (Número complejo.)
Un número complejo es un número de la forma $z = a+ib$ donde $a$ y $b$ son números reales e $i$ es la unidad imaginaria.

Al número real $a$ se le conoce como la parte real de $z$ y se denota como Re$(z)$, mientras que al número real $b$ se le conoce como la parte imaginaria de $z$ y se le denota como Im$(z)$. Además, si Re$(z) = 0$, entonces se dice que $z$ es un número imaginario puro.

Ejemplo.

  • Si $z = 9 – 6i$, entonces Re$(z) = 9$, mientras que Im$(z) = -6$.
  • Si $z = -8i$, entonces Re$(z) = 0$, mientras que Im$(z) = -8$. En este caso $z$ es un número imaginario puro.

Veamos ahora la justificación de ésta definición.

Definición 2. (El Campo de los Números Complejos.)
El campo de los números complejos, denotado por $\mathbb{C}$, en el $\mathbb{R}$ – espacio vectorial de 2 dimensiones $\mathbb{R}^2$ (el plano cartesiano), es el conjunto formado por pares ordenados de números reales $z:=(a, b)$, dotado con las operaciones binarias de suma y multiplicación definidas respectivamente como:

\begin{equation}
(a, b) + (c, d) = (a+c, b+d).
\end{equation}

\begin{equation}
(a, b) \cdot (c, d) = (ac – bd, ad + bc).
\end{equation}

Considerando que $a, b, c$ y $d$ son números reales, se sabe que las parejas ordenadas $(a, b)$ y $(c, d)$ son iguales, es decir $(a, b) = (c, d)$, si y solo si $a=c$ y $b=d$, por lo que si $a \neq b$, entonces $(a, b) \neq (b, a)$, esto es, como parejas ordenadas $(a, b)$ y $(b, a)$ son diferentes, por lo que como números complejos también lo son.

Usando las propiedades de los números reales, es fácil verificar que la suma y el producto recién definidos satisfacen las siguientes propiedades:

Para todo $z_1, z_2, z_3 \in \mathbb{C}$:

  1. Conmutatividad de la suma.

\begin{equation*}
z_1 + z_2 = z_2 + z_1.
\end{equation*}

  1. Asociatividad de la suma.

\begin{equation*}
z_1 + (z_2 + z_3) = (z_1 + z_2) + z_3.
\end{equation*}

  1. Conmutatividad de la multiplicación.

\begin{equation*}
z_1 \cdot z_2 = z_2 \cdot z_1.
\end{equation*}

  1. Asociatividad de la multiplicación.

\begin{equation*}
z_1 \cdot (z_2 \cdot z_3) = (z_1 \cdot z_2) \cdot z_3.
\end{equation*}

  1. Distributividad de la multiplicación sobre la suma.

\begin{equation*}
z_1 \cdot (z_2 + z_3) = z_1 \cdot z_2 + z_1 \cdot z_3.
\end{equation*}

\begin{equation*}
(z_1 + z_2) \cdot z_3 = z_1 \cdot z_3 + z_2 \cdot z_3.
\end{equation*}

  1. Existencia de un elemento neutro para la suma, a decir el cero, dado por el par ordenado $(0,0)$, tal que para todo $z = (a, b) \in \mathbb{C}$:

\begin{equation*}
(a, b) + (0, 0) = (a, b).
\end{equation*}

  1. Existencia de los inversos aditivos. Para todo $z = (a, b) \in \mathbb{C}$, existe $-z = (-a, -b) \in \mathbb{C}$ tal que:

\begin{equation*}
z + (-z) = (0, 0).
\end{equation*}

  1. Existencia de un elemento neutro para el producto, a decir el uno, dado por el par ordenado $(1,0)$, tal que para todo $z = (a, b) \in \mathbb{C}$:

\begin{equation*}
(a, b) \cdot (1, 0) = (a, b).
\end{equation*}

Dado un número complejo $z = (a, b)$ distinto de cero, para encontrar su inverso multiplicativo, a decir $z^{-1} = (x, y)$, planteamos:

\begin{equation}
(a, b)\cdot(x, y) = (1, 0).
\end{equation}

de donde, usando la definición del producto de números complejos, podemos plantear el siguiente sistema de ecuaciones:

\begin{equation}
ax – by = 1.
\end{equation}

\begin{equation}
bx + ay = 0.
\end{equation}

Procedemos a resolver dicho sistema, de (3) tenemos que:

\begin{equation*}
x = \frac{1+by}{a}.
\end{equation*}

mientras que de (4) tenemos que:

\begin{equation*}
x = -\frac{ay}{b}.
\end{equation*}

Igualando éstas dos últimas expresiones obtenemos que:

\begin{equation*}
-\frac{ay}{b} = \frac{1+by}{a} \quad \Longrightarrow \quad -a^2 y = b + b^2 y \quad \Longrightarrow \quad y(a^2 + b^2) = -b.
\end{equation*}

por lo que:

\begin{equation*}
y = \frac{-b}{a^2 + b^2}.
\end{equation*}

Por otra parte, sustituyendo este resultado tenemos que:
\begin{equation*}
x = -\frac{ay}{b} = \frac{-a\left(\frac{-b}{a^2 + b^2}\right)}{b} = \frac{ab}{b(a^2 + b^2)} = \frac{a}{a^2 + b^2}.
\end{equation*}

  1. Existencia de los inversos multiplicativos. Para todo $z=(a, b) \in \mathbb{C}$ distinto de cero, existe su inverso multiplicativo, a decir $z^{-1}$ el cual está dado por:

\begin{equation*}
z^{-1} = \left( \frac{a}{a^2 + b^2}, \frac{-b}{a^2 + b^2} \right).
\end{equation*}

Considerando lo anterior, tenemos ya definido el campo de los números complejos.

Procedemos ahora a analizar un subconjunto importante de los números complejos, a decir los números de la forma $z = (a, 0)$, con $a \in \mathbb{R}$. A partir de ahora denotaremos al número real $a$ por el número complejo $(a, 0)$.\

Observación.

Sean $a, b \in \mathbb{R}$, entonces:

\begin{equation*}
(a, 0) + (b, 0) = (a+b, 0), \quad \text{es decir} \quad a+b.
\end{equation*}

\begin{equation*}
(a, 0) \cdot (b, 0) = (ab, 0), \quad \text{es decir} \quad ab.
\end{equation*}

Notamos que los números complejos de la forma $(a, 0)$ se comportan con respecto a la suma y la multiplicación definidas en (1) y (2) como los números reales.

Es interesante notar que el mapeo $a \rightarrow (a,0)$ define un isomorfismo de $\mathbb{R}$ en $\mathbb{C}$, por lo que podemos trabajar de manera indistinta con estos números complejos como si fuesen números reales y más aún, podemos considerar a $\mathbb{R}$ como un subconjunto de $\mathbb{C}$, de forma que todo número real es un número complejo cuya parte imaginaria es igual a cero.

Si definimos a $i:=(0, 1)$, entonces notamos que:

\begin{equation*}
i^2 = (0, 1) \cdot (0, 1) = (0 – 1, 0) = (-1, 0), \quad \text{es decir} \quad -1.
\end{equation*}
De esta forma podemos concluir que $i = (0, 1)$ es la raíz cuadrada de $-1$. Además tenemos que:

\begin{equation*}
a + ib = (a, 0) + (0, 1) \cdot (b, 0) = (a, 0) + (0, b) = (a, b).
\end{equation*}

Por lo que por simplicidad utilizaremos la definición 1 para escribir a los números complejos.

La extensión del campo de los números reales al campo de los números complejos permite dar solución a ecuaciones como $z^2 + 1 = 0$, la cual en $\mathbb{R}$ no tenía solución, mientras que en $\mathbb{C}$ notamos que la raíz $z = i$ satisface dicha ecuación.

Definición 3. (Conjugado de un número complejo.)
Dado un número complejo $z=a+ib$, se define el conjugado de $z$ como el número complejo:

\begin{equation*}
\bar{z} := a – ib
\end{equation*}

Ejemplo.

  • Si $z = 6 + 5i$, entonces $\bar{z} = 6 – 5i$.
  • Si $z = -5 – i$, entonces $\bar{z} = -5 + i$.

Operaciones Aritméticas

Sean $z_1 = a_1 + ib_1, z_2 = a_2 + i b_2 \in \mathbb{C}$, entonces se definen las siguientes operaciones:

  • Suma.

\begin{equation*}
z_1 + z_2 = (a_1 + ib_1) + (a_2 + i b_2) = (a_1 + a_2) + i(b_1 + b_2)
\end{equation*}

  • Resta.

\begin{equation*}
z_1 – z_2 = (a_1 + ib_1) – (a_2 + i b_2) = (a_1 – a_2) + i(b_1 – b_2)
\end{equation*}

  • Multiplicación.

\begin{equation*}
z_1 \cdot z_2 = (a_1 + ib_1) \cdot (a_2 + i b_2) = (a_1a_2 – b_1b_2) + i (b_1a_2 + a_1b_2)
\end{equation*}

  • División. Para $z_2 \neq 0$:

\begin{equation*}
\frac{z_1}{z_2} = \frac{a_1 + ib_1}{a_2 + i b_2} \cdot \frac{a_2 – ib_2}{a_2 – i b_2} = \left(\frac{a_1 a_2 +
b_1 b_2}{a_2^2 + b_2^2}\right) + i\left( \frac{b_1a_2 – a_1 b_2}{a_2^2 + b_2^2}\right)
\end{equation*}

Ejemplo.

Sean $z_1 = 2 + 4i$ y $z_2 = -3 + 8i$. Calculemos (a) $z_1 + z_2$ y (b) $z_1 \cdot z_2$.

  • (a) $z_1 + z_2 = (2 + 4i) + (-3 + 8i) = (2-3) + (4+8)i = -1 + 12i$.
  • (b) $z_1 \cdot z_2 = (2 + 4i) \cdot (-3 + 8i) = \left[2(-3) – 4(8)\right] + \left[4(-3) + 2(8)\right]i = -38 + 4i$.

Tarea moral

Verificar que el conjunto de los números complejos $\mathbb{C}$ con las operaciones definidas en (1) y (2) satisfacen los axiomas de campo, es decir, verificar las 9 propiedades enunciadas.

Más adelante

En esta segunda entrada hemos definido ya lo que es un número complejo y hemos realizado la construcción del campo de los Números Complejos, analizando la relación que existe entre $\mathbb{R}$ y $\mathbb{C}$ como conjuntos. También definimos las operaciones aritméticas básicas de estos números.

En la siguiente entrada daremos una interpretación geométrica de estos números y sus operaciones, por lo que definiremos una métrica en $\mathbb{C}$ que nos permitirá realizar una mejor comprensión de estos números y la obtención de nuevos resultados y propiedades.