Cálculo Diferencial e Integral I: Cortaduras de Dedekind (Adicional)

Por Karen González Cárdenas

Introducción

Ya hemos visto que el campo de los números reales cumple con la propiedad de ser completos, esta propiedad la vimos enunciada con el Axioma del Supremo en la entrada pasada. Ahora veremos que utilizando Cortaduras de Dedekind podemos dar una equivalencia.

Una idea intuitiva

Previamente vimos que existe una relación biunívoca entre el conjunto de los números reales $\r$ y la recta: a cada punto en la recta le corresponde un único número real y viceversa.

Imaginemos que tomamos un punto $p$ en la recta:

Observemos que ahora la recta queda dividida en dos secciones. La primera conformada por todos los elementos menores (o iguales) que $p$ a la que llamaremos $A$:

Y la segunda por los elementos mayores (o iguales) que $p$ que será $B$:

De este modo vemos que tenemos las siguientes posibilidades:

Cada una cumple que $A$ y $B$ no son vacíos además de ser ajenos. En la próxima sección veremos formalmente su definición.

Definición de Cortadura

Definición: Sean $A, B \subseteq \r$. Decimos que la pareja $(A,B)$ forma una cortadura de un campo ordenado $\mathbb{U} \Leftrightarrow$

  • $A$ y $B$ son distintos del vacío.
  • Para todo $x \in A$ y $y \in B$ ocurre que $x \leq y$.
  • $A \cup B = \mathbb{U}$
    $A \cap B = \emptyset$.

Completitud por Cortaduras de Dedekind

Principio de Completitud por Cortaduras de Dedekind: Para toda cortadura $(A,B)$ de $\r$ existe un único $p \in \r$ tal que $\forall x \in A, \forall y \in B$:
$$x \leq p \leq y.$$

Este principio no lo cumplen los números racionales. A continuación veremos la razón:
Consideremos al campo como $\mathbb{U} = \mathbb{Q}$. Proponemos a los conjuntos $A$ y $B$ siguientes:
$$ A = \left\{ x \in \mathbb{Q} : x^{2} \leq 2 \quad \text{o} \quad x < 0 \right\}$$
$$ B = \left\{ y \in \mathbb{Q} : y^{2} > 2 \quad \text{y} \quad y > 0 \right\}$$

Primero debemos probar que son una cortadura de $\mathbb{Q}$:

  • $A \neq \emptyset$ ya que $-1 <0$. Por lo que $-1 \in A$.
    $B \neq \emptyset$ pues $2 <3^{2}$. Así $2 \in B$.
  • Vemos que $A,B \subseteq \mathbb{Q}$ ya que así fueron definidos.
    • Para $x \in A$ observamos que $x^{2} \leq 2$ o $x<0$.
      $\Rightarrow |x| \leq \sqrt{2}$ o $x <0$.
      $\therefore x \in [- \sqrt{2}, \sqrt{2}] \cup (-\infty, 0) = (- \infty, \sqrt{2}) \cap \mathbb{Q}$.
      Por lo que concluimos $A=(- \infty, \sqrt{2}] \cap \mathbb{Q}$ que vemos es un subconjunto de $\mathbb{Q}$.
    • Ahora si $y \in B$ tenemos que $y^{2} > 2$ y $y>0$.
      $\Rightarrow |y| > \sqrt{2}$ y $y >0$.
      $\therefore y \in ((-\infty, -\sqrt{2}) \cup (\sqrt{2},\infty)) \cap (0,\infty) = (\sqrt{2}, \infty) \cap \mathbb{Q}$.
      Así $B = (\sqrt{2}, \infty) \cap \mathbb{Q}$ y vemos que también es un subconjunto de los racionales.
  • Notemos que para toda $x \in A$ y para toda $y \in B$ ocurre:
    $-\sqrt{2} \leq x \leq \sqrt{2}\quad$ o $\quad x<0$, $\sqrt{2}<y\quad$ y $\quad y>0$.
    $\Rightarrow x \leq \sqrt{2}\quad$ o $\quad x<0<y$.
    $\therefore x\leq y$.
  • Además de que:
    • \begin {align*}
      A \cup B&=((- \infty, \sqrt{2}] \cap \mathbb{Q}) \cup ((\sqrt{2}, \infty) \cap \mathbb{Q})\\
      &= ((-\infty, \sqrt{2}] \cup (\sqrt{2}, \infty)) \cap \mathbb{Q}\\
      &= \mathbb{Q}\\
      \end{align*}
    • \begin{align*}
      A \cap B&=((- \infty, \sqrt{2}] \cap \mathbb{Q}) \cap ((\sqrt{2}, \infty) \cap \mathbb{Q})\\
      &=(- \infty, \sqrt{2}] \cap (\sqrt{2}, \infty) \cap \mathbb{Q}\\
      &= \emptyset\\
      \end{align*}

Así probamos que $A$ y $B$ son una cortadura de $\mathbb{Q}$.

Veamos que el único número $p$ que cumple la desigualdad $x \leq p \leq y$ para cualesquiera $x \in A$ y $y \in B$ es $p = \sqrt{2} \notin \mathbb{Q}$.
$\therefore \mathbb{Q}$ no es completo.

$\square$

Notemos que anteriormente afirmamos que $\sqrt{2} \notin \mathbb{Q}$, a continuación, veremos su prueba:
Afirmación: $\sqrt{2}$ es irracional.
Demostración: Procederemos por contradicción. Supongamos que $\sqrt{2}$ es racional, es por ello que podemos expresar dicha raíz como una fracción irreducible:
$$\sqrt{2}=\frac{a}{b}.$$

De este modo, $a$ y $b\in \mathbb{Z}$ no tienen ningún factor en común distinto de $1$.

Ahora bien, elevando al cuadrado la igualdad anterior:
\begin{align*}
2=\frac{a^{2}}{b^{2}} &\Rightarrow 2b^{2}= a^{2}\\
&\Rightarrow a^{2} \text{ es par}\\
&\Rightarrow a \quad\text{es par} \tag{por Lema auxiliar}\\
&\therefore a=2q.
\end{align*}

Sustituyendo $a=2q$ nos queda:
\begin{align*}
2b^{2}= a^{2}&\Rightarrow 2b^{2}= (2q)^{2}\\
&\Rightarrow 2b^{2}= 4q^{2}\\
&\Rightarrow b^{2}= 2q^{2}\\
&\Rightarrow b^{2} \text{ es par}\\
&\Rightarrow b \quad\text{es par}. \tag{por Lema auxiliar}\\
\end{align*}
Concluimos que $2$ es un factor común de $a$ y $b \contradiccion$ lo cual es una contradicción.

$\square$

Lema auxiliar: Si consideramos $p \in \mathbb{Z}$ tenemos que:

  • $ p^{2}$ es par $\Leftrightarrow p$ es par.
  • $ p^{2}$ es impar $\Leftrightarrow p$ es impar.

Equivalencia

Ahora veremos que el Axioma del Supremo y el Principio de Completitud por Cortaduras de Dedekind son equivalentes:

Teorema: Axioma del Supremo $\Leftrightarrow$ Principio de Completitud por Cortaduras de Dedekind
Demostración:
$\Rightarrow ):$ Tomemos $(A,B)$ una cortadura de Dedekind de $\r$ cualquiera, así por definición sabemos que se cumple:
$$x \leq y,$$
para cualquier $x \in A$ y cualquier $y \in B$.

Observemos que $A$ es un conjunto acotado superiormente, entonces aplicando el Axioma del Supremo se sigue que:
$\exists \alpha \in \r$ tal que $\alpha = sup(A).$
Por lo que $\alpha$ cumple ser la menor de las cotas superiores de $A$ y $x \leq \alpha$ para toda $x \in A$.
Ya que para todo $y \in B$ ocurre que $y$ es cota superior de $A$ y $\alpha$ supremo de $A$
$\Rightarrow \alpha \leq y.$
Así concluimos que $\forall x \in A$ y $\forall y \in B$:
$$x \leq \alpha \leq y.$$

$\Leftarrow ):$ Consideremos a un conjunto de reales $C$ no vacío y acotado superiormente. Así tenemos que existe $M \in \r$ cota superior de $C$ por lo que si tomamos:
$$B = \left\{ cotas \quad superiores \quad de \quad C \right\},$$
podemos afirmar que $B \neq \emptyset$. Definamos al conjunto $A = B^{c}$ y hagamos las siguientes observaciones:

  • $A\neq \emptyset$. Si suponemos lo contrario se seguiría:
    $A= \emptyset \Rightarrow A^{c}= (B^{c})^{c} \Rightarrow B= \r$.
    Por lo que $C = \emptyset \quad \contradiccion$ lo que es una contradicción.
    $\therefore A, B$ son no vacíos.
  • $A \cup B= B^{c} \cup B= \r$
    $A \cap B= B^{c} \cap B= \emptyset$
  • Para cualquier $x \in A$ y para cualquier $y \in B$ se cumple la desigualdad $x \leq y$. De lo contrario tendríamos que:
    $\Rightarrow \exists x_{0} \in A$ y $\exists y_{0} \in B$ donde $y_{0} < x_{0}$.
    Como $y_{0}$ es cota superior de $C$, para cualquier $x \in C$ se cumple que:
    $$x \leq y_{0} < x_{0} \Rightarrow x < x_{0}.$$
    $\therefore x_{0}$ es cota superior de $C$.
    Por lo que $x_{0} \in B=A^{c}$ y $x_{0} \in A \quad \contradiccion.$

De todo lo anterior concluimos que los conjuntos $A$ y $B$ son una cortadura de Dedekind de $\r$.

Por el Principio de Completitud por Cortaduras de Dedekind existe un único $p \in \r$ tal que para todo $x \in A$ y para todo $y \in B$ cumple que:
$$x \leq p \leq y.$$
Queremos probar que $p =sup(C)$, es decir:

  1. $p$ es cota superior de $C$.
  2. $p$ es la menor de todas las cotas superiores.

Comenzaremos probando el punto 1 procediendo por contradicción:
Supongamos que $p$ no es una cota superior de $C$, así existe $x’ \in C$ donde $p<x’$.
Aplicando la densidad de los reales se sigue que existe $y’ \in \r$ tal que:
$$p<y'<x’.$$
Por hipótesis toda $x \in A$ cumple $x \leq p$ entonces $x < y’$. Por lo que concluiríamos que $y’ \in B$ por ser cota superior de $C$ y $y'<x$ con $x \in C \quad \contradiccion$.
$\therefore p$ es cota superior de $C$.

Ahora debemos probar que $p$ es la menor de las cotas superiores. Si suponemos que no lo es entonces existe $M \in B$ con $M<p \quad \contradiccion$ lo que contradice que $p \leq y$ para toda $y \in B$.
$\therefore p= sup(C)$.

$\square$

Más adelante

En la siguiente entrada veremos como tema adicional para esta unidad a los Conjuntos infinitos. Para ello daremos las definiciones necesarias y revisaremos teoremas útiles.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Probabilidad I-Videos: Función de distribución

Por Aurora Martínez Rivas

Introducción

Ahora que entendemos lo que es una variable aleatoria, Lo que buscamos con estas cantidades es asignarles probabilidades. Nos interesa entonces calcular la probabilidad del evento tal que la variable aleatoria no excede un cierto valor x. Estas probabilidades asociadas  a la variable aleatoria se describen mediante una función llamada función de distribución.

Función de distribución

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

  • Sea $F$ una función de distribución de $X$, prueba que $P(X>x)=1-F(x)$.
  • Sea $X$ una variable aleatoria con función de distribución $F$, Para cualesquiera números reales $x<y$ demuestra que: $$\begin{array}{ll}  i)&P(X<y)=F(y^-)\\ ii)&P \left( X=y \right)=F \left( y \right ) -F \left( y^- \right ) \\ iii)&P \left ( y<X\le z \right ) =F \left ( z \right ) -F(y) \\ iv)&P \left ( y\le X\le z \right ) =F \left ( z \right ) -F(y^-) \\ v)&P \left ( y<X<z \right ) =F \left ( z^- \right ) -F(y) \\ vi)&P\left ( y\le X<z \right ) =F \left ( z^- \right ) -F(y^-) \end{array}$$
  • Demuestra que toda función de distribución tiene a lo más una cantidad numerable de discontinuidades.
  • Una variable aleatoria $X$ tiene función de distribución $F$, Si $a$ y $b$ son números reales ¿Cuál es la función de distribución de $Y=aX+b$?
  • Demuestra que si $F$ y $G$ funciones de distribución y sea $0\le a\le1$ entonces $aF+(1-a)G$ es una función de distribución.

Más adelante…

Gran parte del estudio de las variables aleatorias se dedica a las funciones de distribución, el estudio de estas funciones y sus aplicaciones se vuelve mucho más fácil si concentramos nuestra atención a ciertas subclases de variables aleatorias; estas son las variables aleatorias discretas y las variables aleatorias continuas, que estudiaremos en los próximos videos.

Entradas relacionadas

Probabilidad I-Videos: Definición de variable aleatoria

Por Aurora Martínez Rivas

Introducción

En muchos experimentos estaremos interesados más que en el experimento en sí mismo, en alguna consecuencia de su resultado aleatorio. Tales consecuencias pueden valorarse en términos numéricos, es decir podemos asociar a los resultados aleatorios un número real y esto puede considerarse como una función que mapea al espacio muestral en la recta real.

Estas funciones se denominan «variables aleatorias».

Variables aleatorias

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $X:\Omega\rightarrow\mathbb{R}$ una función y sean $x\le\ y$ dos números reales. Demuestre que $(X\le\ x)\subseteq(X\le\ y)$.
  • Sea $\mathcal{F}$ la familia de todos los subconjuntos de $\Omega$, Demuestra cualquier función $X:\Omega\rightarrow\mathbb{R}$ es una variable aleatoria.
  • Sea $\Omega=\left \{ a,b,c,d,e,f \right \}$ con $\mathcal{F}=\left \{ \emptyset,\left \{ a.c.e \right \} ,\left \{ b,d,f \right \} ,\Omega \right \}$ y sea $X(\omega)=\omega$. Determina si $X$ es una variable aleatoria y justifica por qué.
  • Sea $A$ un evento, es decir, $A\in\mathcal{F}$ y sea $X$ una función tal que $$\\ X(\omega)= \left \{ \begin{matrix} 1 & \mbox{si }\omega\in A \\ 0 & \mbox{si }\omega\notin A \end{matrix} \right.$$ demuestra que $X$ es una variable aleatoria..
  • Sean $X$ y $Y$ variables aleatorias, demuestra que:
    • $X+Y$ es una variable aleatoria.
    • $XY$ es una variable aleatoria.
    • Si $Y\neq0$ entonces $X/Y$ es variable aleatoria.

Más adelante…

Para especificar las probabilidades de los valores de las variables aleatorias tan diversificadas y poder especificarlas de la misma manera, introducimos a continuación en la teoría de la probabilidad el concepto de función de distribución de una variable aleatoria.

Entradas relacionadas

Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

Por Diego Ligani Rodríguez Trejo

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Cálculo Diferencial e Integral I: Operaciones con sucesiones convergentes

Por Juan Manuel Naranjo Jurado

Introducción

Después de haber revisado la definición de sucesión convergente y haber calculado el límite de varias sucesiones, es momento de probar algunos resultados que nos permitan conocer qué sucede con las operaciones entre sucesiones convergentes. En esta entrada, demostraremos que la suma y el producto de sucesiones convergentes dan lugar a nuevas sucesiones que convergen a la suma y el producto de los límites respectivamente.

Suma de sucesiones convergentes

Daremos inicio con la prueba de que la suma sucesiones convergentes también converge y lo hace a la suma de los límites correspondientes.

Proposición. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n + b_n) = L + M.$$

Demostración.

Empleando la definición de sucesión convergente, lo que debemos demostrar es que para todo $\varepsilon > 0$, existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se satisface que $|(a_n + b_n) – (L + M) |< \varepsilon$.

Iniciamos la prueba dando un valor arbitrario para épsilon. Sea $\varepsilon > 0$.

Notemos que es posible agrupar los términos de tal forma que la expresión quede acotada por $L$ y $M$, como se muestra a continuación:

$$|(a_n + b_n) – (L + M) | = |(a_n – L ) + (b_n – M) | \leq |a_n – L| + |b_n – M|. \tag{1}$$

Además, por hipótesis, ambas sucesiones son convergentes, es decir,
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$

Por tanto, podemos tomar un valor arbitrario positivo, en este caso consideremos $\frac{\varepsilon}{2} > 0$, de tal forma que para este valor existe $n_1 \in \mathbb{N}$ tal que para todo $n \geq n_1$, se cumple $$|a_n – L | < \frac{\varepsilon}{2}. \tag{2}$$ 

Análogamente, existe $n_2 \in \mathbb{N}$ tal que para todo $n \geq n_2$, se cumple $$|b_n – M | < \frac{\varepsilon}{2}. \tag{3}$$

Consideremos $n_0 = max\{n_1, n_2 \}$. De esta forma, si $n \geq n_0$, se tiene que $n \geq n_1$ y $n \geq n_2$. Por tanto, si $n \geq n_0$, también se cumplen (2) y (3). Entonces

\begin{align*}
|(a_n + b_n) – (L+M)|& \leq |a_n – L| + |b_n – M| \text{, por (1)} \\
& < \frac{\varepsilon}{2} + \frac{\varepsilon}{2} \text{, por (2) y (3)} \\
& = \varepsilon.
\end{align*}

$$\therefore |(a_n + b_n) – (L + M) | < \varepsilon.$$

$$\therefore \lim_{n \to \infty} (a_n + b_n) = L + M.$$

$\square$

A continuación probaremos qué sucede cuando se multiplica una sucesión por un valor real constante.

Proposición. Sea $\{ a_n \}$ una sucesión en $\mathbb{R}$ y $k \in \mathbb{R}$, $k$ fijo, entonces 

$$\lim_{n \to \infty} k \cdot a_n = k \cdot L.$$

Demostración.

Sea $\varepsilon > 0$. Notemos 

$$ |k \cdot a_n – k \cdot L| = |k(a_n – L)| = |k||a_n – L |.$$

Para el caso de $k=0$, la sucesión $\{k \cdot a_n\}$ se convierte en una sucesión constante donde todos sus términos son cero. Así, consideremos $k \neq 0$ y $\frac{\varepsilon}{|k|} > 0 $. Como $$\lim_{n \to \infty} a_n = L,$$ existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se tiene que

\begin{gather*}
& |a_n – L | < \frac{\varepsilon}{|k|}. \\ \\
\Leftrightarrow & |k||a_n – L| < \varepsilon. \\ \\
\therefore & |k \cdot a_n – k \cdot L| = |k||a_n – L | < \varepsilon.
\end{gather*}

$$\therefore |k \cdot a_n – k \cdot L| < \varepsilon.$$

$$\lim_{n \to \infty} k \cdot a_n = k \cdot L.$$

$\square$

Haciendo uso de las dos proposiciones anteriores, podemos probar fácilmente que la diferencia de dos sucesiones convergentes converge a la diferencia de sus límites.

Corolario. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n – b_n) = L – M.$$

Demostración.

\begin{align*}
\lim_{n \to \infty} (a_n – b_n) & = \lim_{n \to \infty} (a_n +(- 1 \cdot b_n)) \\
& = \lim_{n \to \infty} a_n +\lim_{n \to \infty} (- 1 \cdot b_n) \\
& = L + (-1 \cdot M) \\
& = L – M.
\end{align*}

$$\therefore \lim_{n \to \infty} (a_n – b_n) = L – M.$$

$\square$

Sucesiones acotadas

Antes de revisar qué sucede con el producto de sucesiones, estudiaremos el concepto de sucesión acotada, lo que significa que existe un número real $M > 0$ que «encierra» a la sucesión. Es decir, existe un intervalo en el cual todos los términos de la sucesión quedan contenidos. De forma ilustrativa, se muestra la gráfica de la sucesión $\left\lbrace \frac{3}{1+(n-10)^2}-1 \right\rbrace$. De la que más adelante, probaremos su convergencia.

La definición formal se presenta a continuación.

Definición. Se dice que una sucesión $\{a_n \}$ de números reales está acotada si existe un número real $M > 0$ tal que $|a_n| \leq M$ para todo $n \in \mathbb{N}.$

Proposición. Sea $\{ a_n \}$ una sucesión en $\mathbb{R}$. Si $\{ a_n \}$ es convergente, es decir, si existe $L \in \mathbb{R}$ tal que $$\lim_{n \to \infty} a_n = L,$$ entonces $\{ a_n \}$ está acotada. 

Demostración.

Sea $\varepsilon = 1$, como $\{ a_n \}$ converge, entonces existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se tiene que $|a_n – L| < 1$. Además, sabemos que $|a_n| – |L| \leq |a_n – L | < 1$, de lo cual se sigue que

$$|a_n| < 1 + |L| \quad \forall n \geq n_0.$$ 

Notemos que hasta ahora la cota que tenemos es útil únicamente para $n \geq n_0$. Para los primeros $n_0 – 1$ elementos de la sucesión, consideremos $\hat{M} = max \{ |a_1|, |a_2|, …, |a_{n_0-1}| \}$. Así, la cota para toda nuestra sucesión será $M = max \{ \hat{M}, 1 + |L| \}$.

Si $1 \leq n \leq n_0 – 1$, entonces $$|a_n| \leq \hat{M} \leq M \Rightarrow |a_n| \leq M. \tag{1}$$

Por otro lado, si $n \geq n_0$, entonces $$|a_n| \leq 1 + |L| \leq M \Rightarrow |a_n| \leq M. \tag{2}$$

Por (1) y (2), se sigue que para todo $n \in \mathbb{N}$ se tiene que $|a_n| \leq M$. De lo que se concluye que la sucesión $\{a_n\}$ está acotada.

$\square$

Observación. Criterio de no convergencia: Dado que toda sucesión convergente está acotada, entonces, por contrapuesta, si una sucesión no está acotada no puede ser convergente.

Ahora que hemos probado la proposición anterior, podríamos preguntarnos si el regreso es cierto, es decir, ¿toda sucesión acotada converge? La respuesta es no y, de hecho, el contraejemplo lo revisamos en una entrada anterior: $\{ (-1)^n \}$. Se demostró que es una sucesión no convergente y está acotada por $1$.

Producto de sucesiones convergentes

Después de conocer el concepto de sucesión acotado, estamos listos para probar que el producto de sucesiones convergentes converge al producto de sus límites.

Proposición. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n \cdot b_n) = L \cdot M.$$

Demostración.

Sea $\varepsilon > 0$.

Con la finalidad de factorizar y obtener expresiones en términos de las sucesiones individuales, sumaremos un cero, $a_nM-a_nM$, a la expresión $|a_n b_n – LM|$.

\begin{align*}
|a_n b_n – LM| & = |a_n b_n – a_n M + a_n M – LM| \\
& \leq |a_n (b_n – M)| + M (a_n – L)| \\
& = |a_n | |b_n – M| + |M| |a_n – L|.
\end{align*}

Además, como $\{a_n\}$ es convergente, entonces está acotada, es decir, existe $J > 0$ tal que para todo $n \in \mathbb{N}$, entonces $|a_n| \leq J$. De la expresión anterior se sigue

\begin{align*}
|a_n b_n – LM| & \leq |a_n | |b_n – M| + |M| |a_n – L| \\
& \leq J|b_n – M| + |M| |a_n – L| \text{, pues } J > 0. \\
\end{align*}

$$\therefore |a_n b_n – LM| \leq J|b_n – M| + |M| |a_n – L|. \tag{1}$$

Consideremos $K = max\{J, |M| \}$. De $(1)$ se sigue que

$$|a_n b_n – LM| \leq K|b_n – M| + K|a_n – L|. \tag{2}$$

Consideremos $\frac{\varepsilon}{2K} > 0$.

\begin{gather*}
\text{Como } \lim_{n \to \infty} a_n = L \text{, existe } n_1 \in \mathbb{N}, \text{ tal que } \forall n \geq n_1, |a_n-L| < \frac{\varepsilon}{2K}. \\

\text{Como } \lim_{n \to \infty} b_n = M \text{, existe } n_2 \in \mathbb{N}, \text{ tal que } \forall n \geq n_2, |b_n-L| < \frac{\varepsilon}{2K}.
\end{gather*}

Tomemos $n_0 = max\{n_1, n_2\}$. Si $n \geq n_0$, entonces $n \geq n_1$, $n \geq n_2$ y junto con $(2)$ se sigue que

\begin{align*}
|a_n b_n – LM| & \leq K|b_n – M| + K|a_n – L| \\
& < K \left( \frac{\varepsilon}{2K} \right) + K \left( \frac{\varepsilon}{2K} \right) \\
& = \varepsilon.
\end{align*}

$$\therefore |a_n b_n – LM| < \varepsilon.$$

$$\therefore \lim_{n \to \infty} (a_n \cdot b_n) = L \cdot M.$$

$\square$

A continuación, revisaremos un par de ejemplos donde se usan las propiedades que se demostraron en la entrada.

Ejemplo 1. Encuentra el siguiente límite $$\lim_{n \to \infty} -\frac{3}{n^2} + 1.$$

En la entrada anterior, probamos que $$\lim_{n \to \infty} \frac{1}{n} = 0.$$

Además, $$- \frac{3}{n^2}+1 = -3 \cdot \frac{1}{n} \cdot \frac{1}{n} + 1.$$

Empleando la expresión anterior y haciendo uso de las propiedades demostradas, tenemos

\begin{align*}
\lim_{n \to \infty} -\frac{3}{n^2} + 1 & = \lim_{n \to \infty} -3 \cdot \frac{1}{n} \cdot \frac{1}{n} + 1\\
& = -3 \cdot 0 \cdot 0 + 1\\
& = 1.
\end{align*}

$$\therefore \lim_{n \to \infty} -\frac{3}{n^2} + 1 = 1.$$

Ejemplo 2. Encuentra el siguiente límite $$\lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1.$$

Factorizando la expresión anterior, obtenemos que
\begin{align*}
2n-2\sqrt{n^2+n}+1 & = (n+1) – 2 \sqrt{n}\sqrt{n+1}+ n \\
&= \left( \sqrt{n+1}-\sqrt{n}\right)^2 \\
& = \left( \sqrt{n+1}-\sqrt{n}\right) \left( \sqrt{n+1}-\sqrt{n}\right).
\end{align*}

En la entrada anterior, probamos que $$\lim_{n \to \infty} \left( \sqrt{n+1}-\sqrt{n}\right) = 0.$$

De esta forma, se tiene que

\begin{align*}
\lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1 & = \lim_{n \to \infty} \left( \sqrt{n+1}-\sqrt{n}\right) \left( \sqrt{n+1}-\sqrt{n}\right) \\
& = 0 \cdot 0 \\
& = 0.
\end{align*}

$$\therefore \lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1 = 0.$$

Más adelante…

En la siguiente entrada revisaremos el caso de la división entre sucesiones convergentes. Complementaremos nuestro estudio revisando una categoría especial de sucesiones llamadas monótonas, y probaremos diversas propiedades de las mismas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que si $\{a_n \}$ y $\{b_n \}$ son dos sucesiones tales $\{ a_n \}$ y $\{a_n+b_n\}$ convergen, entonces $\{b_n \}$ también converge.
  • Prueba que si $\{a_n \}$ y $\{b_n \}$ son dos sucesiones tales $\{ a_n \}$ converge a $L \neq 0$ y $\{a_n \cdot b_n\}$ converge, entonces $\{b_n \}$ también converge.
  • Usando las proposiciones demostradas en esta entrada, encuentra el límite de las siguientes sucesiones:
    • $\{ c \cdot \frac{1}{n} \}$, con $c \in \mathbb{R}.$
    • $\{ \frac{10}{n} – 7\}.$
    • $\{ \frac{2n^2-n}{n^2} \cdot \left( \frac{10}{n} – 7 \right) \}.$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»