Álgebra Lineal II: El teorema espectral y de descomposición polar complejos

Por Ayax Calderón

Introducción

Ya hablamos de qué son las transformaciones adjuntas en el caso de los espacios hermitianos, que podemos pensar como el equivalente complejo a los espacios euclideanos. A partir de esto, hablamos de quienes son las transformaciones que preservan el producto interior hemitiano (y por lo tanto la norma hermitiana): las transformaciones unitarias.

Lo que haremos ahora es dar el análogo al teorema espectral real, pero para el caso complejo. En el caso real el resultado es para transformaciones o matrices simétricas. En el caso complejo eso no funcionará. Primero, tenemos que introducir a las transformaciones hermitianas, que serán las que sí tendrán un teorema espectral. Ya eligiendo la noción correcta, las demostraciones se parecen mucho a las del caso real, así que solamente las esbozaremos y en caso de ser necesario haremos aclaraciones pertinentes para la versión compleja.

Transformaciones hermitianas

La noción correcta que necesitamos para enunciar y demostrar el teorema espectral es la siguiente.

Definición. Sea $V$ un espacio hermitiano con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Diremos que una transformación lineal $T:V\to V$ es hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.

Diremos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

La conexión entre las transformaciones hermitianas y las matrices hermitianas es la siguiente.

Teorema. Sea $V$ un espacio hermitiano y $\mathcal{B}=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. Las transformación $T$ es hermitiana si y sólo si la matriz $A=Mat_{\mathcal{B}}(T)$ es hermitiana.

Demostración. Recordemos que si $\mathcal{B}$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como $$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$

Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_i \rangle .$$

Hagamos ahora sí la demostración del si y sólo si. Supongamos primero que $T$ es hermitiana. Tenemos entonces que:

\begin{align*}
A_{ji}&=\langle T(e_i),e_j\rangle\\
&=\langle e_i, T(e_j) \rangle\\
&=\overline{\langle T(e_j),e_i \rangle}\\
&=\overline{A_{ij}}.
\end{align*}

La tercer igualdad se sigue pues para el producto interior hermitiano al intercambiar las entradas se conjuga. Así $A$ es hermitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle \\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}\\
&=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle\\
&=\langle x,T(y) \rangle.
\end{align*}

Por lo tanto $T$ es hermitiana.

$\square$

El teorema espectral complejo

En el siguiente teorema resumimos tanto los resultados auxiliares para demostrar el teorema espectral en el caso complejo (1 y 2), como el teorema espectral mismo (3).

Teorema. Sea $V$ un espacio hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacios.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, tenemos lo siguiente. $$t||x||^2=\langle x, tx \rangle =\langle x, T(x) \rangle = \langle T(x), x \rangle = \langle tx,x\rangle = \overline{t}||x||^2.$$ Como $x\neq 0$, podemos cancelar $||x||$ de ambos lados para obtener $t=\overline{t}$ y por lo tanto $t$ es real. Compara esta demostración con la del caso real, ¡en esta ocasión es mucho más sencillo!
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)\in W$ ya que $W$ es $T$-estable. Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además, $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $\mathcal{B}$ de $V$ tal que $A= Mat_{\mathcal{B}}(T)$ es una matriz triangular superior. Recordemos que $Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*$, se sigue que
    $$A=Mat_{\mathcal{B}}(T)=Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Por ello, $\mathcal{B}$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:

Teorema. Si $V$ es un espacio hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $\mathcal{B}$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_{\mathcal{B}}(T)$. Como los elementos de $\mathcal{B}=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todo eigenvector es real, entonces $A$ es de entradas reales, pues $a_{ii}=t_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Finalmente, enunciamos la versión del teorema espectral para matrices.

Teorema (teorema espectral complejo). Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana. Existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

El teorema de descomposición polar complejo

A partir del teorema espectral complejo se puede demostrar también un teorema de descomposición polar complejo. El resultado es el siguiente.

Teorema (descomposición polar compleja). Sea $A\in M_n(\mathbb{C})$ una matriz invertible. Entonces existen una única matriz unitaria $U$ y una única matriz hermitiana $H$ con eigenvalores positivos tales que $A=UH$.

También hay una versión para cuando la transformación no es invertible. La discusión y las pruebas son análogas a lo que se platicó en la entrada de descomposición polar.

Más adelante…

Con esta entrada terminamos la tercera unidad de nuestro curso. En esta tercera unidad las transformaciones que estudiamos cumplen propiedades bonitas: ser ortogonales, diagonales, unitarias, etc. A partir de ello hay clasificaciones muy detalladas: la clasificación de matrices ortogonales, el teorema espectral, el teorema de descomposición polar. En la cuarta unidad hablaremos de otra manera en la que podemos «simplificar» cualquier transformación lineal o matriz: mediante formas canónicas. La ventaja es que la cantidad de matrices que podremos simplificar será mucho mayor, aunque la ligera desventaja es que ya no tendremos una forma «diagonal» sino una «casi diagonal».

Tarea moral

  1. Encuentra una diagonalización de $\begin{pmatrix} 1+i & 2i \\ -2i & 1-i \end{pmatrix}$. Encuentra la descomposición polar de $\begin{pmatrix} 1+i & 1-i \\ 2i & 2-i\end{pmatrix}.$
  2. Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación: Si $\norm{U(x)}=\norm{x}$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitaria.
  3. Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  4. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  5. Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada $V$ es un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ y norma asociada $\norm{\cdot}$.

Definición. Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
para cualesquiera $i,j$ en $I$ se tiene que $$\langle v_i,v_j \rangle =0.$$ Aquí $I$ es un conjunto de índices cualquiera.

Definición. Diremos que una $(v_i)_{i \in I}$ es ortonormal si es ortogonal y además cada vector tiene norma $1$.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores $(v_i)_{i\in I}$ cualquiera podemos obtener una familia en donde todos los vectores tienen norma $1$. Basta con reemplazar $v_i$ por $\frac{v_i}{\norm{v_i})$ para todo $i\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal $$\sum_{i\in I} \alpha_i v_i=0,$$ entonces hacemos producto interior por cada $v_i$. Tras esto, como la familia es ortogonal, el único elemento que queda es $\alpha_i\langle v_i, v_i\rangle$ y está igualado a cero. Por ser producto interior, $\langle v_i, v_i\rangle\neq 0$, así que $\alpha_i=0$.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea $V$ un espacio euclideano de dimensión $n$ con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero tiene a lo más $n$ elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortogonal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\langle u_i,u_i\rangle} u_i\\
&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\norm{u_i}^2} u_i.
\end{align*}

En otras palabras, «la coordenada correspondiente a $u_i$ se obtiene haciendo producto interior con $u_i$ y dividiendo entre el cuadrado de la norma de $u_i$». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a $v$ como combinación lineal de los elementos de $\beta$ y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada $u_i$ son $1$ y entonces obtenemos lo siguiente.

Corolario. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal $u_1,\ldots,u_n$ son las formas lineales $\langle \cdot, u_1\rangle, \ldots, \langle \cdot, u_n\rangle$.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base $u_1,\ldots,u_n$ de un espacio euclideano, la expresión

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

es muy importante, y se le conoce como la descomposición de Fourier de $v$ con respecto a $\beta$. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector $v$ al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ se obtiene de manera inmediata la norma de un vector.

Proposición. Si $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ para una base ortonormal $u_1,\ldots,u_n$, entonces $\norm{x}^2=\sum_{i=1}^n \langle v,u_i\rangle^2$.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea $V$ un espacio euclideano y $W$ un subespacio. Sea $u_1,\ldots,u_r$ una base ortonormal de $W$. Entonces para todo vector $v\in V$ se tiene que $$p_W(v)=\sum_{i=1}^r \langle v, u_i \rangle u_i.$$

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea $V$ un espacio euclideano y $u_1,\ldots,u_r$ un conjunto ortonormal de vectores. Entonces $$\sum_{i=1}^r \langle v, v_i \rangle ^2\leq \norm{v}^2$$ para todo $v$ en $V$.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a $W$ el espacio generado por $u_1,\ldots,u_r$ y calcular $d(v,W)$ usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial $V$ con producto interior. En la siguiente entrada recordaremos un resultado crucial: si $V$ es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en $M_n(\mathbb{R})$ tienen un producto interior dado por $\langle A,B\rangle=\text{traza}(\text{ }^tAB)$. Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de $\mathbb{R}^n$ cómo es la matriz de cambio de base de una base ortogonal $\beta$ de $\mathbb{R}^n$ a otra base ortogonal $\beta’$.
  4. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más $2$. Definimos la función $\langle \cdot,\cdot \rangle: V\times V\to\mathbb{R}$ como sigue: $$\langle p,q\rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1).$$ Demuestra que $\langle \cdot, \cdot \rangle$ así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral I: Límites infinitos

Por Juan Manuel Naranjo Jurado

Introducción

¿Qué sucede cuando $f$ comienza a crecer o decrecer arbitrariamente cuando $x \to x_0$ ó $x \to \infty$? En este sentido, el límite de una función en un punto puede tener un comportamiento divergente y éste será el tema de la presente entrada.

Divergencia en un punto

Iniciaremos dando la definición de divergencia del límite de una función en un punto $x_0$.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}.$

$i$) Se dice que $f$ tiende a $\infty$ cuando $x \rightarrow x_0$ y lo denotamos como $$\lim_{x \to x_0} f(x) = \infty$$
si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que para todo $x \in A$ con $0 < |x-x_0|< \delta$, entonces $f(x) > M.$

$ii$) Se dice que $f$ tiende a $- \infty$ cuando $x \rightarrow x_0$ y lo denotamos como $$\lim_{x \to x_0} f(x) = -\infty$$
si para todo $m \in \mathbb{R}$ existe $\delta > 0$ tal que para todo $x \in A$ con $0 < |x-x_0|< \delta$, entonces $f(x) < m.$

Iniciaremos con uno de los ejemplos clásicos.

Ejemplo 1. Prueba que $$\lim_{x \to 0} \frac{1}{x^2} = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, sin pérdida de generalidad, supongamos que $M > 0$; consideremos $\delta = \frac{1}{\sqrt{M}}$. Si $0 < |x-0| = |x| < \delta = \frac{1}{\sqrt{M}}$, entonces $|x| < \frac{1}{\sqrt{M}}, es decir, \frac{1}{x^2} > M.$

$\square$

Antes de dar el siguiente ejemplo, demostraremos un teorema que nos ayudara a hacer el cálculo de este tipo de límites.

Proposición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$ y $x_0 \in A$. Supongamos que $f(x) \leq g(x)$ para todo $x \in A$ con $x \neq x_0$.

$i)$ Si $$\lim_{x \to x_0} f(x) = \infty, \quad \text{ entonces } \quad \lim_{x \to x_0} g(x) = \infty.$$
$ii)$ Si $$\lim_{x \to x_0} g(x) = -\infty, \quad \text{ entonces } \quad \lim_{x \to x_0} f(x) = -\infty.$$

Demostración.
$i)$ Sea $M \in \mathbb{R}$. Como $f$ tiende a $\infty$ cuando $x \rightarrow x_0$, existe $\delta > 0$ tal que si $0 < |x-x_0| < \delta$, entonces $f(x) > M.$

Por hipótesis $f(x) \leq g(x)$ para todo $x \in A$ con $x \neq x_0$, de esta forma tenemos que si $0 < |x-x_0| < \delta$, entonces $g(x) \geq f(x) > M$. Es decir, $g(x) > M$. Por lo tanto $$\lim_{x \to x_0} g(x) = \infty.$$

$ii)$ La demostración es análoga.

$\square$

Ejemplo 2. Prueba que $$\lim_{x \to 0} \left( \frac{1}{x^2} + |cos(x)| \right) = \infty.$$

Demostración.

Sabemos que

$$\lim_{x \to 0} \frac{1}{x^2} = \infty.$$

Además,
\begin{gather*}
& |cos(x)| \geq 0. \\ \\
\Rightarrow & \frac{1}{x^2} \leq \frac{1}{x^2} + |cos(x)|.
\end{gather*}

Usando el teorema anterior, podemos concluir que

$$\lim_{x \to 0} \left( \frac{1}{x^2} + |cos(x)| \right) = \infty.$$

$\square$

Divergencia en el infinito

La definición de divergencia la podemos extender para los límites en el infinito.

Definición.
$i)$ Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Supongamos que $(a, \infty) \subset A$ para algún $a \in A$. Se dice que $f$ tiende a $\infty$ cuando $x \rightarrow \infty$ y lo denotamos como $$\lim_{x \to \infty} f(x) = \infty$$ si para cualquier $M \in \mathbb{R}$ existe $K \in \mathbb{R}$ tal que para cualquier $x>K$, entonces $f(x) > M.$


$ii)$ Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Supongamos que $(a, \infty) \subset A$ para algún $a \in A$. Se dice que $f$ tiende a $- \infty$ cuando $x \rightarrow \infty$ y lo denotamos como $$\lim_{x \to \infty} f(x) = -\infty$$ si para cualquier $m \in \mathbb{R}$ existe $K \in \mathbb{R}$ tal que para cualquier $x>K$, entonces $f(x) < m.$

Ejemplo 3. Prueba que $$\lim_{x \to \infty} x = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, consideremos $K = M+1$. Si $x > K$, como $f(x) = x$, entonces $f(x) > M+1 > M$. Es decir, $f(x) > M.$

$\square$

Ejemplo 4. Prueba que $$\lim_{x \to \infty} 3x^2 = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, consideremos $K = \sqrt{\frac{M}{3}}$. Si $x > K$, se tiene que $x > \sqrt{\frac{M}{3}}$. Lo anterior implica que $3x^2 > M$, es decir, $f(x) > M.$

$\square$

Divergencia lateral

A continuación daremos la definición de divergencia para los límites laterales y finalizaremos esta entrada con un ejemplo de los mismos.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Se dice que el límite por la derecha de $f$ en $x_0$ diverge a infinito si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que si $0<x – x_0<\delta$ entonces $f(x) > M$. Y lo denotamos $$\lim_{x \to x_0^+} f(x) = \infty.$$

Análogamente, tenemos la siguiente definición.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Se dice que el límite por la izquierda de $f$ en $x_0$ diverge a infinito si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que si $0<x_0 – x<\delta$ entonces $f(x) > M$. Y lo denotamos $$\lim_{x \to x_0^-} f(x) = \infty.$$

Notemos que existen definiciones análogas para cuando $f$ diverge a $-\infty$ en $x_0$.

Ejemplo 5. $$\lim_{x \to 0^+} \frac{1}{x} = \infty.$$
Demostración.
Sea $M \in \mathbb{R}$, sin pérdida de generalidad, consideremos $M > 0.$

Tomemos $\delta = \frac{1}{M}.$
Si $0<x-0< \delta = \frac{1}{M}$, entonces $f(x) = \frac{1}{x} > M$, así se tiene que

$$\lim_{x \to 0^+} \frac{1}{x} = \infty.$$

$\square$

Más adelante…

En la siguiente entrada haremos uso del límite de una función en toda su extensión y emplearemos las propiedades revisadas en las entradas anteriores mediante la resolución de límites para las funciones trigonométricas que, particularmente, se habían destinado para los temas finales de esta unidad.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $a \in \mathbb{R}$. Prueba que $$\lim_{x \to \infty} x-a = \infty.$$
  • Prueba que $$\lim_{x \to \infty} x^2-x = \infty.$$
  • Escribe las definiciones de divergencia a $-\infty$ para los límites laterales.
  • Usando la definición que propusiste en el ejercicio anterior, prueba que $$\lim_{x \to 0^-} \frac{1}{x} = -\infty.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Límite de una función a través de sucesiones

Por Juan Manuel Naranjo Jurado

Introducción

Alternativamente a la definición épsilon-delta revisada en la entrada anterior, se puede estudiar el límite de una función a través de límites de sucesiones; este enfoque tiene varias bondades en el sentido de que podremos hacer un amplio uso de las propiedades demostradas anteriormente para el límite de una sucesión. En esta entrada nos enfocaremos en probar un teorema que nos indica la equivalencia entre ambas formas de concebir el límite de una función.

Negación de la definición del límite de una función

Veamos primero qué significa que el límite de una función no exista, es decir, revisaremos la negación del concepto dado en la entrada anterior, para ello retomemos la definición de límite de una función:

Definición. Decimos que $f$ tiende hacia el límite $L$ en $x_0$ si para todo $\varepsilon > 0$ existe algún $\delta > 0$ tal que, para todo $x$, si $0<|x-x_0|< \delta$, entonces $|f(x)-L|< \varepsilon.$

De esta forma, si no se cumple la definición anterior, entonces tenemos lo siguiente: $f$ no tiende hacia el límite $L$ en $x_0$ si existe algún $\varepsilon > 0$, tal que para todo $\delta > 0$, hay algún $x$ que satisface $0 < |x-x_0| < \delta$, pero $|f(x)-L| \geq \varepsilon.$

Criterio de sucesiones para límites

Es momento de revisar un teorema que será particularmente útil para demostrar las propiedades del límite de una función. Este teorema nos indica que una función $f$ tiende al límite $L$ en $x_0$ si y solo si para toda sucesión $\{ a_n \}$ en el dominio de $f$ que converja a $x_0$ se tiene que la sucesión generada por $\{f(a_n) \}$ converge a $L.$

Teorema. Sean $A \subset \mathbb{R}$, $f:A \rightarrow \mathbb{R}$ y $x_0$ un punto de acumulación de $A$. Los siguientes enunciados son equivalentes.

  1. $$\lim_{x \to x_0} f(x) = L.$$
  2. Para toda sucesión $\{ a_n \}$ en $A$ que converge a $x_0$ tal que $a_n \neq x_0$ para todo $n\in \mathbb{N}$, la sucesión $\{f(a_n)\}$ converge a $L.$

Demostración.

$1) \Rightarrow 2)]$ Sea $\varepsilon >0$. Supongamos que $$\lim_{x \to x_0} f(x) = L.$$
Y sea $\{ a_n \}$ una sucesión en $A$ que converge a $x_0$ tal que $a_n \neq x_0$ para todo $n\in \mathbb{N}$.

Por hipótesis $f$ converge a $L$ en $x_0$, entonces existe $\delta > 0$ tal que si
$0<|x-x_0|<\delta$, entonces $|f(x)-L| < \varepsilon.$

Además, como la sucesión $\{a_n\}$ converge a $x_0$, para el valor $\delta > 0$ dado, existe $n_0 \in \mathbb{N}$ tal que si $n \geq n_0$ entonces $0<|a_n- x_0| < \delta$ y por hipótesis de la convergencia de $f$ a $L$ en $x_0$, podemos concluir que $|f(a_n)-L| < \varepsilon$. Así la sucesión $\{f(a_n)\}$ converge a $L$, es decir,
$$\lim_{n \to \infty} f(a_n) = L.$$


$1) \Leftarrow 2)]$ Procederemos a hacer esta implicación por contrapositiva, es decir, demostraremos que si no sucede $1)$, entonces tampoco sucede $2).$

Supongamos que $1)$ no se cumple, es decir, existe algún $\varepsilon_0 > 0$, tal que para todo $\delta > 0$, hay al menos un real $x$ que cumple $0<|x-x_0| < \delta$, pero $|f(x)-L| \geq \varepsilon_0$. Así, consideremos justo ese valor de $\varepsilon_0.$ Notemos que para todo natural $n \in \mathbb{N}$, si consideramos $\delta=\frac{1}{n}$, entonces existe al menos un término $a_n$ en $A$ tal que $0<|a_n-x_0| < \frac{1}{n}$, pero $|f(a_n)-L| \geq \varepsilon_0.$

Tomemos la sucesión generada por $\{a_n\}$, se tiene que la sucesión $\{ a_n \}$ converge a $x_0$ y $a_n \neq x_0$ para todo $n \in \mathbb{N}$, pero la sucesión $\{f(a_n)\}$ no converge a $L$. Así, si no se cumple $1)$, entonces tampoco $2)$. Por lo anterior, podemos concluir que $2) \Rightarrow 1).$

$\square$

Límite de una función a través de sucesiones

Ahora nos enfocaremos en hacer uso del teorema anterior. En el momento de hacer las demostraciones correspondientes, debemos tener presente que una vez que expresamos el límite de una función en términos del límite de una sucesión, podemos hacer uso de las propiedades del mismo.

Ejemplo 1. Sea $A =\mathbb{R} \backslash \{ 1 \}$. Consideremos la función $f: A \to \mathbb{R}$ con $f(x) = \frac{x^3-x^2+x-1}{x-1}$. Prueba que $$\lim_{x \to 1} f(x) = 2.$$

Demostración.

Primero notemos que
\begin{align*}
f(x) & = \frac{x^3-x^2+x-1}{x-1} \\ \\
& = \frac{(x-1)(x^2+1)}{x-1} \\ \\
& = x^2+1.
\end{align*}

$$\therefore f(x) = x^2+1.$$

Sea $\{a_n\}$ una sucesión en $\mathbb{R}$ tal que

  • $\lim\limits_{n \to \infty} a_n = 1.$
  • Para todo $n \in \mathbb{N}$, $a_n \neq 1.$
  • Para todo $n \in \mathbb{N}$, $a_n \in A.$

Entonces tenemos que

\begin{align*}
\lim_{x \to 1} f(x) & = \lim_{n \to \infty} f(a_n) \\ \\
& = \lim_{n \to \infty} (a_n^2+1) \\ \\
& = \lim_{n \to \infty} a_n^2 + \lim_{n \to \infty} 1 \tag{1} \\ \\
& = 1+1 \\ \\
& = 2.
\end{align*}

$$\therefore \lim_{x \to 1} \frac{x^3-x^2+x-1}{x-1} = 2.$$

$\square$

Es importante resaltar que aún no hemos probado ninguna propiedad del límite de una función, por lo que el criterio de sucesiones para límites es lo que nos permite emplear las propiedades que conocemos respecto a sus operaciones aritméticas y así realizar el paso $(1)$ en el ejemplo anterior.

Ejemplo 2. Sea $A = [0, \infty)$. Consideremos la función $f: A \to \mathbb{R}$ con $f (x) = \sqrt{x}$. Demuestra que $$\lim_{x \to 2} f(x) = \sqrt{2}.$$

Sea $\{a_n\}$ una sucesión en $\mathbb{R}$ tal que

  • $\lim\limits_{n \to \infty} a_n = 2.$
  • Para todo $n \in \mathbb{N}$, $a_n \neq 2.$
  • Para todo $n \in \mathbb{N}$, $a_n \in A.$

Sabemos que si $\{a_n\}$ converge a $2$, entonces $\{ \sqrt{a_n} \}$ converge a $\sqrt{2}$. Así, tenemos que

\begin{align*}
\lim_{x \to 2} f(x) & = \lim_{n \to \infty} f(a_n) \\
& = \lim_{n \to \infty} \sqrt{a_n} \\
& = \sqrt{2}.
\end{align*}

$$\therefore \lim_{x \to 2} \sqrt{x} = \sqrt{2}.$$

$\square$

Ejemplo 3. Sea $A =\mathbb{R} \backslash \{ 0 \}$. Consideremos la función $f: A \to \mathbb{R}$ con $f (x)= \frac{(3+x)^2-9}{x}$. Prueba que $$\lim_{x \to 0} f(x) = 6.$$

Demostración.

Primero notemos que

\begin{align*}
f (x) & = \frac{(3+x)^2-9}{x} \\ \\
& = \frac{9+6 x+x^2-9}{x} \\ \\
& = \frac{6x+x^2}{x} \\ \\
& = 6+x.
\end{align*}

$$\therefore f(x) = 6+x.$$

Sea $\{a_n\}$ una sucesión en $\mathbb{R}$ tal que

  • $\lim\limits_{n \to \infty} a_n = 0.$
  • Para todo $n \in \mathbb{N}$, $a_n \neq 0.$
  • Para todo $n \in \mathbb{N}$, $a_n \in A.$

\begin{align*}
\lim_{x \to 0} f(x) & = \lim_{n \to \infty} f(a_n) \\ \\
& = \lim_{n \to \infty} (6+a_n) \\ \\ 
& = 6.
\end{align*}

$$\therefore \lim_{x \to 0} \frac{(3+x)^2-9}{x} = 6.$$

$\square$

Hasta este momento, solo hemos hecho uso del criterio de sucesiones para límites para probar la existencia de los mismos. Sin embargo, es posible usarlo también para el caso en el que tal límite no existe. Derivado directamente del teorema anterior se tiene que:

  • Si existen dos sucesiones $\{ a_n \}$, $\{b_n\}$ en el dominio de $f$, ambas convergentes a $x_0$, tal que $a_n$, $b_n \neq x_0$ para todo $n \in \mathbb{N}$, pero $\lim\limits_{n \to \infty} f(a_n) \neq \lim\limits_{n \to \infty} f(b_n)$ entonces no existe el límite de $f$ en $x_0.$

Veremos ahora un ejemplo donde el límite no existe.

Ejemplo 4. Sea $A =\mathbb{R} \backslash \{ 1 \}$. Consideremos la función $f: A \to \mathbb{R}$ con $f(x) = \frac{|x-1|}{x-1}$. Prueba que el límite

$$\lim_{x \to 1} f(x)$$

no existe.

Demostración.

Veamos primero la gráfica de la función:

Podemos observar que es conveniente tomar una sucesión que se aproxime a $x_0 = 1$ por la derecha y otra que se aproxime por la izquierda. Sean $\{a_n\}$, $\{b_n\}$ dos sucesiones en el dominio de $f$ definidas de la siguiente forma:

$$a_n = 1 + \frac{1}{n} \quad \text{y} \quad b_n = 1 – \frac{1}{n}.$$

Se sigue que

$$ \lim_{n \to \infty} a_n = 1 \quad \text{y} \quad \lim_{n \to \infty} b_n = 1.$$

Además, $a_n \neq 1$, $b_n \neq 1$ para todo $n \in \mathbb{N}$.

Se tiene que

\begin{align*}
\lim_{n \to \infty} f(a_n) & = \lim_{n \to \infty} \frac{|a_n-1|}{a_n-1} \\ \\
& = \lim_{n \to \infty} \frac{ |1 + \frac{1}{n} – 1|}{1 + \frac{1}{n} -1} \\ \\
& = \lim_{n \to \infty} \frac{ |\frac{1}{n}|}{ \frac{1}{n} } \\ \\
& = \lim_{n \to \infty} \frac{ \frac{1}{n} }{ \frac{1}{n} } \\ \\
& = 1.
\end{align*}

$$\therefore \lim_{n \to \infty} f(a_n) = 1 \tag{1}.$$

Por otro lado,

\begin{align*}
\lim_{n \to \infty} f(b_n) & = \lim_{n \to \infty} \frac{|b_n-1|}{b_n-1} \\ \\
& = \lim_{n \to \infty} \frac{ |1 – \frac{1}{n} – 1|}{1 – \frac{1}{n} -1} \\ \\
& = \lim_{n \to \infty} \frac{ |- \frac{1}{n}|}{- \frac{1}{n} } \\ \\
& = \lim_{n \to \infty} \frac{ \frac{1}{n} }{ – \frac{1}{n} } \\ \\
& = – 1.
\end{align*}

$$\therefore \lim_{n \to \infty} f(b_n) = -1. \tag{2}$$

De $(1)$ y $(2)$, se tiene que

\begin{gather*}
\lim_{n \to \infty} f(a_n) \neq \lim_{n \to \infty} f(b_n). \\ \\
\therefore \lim_{x \to 1} \frac{|x-1|}{x-1} \text{ no existe.}
\end{gather*}

$\square$

Más adelante…

En las siguientes entradas veremos propiedades específicas que nos ayudarán a calcular el límite de una función; y, como podrás imaginar, varias de estas propiedades son un símil a las revisadas para las sucesiones convergentes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

A través del criterio de sucesiones para límite, prueba si existen o no los siguientes límites:

  • $$\lim_{x \to 0} \frac{x}{x+1}.$$
  • $$\lim_{x \to 0} x \cdot |x|.$$
  • $$\lim_{x \to 7} \frac{x^2-5x+10}{2-x}.$$
  • $$\lim_{x \to 0} \frac{x}{|x|}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Cota superior e inferior de un conjunto

Por Karen González Cárdenas

Introducción

Ahora comenzaremos a ver un tema un tanto diferente a los vistos en la entrada anterior. Primero veremos los conceptos de máximo y mínimo de un conjunto, después las definiciones formales para cota superior e inferior, y terminaremos revisando algunos ejemplos donde las aplicaremos.

Máximo y mínimo de un conjunto

Definición: Sean $A\subseteq \r$ no vacíos. Decimos que:

  • $A$ tiene elemento máximo $\Leftrightarrow \exists a_{0} \in A$ tal que $\forall a \in A$ se cumple que: $a \leq a_{0}$
  • $A$ tiene elemento mínimo $\Leftrightarrow \exists b_{0} \in A$ tal que $\forall b \in A$ se cumple que: $b_{0} \leq b$

Para darnos una idea más clara de estas definiciones veamos los siguientes ejemplos:

$$C=(0,1]$$

  1. No tiene mínimo.
  2. Tiene máximo y es 1.

Para probar estas afirmaciones haremos uso de las definiciones anteriores:
Demostración 1 (por contradicción): Supondremos que existe un elemento $c_{0} \in C$ tal que $\forall c \in A$ cumple que $c_{0} \leq c$. Por lo que se sigue que: $0<c_{0}<1$.
Observemos que $\frac{c_{0}}{2} \in C$ ya que $0<\frac{c_{0}}{2}<c_{0}$
$$\Rightarrow c_{0}\leq \frac{c_{0}}{2}<c_{0} \contradiccion$$
Lo cual es una contradicción.

Demostración 2: Veamos que por la definición del conjunto C tenemos:
$$C=\left\{ c\in \r\quad|\quad 0<c \leq 1 \right \}$$
Por lo que $1\in C$ y se cumple que $\forall c\in C, c\leq 1$.

$\square$

Observación:

  • El elemento máximo de un conjunto es único.
  • El elemento mínimo de un conjunto es único.

La demostración de estas afirmaciones se quedará como ejercicios de la Tarea moral.

Cota superior e inferior de un conjunto

Definición: Sea $A \subseteq \r$. Decimos que un número $M \in \r$ es:

  • Cota superior $\Leftrightarrow \forall a \in A$ se cumple que: $a\leq M$.
  • Cota inferior $\Leftrightarrow \forall a \in A$ se cumple que: $a\geq M$.

Observación: Si hay una cota superior $M \Rightarrow \forall a \in A$ ocurre que: $$ a \leq M < M+1<M+2<M+3 \ldots$$ Es decir, hay una infinidad de cotas superiores de $A$.

Antes de continuar con el ejemplo de esta sección, aclaremos la diferencia entre máximos y cotas superiores de un conjunto, así como la diferencia entre mínimos y cotas inferiores. La distinción principal radica en que el máximo es un elemento específico del conjunto, mientras que una cota superior es simplemente un número que es mayor o igual que todos los elementos del conjunto, pero no necesariamente pertenece al mismo. De manera análoga, la diferencia clave es que el mínimo es un elemento específico dentro del conjunto, mientras que una cota inferior es simplemente un número que es menor o igual que todos los elementos del conjunto, pero no necesariamente pertenece a él.


Ejemplo

Consideremos el conjunto:
$$E=(0,2]$$
Vemos que para todo $x\in E$ ocurre que $-2<0<x$
$$\therefore \quad-2 \leq x$$
Por lo que podemos concluir que $-2$ es cota inferior de $E$.

Y además tenemos que $\forall x \in E$ se cumple $ x \leq 2.$
$\therefore \quad 2$ es cota superior de $E$.

Conjuntos acotados

Definición: Consideremos $A \subseteq \r$. Decimos que:

  1. $A$ es acotado superiormente si existe $M$ en $\r$ que es cota superior de $A$. Es decir, si $\exists M\in \r$ tal que $\forall a \in A$, $a \leq M$.
  2. $A$ es acotado inferiormente si existe $m$ en $\r$ que es cota inferior de $A$. Es decir, si $ \exists m\in \r$ tal que $\forall a \in A$, $m \leq a$.
  3. $A$ es acotado si existe $m$ y $M$ en $\r$ donde $m$ es cota inferior de $A$ y $M$ es cota superior de $A$. Es decir, si $\exists m,M \in \r$ tal que $\forall a \in A$: $m \leq a \leq M$.

    Otra manera de definir qué $A$ es acotado es la siguiente:
  4. $A$ es acotado si existe $M$ en $\r$ mayor o igual que el valor absoluto de cualquier elemento $a$ en $A$. Es decir, si $\exists M \in \r$ tal que $\forall a \in A$: $|a| \leq M$.

Lema: Vamos a demostrar que las definiciones 3 y 4 son equivalentes.

Demostración:
$\Rightarrow)$ Sean $m_0, M_0 \in \r$ tal que $m_0 \leq a \leq M_0$. Queremos demostrar que existe $M \in \r$ que cumple con:
$$-M \leq a \quad \quad \text{y}\quad \quad a \leq M$$
Proponemos a $M=\max\{|m_0|,|M_0|\}.

Por definición de $m_0$ y $M_0$ vemos que se cumple:
\begin{align*}
a&\geq m_0 \geq -|m_0|\geq -M\\
a&\leq M_0 \leq |M_0| \leq M.
\end{align*}
Por transitividad obtenemos
\begin{align*}
a&\geq -M\\
a&\leq M.
\end{align*}

Concluimos entonces que:
$$-M \leq a \leq M$$
$$\therefore |a|\leq M.$$

$\Leftarrow)$ Como $|a| \leq M$ se sigue que $-M \leq a \leq M$. Como $-M \leq a$ tenemos que $A$ es acotado inferiormente por definición si tomamos $m := -M$:
$$m \leq a$$
Análogamente de $a \leq M$ tenemos que $A$ es acotado superiormente por definición concluimos:
$$\therefore m \leq a \leq M$$

$\square$

Lema: Para cualesquiera $A,B \subseteq \r$. Si $A\subseteq B$ y $B$ es acotado entonces $A$ es acotado.

Demostración: Como tenemos que $B$ es acotado existe $M>0$ tal que para todo $b\in B$:
$$|b|\leq M$$
CASO 1 $A\neq\emptyset$: Como $A \subseteq B$ entonces para todo $a \in A$ existe $b \in B$ tal que $a=b$.
$\therefore a \in A, a=b \Rightarrow |a|=|b|\leq M$
CASO 2 $A= \emptyset$: Sabemos que $A =\emptyset\subseteq B$ por lo que se sigue $A$ es acotado por vacuidad.

$\square$

Ejemplo

Si tenemos: $$A= \left\{\frac{1}{n}: n\in \mathbb{N}\setminus\left\{0\right\} \right\}$$

Observamos que:

  • $A$ es acotado superiormente ya que para todo $n\in \mathbb{N}\setminus\left\{0\right\}$:
    $$1\leq n \Leftrightarrow \frac{1}{n} \leq 1$$
    $\therefore 1$ es cota superior de $A$.
  • $A$ tiene elemento máximo. Tenemos que $\forall n\in \mathbb{N}\setminus\left\{0\right\}: \frac{1}{n} \leq 1$
    Así para $n=1$ ocurre que $\frac{1}{1} \leq 1$.
    $\therefore 1$ es máximo de $A$.
  • El conjunto de cotas superiores de $A$ está dado por:
    $$[1, \infty),$$
    que tiene elemento mínimo y es 1. Esto nos indica que existe una mínima cota superior.
  • $A$ es acotado inferiormente. Vemos que para todo $n\in \mathbb{N}, \frac{1}{n} > 0$ por lo que $0 \notin A$. Concluimos así que $\forall a\in A, 0 < \frac{1}{n}$.
    $\therefore 0$ es cota inferior de $A$
  • El conjunto de cotas inferiores de $A$ esta dado por:
    $$(- \infty, 0],$$
    que tiene elemento máximo y es 0. Esto nos indica que existe una máxima cota inferior.
  • $A$ no tiene elemento mínimo. Si suponemos que existe un elemento $a_{0} \in A$ tal que $\forall n\in \mathbb{N}, a_{0} \leq \frac{1}{n}$. Tenemos que $a_{0}$ sería de la forma
    $a_{0} = \frac{1}{n_{0}} > 0$
    $\Rightarrow 0< \frac{1}{2n_{0}}<\frac{1}{n_{0}}$ con $\frac{1}{2n_{0}} \in A$.
    De lo anterior vemos que $a_{0}$ no es mínimo $\Rightarrow \frac{1}{n_{0}}\leq\frac{1}{2n_{0}} \contradiccion$, lo cual nos lleva a una contradicción.

$\square$

Más adelante

Ahora que ya hemos revisado los conceptos de máximo, mínimo y cotas superiores e inferiores de un conjunto en $\r$ tenemos los antecedentes necesarios para comenzar a hablar de supremos e ínfimos.

Tarea moral

  • Demuestra que:
    • El elemento máximo de un conjunto es único.
    • El elemento mínimo de un conjunto es único.
  • Para el conjunto $D=(-\infty, 1)$ demuestra que se cumplen las siguientes afirmaciones:
    • D no tiene elemento mínimo
    • D no tiene elemento máximo
    • D es acotado superiormente
    • D no tiene cotas inferiores

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»