Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Introducción a la teoría cualitativa de las ecuaciones diferenciales

Por Omar González Franco

No hay rama de la matemática, por lo abstracta que sea, que no
pueda aplicarse algún día a los fenómenos del mundo real.
– Lobachevski

Introducción

¡Bienvenidos a la cuarta y última unidad del curso de Ecuaciones Diferenciales I!.

En esta unidad estudiaremos a las ecuaciones diferenciales ordinarias desde una perspectiva cualitativa y geométrica. En particular, estudiaremos las propiedades cualitativas de los sistemas de ecuaciones diferenciales de primer orden que vimos en la unidad anterior y, como sabemos, las ecuaciones de orden superior se pueden reducir a sistemas de ecuaciones de primer orden, lo que significa que en nuestro estudio también estaremos revisando las propiedades cualitativas de algunas de las ecuaciones vistas en la unidad 2.

La teoría cualitativa ya no es nueva para nosotros, pues en la primera unidad estudiamos desde esta perspectiva a las ecuaciones de primer orden. Recordemos que una ecuación diferencial de primer orden se puede ver, en su forma normal, como

$$\dfrac{dy}{dx} = f(x, y(x)) = f(x, y) \label{1} \tag{1}$$

Y una ecuación diferencial autónoma como

$$\dfrac{dy}{dx} = f(y(x)) = f(y) \label{2} \tag{2}$$

En esta última ecuación la variable independiente no aparece explícitamente.

Sobre la ecuación (\ref{1}) definimos los conceptos de elementos lineales, campo de pendientes, curvas integrales e isóclinas y sobre la ecuación (\ref{2}) definimos conceptos como puntos de equilibrio o puntos críticos, esquema de fases, líneas de fase, así como atractores, repulsores y nodos. Muchos de estos conceptos los generalizaremos a los sistemas lineales, además de algunos otros conceptos nuevos que definiremos.

En esta entrada daremos una introducción intuitiva al análisis cualitativo y geométrico de los sistemas lineales y a partir de la siguiente entrada comenzaremos a formalizar la teoría.

Sistemas lineales

Recordemos que un sistema de ecuaciones diferenciales de primer orden es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{3} \tag{3}
\end{align*}

En forma vectorial se puede escribir como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, \mathbf{Y}(t)) \label{4} \tag{4}$$

Si el sistema es lineal, entonces se puede escribir, en su forma normal, como

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} + g_{1}(t) \\ y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} + g_{2}(t) \\ &\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} + g_{n}(t) \label{5} \tag{5}
\end{align*}

En esta unidad estudiaremos a detalle la propiedades cualitativas de los sistemas lineales compuestos por dos ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes por muchas razones, las cuales comentaremos al final de la entrada. Dicho sistema lo podemos escribir de la siguiente forma.

\begin{align*}
x^{\prime}(t) &= ax(t) + by(t) \\
y^{\prime}(t) &= cx(t) + dy(t) \label{6} \tag{6}
\end{align*}

En donde $a, b, c$ y $d$ son constantes. Si definimos

$$\mathbf{Y}^{\prime}(t) = \begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix}, \hspace{1cm} \mathbf{Y}(t) = \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

entonces el sistema (\ref{6}) se puede escribir como

$${\mathbf{Y}}'(t) = \mathbf{AY}(t) \label{7} \tag{7}$$

Esta es la forma común con la que estuvimos trabajando en la unidad anterior. Si ahora definimos las funciones

$$F_{1}(t, x, y) = ax(t) + by(t) \hspace{1cm} y \hspace{1cm} F_{2}(t, x, y) = cx(t) + dy(t) \label{8} \tag{8}$$

y definimos el vector compuesto por estas funciones

$$\mathbf{F}(t, x, y) = \begin{pmatrix}
F_{1}(t, x, y) \\ F_{2}(t, x, y)
\end{pmatrix} \label{9} \tag{9}$$

entonces podemos escribir al sistema (\ref{6}) como

$$\mathbf{Y}^{\prime}(t) = \mathbf{F}(t, x, y) \label{10} \tag{10}$$

De (\ref{7}) y (\ref{10}), se obtiene que

$$\mathbf{F}(t, x, y) = \mathbf{AY}(t) \label{11} \tag{11}$$

Esta es una nueva forma de ver un sistema lineal, sin embargo nuestro interés está en hacer un análisis cualitativo y geométrico, así que es conveniente ver a la ecuación (\ref{11}) como una función de varias variables definida en un dominio $U$.

Observemos que el sistema lineal (\ref{6}) no depende explícitamente de la variable $t$, por lo que podemos escribir

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{12} \tag{12}
\end{align*}

Y ahora podemos escribir

$$F_{1}(x, y) = ax + by \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = cx + dy \label{13} \tag{13}$$

Es claro que $F_{1}: \mathbb{R}^{2} \rightarrow \mathbb{R}$ y $F_{2}: \mathbb{R}^{2} \rightarrow \mathbb{R}$, es decir las funciones $F_{1}$ y $F_{2}$ son funciones de dos variables cuyo dominio está formado por puntos con $2$ coordenadas y la función asocia a cada punto un número real determinado. La gráfica de estas funciones está en $\mathbb{R}^{3}$. Ahora bien, se puede definir la función

$$F(x, y) = (F_{1}(x, y), F_{2}(x, y)) = (ax + by, cx + dy) \label{14} \tag{14}$$

En este caso $F: \mathbb{R}^{2} \rightarrow \mathbb{R}^{2}$, así que ya no podemos visualizar su gráfica, sin embargo existe una técnica en la que en un mismo plano a cada elemento $(x, y) \in \mathbb{R}^{2}$ lo dibujamos como un punto y a $F(x, y)$ como un vector colocado sobre ese punto $(x, y)$. Por ejemplo, la función

$$F(x, y) = (x, y)$$

se puede visualizar como

Bosquejo de la función $F(x, y) = (x, y)$.

Este tipo de bosquejos es lo que conocemos como campos vectoriales.

Finalmente consideremos las soluciones del sistema lineal (\ref{12}). En este caso lo que obtendremos al resolver el sistema serán dos funciones $x(t)$ y $y(t)$ definidas como $x: \mathbb{R} \rightarrow \mathbb{R}$ y $y: \mathbb{R} \rightarrow \mathbb{R}$. Lo que deseamos es graficar de alguna manera estas dos funciones en el mismo plano en el que se bosqueja el campo vectorial $F(x, y)$, para hacerlo definimos la función

$$f(t) = (x(t), y(t)) \label{15} \tag{15}$$

Vemos que $f: \mathbb{R}^{2} \rightarrow \mathbb{R}$, es decir, dado un valor para $t$ las soluciones $x(t)$ y $y(t)$ toman un valor particular que sirven como entrada de la función $f$ y ésta devuelve un sólo valor.

Para tener una visualización de $f$ consideremos como ejemplo la función

$$f(t) = (t, t^{2})$$

con $t \in [-2, 2]$, es decir,

$$x(t) = t \hspace{1cm} y \hspace{1cm} y(t) = t^{2}$$

Consideremos algunos valores particulares

  • $t = -2 \hspace{0.7cm} \rightarrow \hspace{1cm} f(-2) = (-2, 4)$.
  • $t = 2 \hspace{1cm} \rightarrow \hspace{1cm} f(2) = (2, 4)$.
  • $t = -1 \hspace{0.7cm} \rightarrow \hspace{1cm} f(-1) = (-1, 1)$.
  • $t = 1 \hspace{1cm} \rightarrow \hspace{1cm} f(1) = (1, 1)$.

Para visualizar estos datos lo que vamos a hacer es dibujar vectores que parten del origen hacía las coordenadas $(x(t), y(t))$ obtenidas, tal como se muestra en la siguiente figura.

Vectores correspondientes a $f(t)$ para $t = -2, -1, 1, 2$.

$f(t)$ será la curva que trazará la punta del vector a medida que $t$ tiene distintos valores. Siguiendo con el mismo ejemplo $f(t) = (t, t^{2})$ para $t \in [-2, 2]$, la curva que traza $f$ se ve de la siguiente forma.

Curva de la función $f(t) = (t, t^{2})$ para $t \in [-2, 2]$.

Observemos que $f(t) = (t, t^{2})$ no es más que la parametrización de la parábola $y(x) = x^{2}$ en el intervalo $[-2, 2]$. Es por ello que diremos que $f(t)$ es una función paramétrica.

Recordemos que un sistema de ecuaciones paramétricas permite representar una curva o superficie en el plano o en el espacio mediante una variable $t$ llamada parámetro que recorre un intervalo de números reales, considerando cada coordenada de un punto como una función dependiente del parámetro.

Concluiremos esta entrada con un ejemplo para visualizar cómo es que esta nueva forma de ver el problema de resolver un sistema lineal nos ayudará a obtener información cualitativa del mismo.

Análisis cualitativo y geométrico

Ejemplo: Hacer un análisis cualitativo y geométrico del siguiente sistema lineal homogéneo.

\begin{align*}
x^{\prime} &= 2x + 3y \\
y^{\prime} &= 2x + y \label{16} \tag{16}
\end{align*}

Solución: Primero resolvamos el sistema de forma tradicional, es decir, analíticamente.

La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
2 & 3 \\ 2 & 1
\end{pmatrix} \label{17} \tag{17}$$

Los valores propios se obtienen de resolver la siguiente ecuación característica.

$$|\mathbf{A} -\lambda \mathbf{I})| = \begin{vmatrix}
2 -\lambda & 3 \\ 2 & 1-\lambda
\end{vmatrix} = \lambda^{2} -3 \lambda -4 = (\lambda + 1)(\lambda -4) = 0$$

Resolviendo se obtiene que los valores propios son

$$\lambda_{1} = -1 \hspace{1cm} y \hspace{1cm} \lambda_{2} = 4$$

Determinemos los vectores propios.

Para $\lambda_{1} = -1$, debemos resolver

$$(\mathbf{A} + \mathbf{I}) \mathbf{K} = \mathbf{0}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
3k_{1} + 3k_{2} &= 0 \\
2k_{1} + 2k_{2} &= 0
\end{align*}

De donde $k_{1} = -k_{2}$. Si elegimos $k_{2} = 1$, se obtiene $k_{1} = -1$ y entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

Para $\lambda_{2} = 4$, debemos resolver

$$(\mathbf{A} -4\mathbf{I}) \mathbf{K} = \mathbf{0}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-2k_{1} + 3k_{2} &= 0 \\
2k_{1} -3k_{2} &= 0
\end{align*}

Se ve que $k_{1} = \dfrac{3}{2}k_{2}$, así si $k_{2} = 2$, entonces $k_{1} = 3$ y por tanto el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}$$

Las soluciones linealmente independientes son

$$\mathbf{\mathbf{Y}}_{1}(t) = \begin{pmatrix}
-1 \\ 1
\end{pmatrix} e^{ -t} \hspace{1cm} y \hspace{1cm}
\mathbf{\mathbf{Y}}_{2}(t) = \begin{pmatrix}
3 \\ 2
\end{pmatrix}e^{4t} \label{18} \tag{18}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{\mathbf{Y}}(t) = c_{1} \begin{pmatrix}
1 \\ -1
\end{pmatrix} e^{ -t} + c_{2} \begin{pmatrix}
3 \\ 2
\end{pmatrix} e^{4t} \label{19} \tag{19}$$

Si dejamos de usar la notación matricial podemos escribir a las soluciones como

$$x(t) = c_{1} e^{-t} + 3c_{2} e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = -c_{1}e^{-t} + 2c_{2} e^{4t} \label{20} \tag{20}$$

Hasta aquí es hasta donde hemos llegado con lo visto en la unidad anterior, ahora veamos el comportamiento de estas soluciones geométricamente.

Obtuvimos dos funciones, cada una de ellas depende de la variable $t$ de forma que la primer función la podemos graficar en el plano $XT$, mientras que la segunda en el plano $YT$.

La gráfica de $x(t)$ para $c_{1} = c_{2} = 1$ se ve de la siguiente forma.

Función $ x(t) = e^{-t} + 3 e^{4t}$ en el plano $XT$.

Por otro lado, la gráfica de $y(t)$ para $c_{1} = c_{2} = 1$ se ve de la siguiente forma.

Función $y(t) = -e^{-t} + 2e^{4t}$ en el plano $YT$.

De acuerdo a (\ref{15}), la función paramétrica es

$$f(t) = (c_{1}e^{-t} + 3c_{2}e^{4t}, -c_{1}e^{-t} + 2c_{2}e^{4t}) \label{21} \tag{21}$$

Para el caso particular en el que $c_{1} = c_{2} = 1$ la función paramétrica es

$$f(t) = (e^{-t} + 3e^{4t}, -e^{-t} + 2 e^{4t}) \label{22} \tag{22}$$

Grafiquemos en el plano $XY$ la trayectoria de esta función.

Trayectoria en el plano $XY$ o plano fase.

Como ejemplo, si $t = 0$, entonces $x(0) = 4$ y $y(0) = 1$, tal coordenada $(4, 1)$ corresponde al punto mostrado en el plano $XY$, así la trayectoria se forma por el conjunto de puntos $(x(t), y(t))$ correspondientes a cada valor $t \in \mathbb{R}$.

Las tres gráficas anteriores corresponden a la solución particular en la que $c_{1} = c_{2} = 1$, así cada solución particular producirá tres curvas distintas en tres planos distintos.

Nos centraremos especialmente en el plano $XY$ o también llamado plano fase. Cada una de las curvas que se pueden formar en el plano fase correspondientes a valores específicos de $c_{1}$ y $c_{2}$ se llama trayectoria.

En el siguiente plano fase se muestra un conjunto de trayectorias definidas por (\ref{21}) para distintos valores de $c_{1}$ y $c_{2}$.

Distintas trayectorias en el plano fase.

Al conjunto de trayectorias representativas en el plano fase se llama diagrama fase.

Consideremos las soluciones independientes (\ref{18}).

$$\mathbf{\mathbf{Y}}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix} e^{ -t} \hspace{1cm} y \hspace{1cm}
\mathbf{\mathbf{Y}}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}e^{4t}$$

Y notemos lo siguiente.

De $\mathbf{Y}_{2}$ se obtienen las funciones

$$x(t) = 3e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = 2e^{4t} \label{23} \tag{23}$$

De manera que la función $y(t)$ se puede escribir en términos de $x$ como

$$y(x) = \dfrac{2}{3}x$$

con $x > 0$ y cuya gráfica en el plano $XY$ corresponde a una recta en el primer cuadrante con pendiente $\dfrac{2}{3}$.

Gráfica de $y(x) = \dfrac{2}{3}x$ para $x > 0$.

De forma similar, si consideramos la solución $-\mathbf{Y}_{1}$ se obtienen las funciones

$$x(t) = e^{-t} \hspace{1cm} y \hspace{1cm} y(t) = -e^{t} \label{24} \tag{24}$$

De forma que $y$ en términos de $x$ se ve como

$$y(x) = -x$$

Para $x < 0$ en el plano $XY$ tendremos una recta en el segundo cuadrante con pendiente $-1$.

Gráfica de $y(x) = -x$ para $x < 0$.

Consideremos ahora la solución $-\mathbf{Y}_{2}$ cuyas funciones son

$$x(t) = -3e^{4t} \hspace{1cm} y \hspace{1cm} y(t) = -2e^{4t} \label{25} \tag{25}$$

En este caso,

$$y(x) = \dfrac{2}{3}x$$

con $x < 0$, la gráfica corresponde a una recta de pendiente $ \dfrac{2}{3}$ en el tercer cuadrante.

Gráfica de $y(x) = \dfrac{2}{3}x$ para $x < 0$.

Y finalmente de $\mathbf{Y}_{1}$ se obtienen las funciones

$$x(t) = -e^{-t} \hspace{1cm} y \hspace{1cm} y(t) = e^{-t} \label{26} \tag{26}$$

tal que,

$$y(x) = -x$$

con $x > 0$ y cuya gráfica es una recta de pendiente $-1$ en el cuarto cuadrante.

Gráfica de $y(x) = -x$ para $x > 0$.

Lo interesante es que cada vector propio se puede visualizar como un vector bidimensional que se encuentra a lo largo de una de estas semirrectas.

Por ejemplo el vector propio

$$\mathbf{K}_{1} = \begin{pmatrix}
-1 \\ 1
\end{pmatrix}$$

corresponde al siguiente vector en el plano $XY$.

Vector propio $K_{1}$ en el plano $XY$.

Mientras que el vector propio

$$\mathbf{K}_{2} = \begin{pmatrix}
3 \\ 2
\end{pmatrix}$$

corresponde al vector

Vector propio $K_{2}$ en el plano $XY$.

A continuación se muestran las cuatro semirrectas anteriores y los vectores propios unitarios

$$\hat{\mathbf{K}}_{1} = \dfrac{\mathbf{K}_{1}}{\left\| \mathbf{K}_{1} \right\|} \hspace{1cm} y \hspace{1cm} \hat{\mathbf{K}}_{2} = \dfrac{\mathbf{K}_{2}}{\left\| \mathbf{K}_{2} \right\|}$$

sobre el mismo plano fase de antes.

Plano fase ilustrando los vectores propios.

El vector propio $\hat{\mathbf{K}}_{2}$ se encuentra junto con $y = \dfrac{2}{3}x$ en el primer cuadrante y $\hat{\mathbf{K}}_{1}$ se encuentra junto con $y =-x$ en el segundo cuadrante.

Notamos que en el plano fase las trayectorias tienen flechas que indican dirección. Para saber la dirección de las trayectorias nos apoyaremos en el campo vectorial asociado.

Definamos las funciones $F_{1}$ y $F_{2}$ de acuerdo a (\ref{13}).

$$F_{1}(x, y) = 2x + 3y, \hspace{1cm} y \hspace{1cm} F_{2}(x, y) = 2x + y \label{27} \tag{27}$$

Entonces la función $F(x, y)$ correspondiente es

$$F(x, y) = (2x + 3y, 2x + y) \label{28} \tag{28}$$

El campo vectorial será descrito por esta función. Como vimos al inicio de la entrada, para cada punto $(x, y)$ del plano fase anclaremos un vector cuya punta termina en la coordenada dada por la suma vectorial $(x, y) + F(x, y)$. Por ejemplo si $x = 0$ y $y = 1$, entonces nos situaremos en la coordenada $(0, 1)$ del plano fase, evaluando en la función $F(x, y)$ se obtiene el punto $F(0, 1) = (3, 1)$, entonces la punta del vector que parte de $(0, 1)$ terminará en la coordenada $(0, 1) + (3, 1) = (3, 2)$.

Como ejemplo dibujemos los vectores correspondientes a las siguientes evaluaciones.

$$F(0, 1) = (3, 1), \hspace{1cm} F(0, -2) = (-6, -2), \hspace{1cm} F(-3, 0) = (-6, -6)$$

$$F(0, 3) = (9, 3), \hspace{1cm} F(2, -2) = (-2, 2), \hspace{1cm} F(3, -1) = (3, 5)$$

Bosquejo de vectores dados por $F(x, y)$.

Como se puede notar, si dibujáramos todos los vectores para cada punto $(x, y)$ tendríamos un desastre de vectores, todos de distintos tamaños atravesándose entre sí y no habría forma de observar el patrón que esconde el campo vectorial. Para solucionar este problema existe la convención de escalar todos los vectores a un mismo tamaño, por su puesto esto ya no representa correctamente al campo vectorial, pero sí que es de mucha ayuda visualmente y se convierte en sólo una representación del campo vectorial.

En nuestro ejemplo la función

$$F(x, y) = (2x + 3y, 2x + y)$$

se representa por el siguiente campo vectorial.

Representación del campo vectorial generado por $F(x, y) = (2x + 3y, 2x + y)$.

Cómo $F(x, y) = (x^{\prime}, y^{\prime})$, entonces los vectores del campo vectorial deben ser tangentes a las trayectorias formadas por la función paramétrica $f(t) = (x(t), y(t))$. Concluimos entonces que las soluciones del sistema lineal serán trayectorias cuyos vectores del campo vectorial son tangentes a dichas trayectorias.

Campo vectorial y algunas trayectorias del sistema lineal.

Una característica observable del campo vectorial es que los vectores tienden a alejarse del origen, veremos más adelante que el origen no sólo es una solución constante $x = 0$, $y = 0$ (solución trivial) de todo sistema lineal homogéneo de $2$ ecuaciones lineales, sino que también es un punto importante en el estudio cualitativo de dichos sistemas.

Si pensamos en términos físicos, las puntas de flecha de cada trayectoria en el tiempo $t$ se mueven conforme aumenta el tiempo. Si imaginamos que el tiempo va de $-\infty$ a $\infty$, entonces examinando la solución

$$x(t) = c_{1}e^{ -t} + 3c_{2}e^{4t}, \hspace{1cm} y(t) = -c_{1}e^{ -t} + 2c_{2}e^{4t}, \hspace{1cm} c_{1} \neq 0, \hspace{0.4cm} c_{2} \neq 0$$

muestra que una trayectoria o partícula en movimiento comienza asintótica a una de las semirrectas definidas por $\mathbf{Y}_{1}$ o $ -\mathbf{Y}_{1}$ (ya que $e^{4t}$ es despreciable para $t \rightarrow -\infty$) y termina asintótica a una de las semirrectas definidas por $\mathbf{Y}_{2}$ o $ -\mathbf{Y}_{2}$ (ya que $e^{-t}$ es despreciable para $t \rightarrow \infty$).

El plano fase obtenido representa un diagrama de fase que es característico de todos los sistemas lineales homogéneos de $2 \times 2$ con valores propios reales de signos opuestos.

$\square$

Hemos concluido con el ejemplo. Lo que nos muestra este ejemplo es que es posible hacer un desarrollo geométrico sobre un sistema lineal, sin embargo esto sólo es posible si es un sistema con dos ecuaciones, ya que si aumenta el número de ecuaciones también aumentará el número de dimensiones y ya no seremos capaz de obtener gráficas. Es posible extender el plano fase a tres dimensiones (espacio fase para un sistema lineal con $3$ ecuaciones), pero nos limitaremos sólo a los sistemas de $2$ ecuaciones para hacer más sencilla la tarea. También es importante mencionar que podremos hacer este análisis siempre y cuando los coeficientes sean constantes y las ecuaciones no dependan explícitamente de la variable independiente $t$.

Con este método geométrico será posible estudiar el comportamiento de las soluciones sin la necesidad de resolver el sistema, incluso con este método podremos estudiar sistemas no lineales para los cuales aún no conocemos algún método para resolverlos.

Finalmente veremos que las propiedades del plano fase quedarán determinadas por los valores propios del sistema, de manera que en las siguientes entradas haremos un análisis para cada una de las posibilidades que existen, tales posibilidades son:

Valores propios reales y distintos:

  • $\lambda_{1} < \lambda_{2} < 0$.
  • $\lambda_{1} > \lambda_{2} > 0$.
  • $\lambda_{1} < 0$ y $\lambda_{2} > 0$ (como en nuestro ejemplo).

Valores propios complejos:

  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha = 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$.

Valores propios repetidos:

  • $\lambda_{1} = \lambda_{2} < 0$.
  • $\lambda_{1} = \lambda_{2} > 0$.

Valores propios nulos:

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

En las próximas entradas estudiaremos a detalle cada uno de estos casos.

En este enlace se tiene acceso a una excelente herramienta para visualizar el plano fase de sistemas lineales de dos ecuaciones homogéneas con coeficientes constantes y en este enlace se puede visualizar el campo vectorial asociado, además de algunas trayectorias del sistema dando clic sobre el campo vectorial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. En la unidad anterior resolviste de tarea moral los siguientes sistemas lineales. En este caso realiza un desarrollo geométrico como lo hicimos en esta entrada e intenta describir el comportamiento de las soluciones en el plano fase. Dibuja a mano algunos vectores del campo vectorial y algunas trayectorias sobre el mismo plano fase, posteriormente verifica tu resultado visualizando el espacio fase y el campo vectorial usando los enlaces proporcionados anteriormente.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$

    ¿Qué características distintas identificas entre los planos fase de cada uno de los sistemas anteriores?.

Más adelante…

Esta entrada nos ha servido de introducción al estudio geométrico y cualitativo de los sistemas lineales. En la siguiente entrada formalizaremos lo que vimos en esta entrada para posteriormente hacer un análisis más detallado sobre los distintos tipos de sistemas tanto lineales como no lineales que se puedan presentar.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Sistemas hamiltonianos

Por Eduardo Vera Rosales

Introducción

En anteriores entradas, hemos estudiado sistemas no lineales de ecuaciones de primer orden. Hemos visto la dificultad de conocer el comportamiento completo de las curvas solución en el plano fase, debido a que el campo vectorial asociado al sistema puede ser muy complejo. Afortunadamente logramos conocer el comportamiento de las soluciones cercanas a los puntos de equilibrio, gracias a la linealización del sistema, siempre y cuando los puntos de equilibrio fueran hiperbólicos. También estudiamos el método de las nulclinas para esbozar el plano fase de manera completa, pero como ya mencionamos, este método está sujeto a la complejidad del campo vectorial del sistema.

En esta entrada estudiaremos un tipo de sistema cuyo plano fase es relativamente sencillo de estudiar. Estos sistemas son los llamados sistemas hamiltonianos, que son de la forma $$\begin{array}{rcl} \dot{x} & = & \frac{\partial{H}}{\partial{y}} \\ \dot{y} & = & -\frac{\partial{H}}{\partial{x}} \end{array}$$ para cierta función $H:\mathbb{R}^{2} \rightarrow \mathbb{R}.$

Veremos algunas propiedades importantes que satisfacen tanto el sistema hamiltoniano como la función $H$, que llamaremos función hamiltoniana. La más importante será la que nos afirma que las curvas solución del plano fase serán las curvas de nivel de la función hamiltoniana. Así, para los sistemas hamiltonianos el problema de estudiar cualitativamente las curvas solución en el plano fase será equivalente a conocer las curvas de nivel de la función hamiltoniana.

Por supuesto, veremos las condiciones bajo las cuáles un sistema es hamiltoniano, y en caso de que lo sea, desarrollaremos un método para encontrar la función hamiltoniana que define al sistema.

¡Vamos a comenzar!

Sistemas hamiltonianos

En el primer video definimos a los sistemas hamiltonianos, y vemos las principales propiedades que cumplen dichos sistemas, y la función hamiltoniana que los define. Establecemos la condición que debe satisfacer un sistema de ecuaciones para que este sea hamiltoniano, y en caso de serlo, estudiamos una forma de hallar a la función hamiltoniana.

En el segundo video aplicamos todo el conocimiento adquirido en el primer video para estudiar un par de sistemas hamiltonianos y esbozar su plano fase.

Los campos vectoriales que aparecen en los videos fueron realizados en el siguiente enlace.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica si el sistema $$\begin{array}{rcl} \dot{x} & = & x+\sin{y} \\ \dot{y} & = & -y \end{array}$$ es hamiltoniano. En caso de serlo, encuentra una función hamiltoniana y esboza el plano fase del sistema.
  • Haz lo mismo que en el ejercicio anterior para el sistema de ecuaciones $$\begin{array}{rcl} \dot{x} & = & -\sin^{2}{x}\sin{y} \\ \dot{y} & = & -2\sin{x}\cos{x}\cos{y}. \end{array}$$
  • Demuestra que el sistema $$\begin{array}{rcl} \dot{x} & = & x\cos{xy} \\ \dot{y} & = & -y\cos{xy} \end{array}$$ es hamiltoniano. Encuentra una función hamiltoniana, verifica que es una cantidad conservada para el sistema y esboza el plano fase.
  • Considera el sistema lineal de ecuaciones $$\dot{\textbf{X}}=\begin{pmatrix} a & b \\ c & d \end{pmatrix}\textbf{X}.$$ Establece condiciones para las constantes $a,b,c,d$ de tal forma que el sistema sea hamiltoniano.
  • Prueba que si un sistema es hamiltoniano, entonces los puntos de equilibrio del sistema linealizado son únicamente puntos silla o centros.
  • Considera el sistema de ecuaciones de la forma $$\begin{array}{rcl} \dot{x} & = & F_{1}(y) \\ \dot{y} & = & F_{2}(x). \end{array}$$ Demuestra que este sistema es hamiltoniano y encuentra una función hamiltoniana.

Más adelante

Hemos terminado el análisis de los sistemas hamiltonianos. Lamentablemente, no todos los sistemas lo son, y de hecho, casi ninguno lo es. En la siguiente entrada comenzaremos abordando nuevamente el modelo del péndulo, pero ahora agregaremos fricción, por lo que el sistema dejará de ser hamiltoniano. Estudiaremos los problemas que se presentan, posteriormente definiremos un función similar a la función hamiltoniana, la cual es la llamada función de Lyapunov y veremos algunas propiedades interesantes

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Variable Compleja I: Conexidad y compacidad en un espacio métrico

Por Pedro Rivera Herrera

Introducción

En esta entrada abordaremos los conceptos de conexidad y compacidad para caracterizar a los conjuntos de $\mathbb{C}$, además de que veremos que tanto la conexidad como la compacidad son invariantes respecto a una función continua, es decir, son propiedades topológicas, concluyendo así que entre espacios métricos homeomorfos los conjuntos conexos y compactos están en correspondencia biunívoca.

Intuitivamente al hablar de un conjunto conexo pensamos en conjuntos que están constituidos por una sola pieza, conjuntos que no están formados por piezas separadas. Esta característica nos devuelve muchas propiedades importantes que se obtienen al trabajar con este tipo de conjuntos.

Mientras que el concepto de conjunto conexo es fácil de interpretar intuitivamente, el concepto de conjunto compacto no lo es, sin embargo podemos pensar a la compacidad como una generalización topológica de conjunto finito, lo cual es de suma utilidad pues nos permite dotar de propiedades importantes, que se cumplen en conjuntos finitos, a los conjuntos compactos.

Conexidad en un espacio métrico

Definición 10.1. (Subespacio métrico.)
Si $(X,d_X)$ es un espacio métrico y $A\subset X$ se define para todo $x,y\in A$ la métrica inducida por $d_X$ como:
\begin{equation*}
d_A(x,y) = d_X(x,y).
\end{equation*} Esta es claramente una métrica en $A$. Al conjunto $A$ dotado con está métrica se le llama un subespacio métrico de $X$ y lo denotamos como $(A, d_A)$.

Definición 10.2. (Conexidad.)
Un espacio métrico $(X,d_X)$ se dice que es conexo si los únicos subconjuntos de $X$ tales que ambos son abiertos y cerrados en $X$ son el conjunto $\emptyset$ y $X$. Si $A\subset X$, entonces $A$ es un subconjunto conexo de $X$ si el subespacio métrico $(A, d_A)$ es conexo.
Equivalentemente, un espacio métrico $X$ se dice que no es conexo o que es disconexo si existen subconjuntos $A$ y $B$ de $X$, ambos abiertos en $X$ y tales que: \begin{equation*}
A\neq\emptyset, \,\, B\neq\emptyset, \,\, A\cap B = \emptyset \,\,\, \text{y} \,\,\, X = A \cup B.
\end{equation*} Considerando estas condiciones se tiene que $A$ y $B$ son también cerrados en $X$ desde que $A=X\setminus B$ y $B=X\setminus A$.

Ejemplo 10.1.
a) Dado que $\mathbb{C}$ y $\emptyset$ son los únicos subconjuntos abiertos y cerrados en $\mathbb{C}$, ejemplo 7.1(d), tenemos que $(\mathbb{C},d)$ es conexo.
b) Los números reales $\mathbb{R}$ dotados con la métrica euclidiana dada por el valor absoluto, es decir para $a, b\in\mathbb{R}$ se define $d(a,b) = |a\,-\,b|$, forman un espacio métrico conexo.
c) Sea $X = A \cup B$ donde $ A = \{ z\in\mathbb{C} : |\,z\,| \leq 1 \} $ y $B = \{ z\in\mathbb{C} : |\,z – 4\,| < 2\}$, dotado con la métrica euclidiana. Veamos que el subespacio métrico $(X,d_X)$ es disconexo, figura 48.
Solución. Dado que $X\subset\mathbb{C}$ está dotado con la métrica euclidiana, entonces $(X, d_X)$ es un espacio métrico. Por lo que $A = \overline{B}(0,1)$ es un conjunto cerrado en $X$ y $B = B(4,2)$ es un conjunto abierto en $X$. Veamos que $A$ también es abierto. Sea $w \in A$, notemos que para todo $\rho \in (0,1)$ se cumple que:
\begin{equation*}
B(w,\rho) = \{ z \in X \, : \, |z-w|<\rho \} \subset A,
\end{equation*} por lo que $A$ es abierto.
Es claro que $A\neq \emptyset$, $B\neq \emptyset$, $A \cap B = \emptyset$ y $X = A \cup B$. Dado que $A$ y $B$ son abiertos en $X$, entonces $(X, d_X)$ es disconexo.

Figura 48: Conjuntos $A=\overline{B}(0,1)$ y $B=B(4,2)$ son una disconexión del conjunto $X=A\cup B$.

Recordemos el siguiente resultado del espacio métrico $(\mathbb{R}, d)$, donde $d(a,b)=|a\,-\,b|$ para $a,b\in\mathbb{R}$.

Proposición 10.1.
Un conjunto $I\subset \mathbb{R}$ es conexo si y sólo si $I$ es un intervalo.

Demostración. Ejercicio.

$\blacksquare$

Definición 10.3. (Región o dominio.)
Un conjunto $U\subset\mathbb{C}$ abierto y conexo se llama región o dominio.

Ejemplo 10.2.
a) El conjunto $\mathbb{C}$ es una región.
b) Dado $z_0\in\mathbb{C}$, se tiene que para todo $\rho>0$ una $\rho$-vecindad de $z_0$ es una región, figura 41(a).
c) El conjunto $X = \{z\in\mathbb{C} \, : \, 1 < \operatorname{Re}(z) + \operatorname{Im}(z) < 4\} \cap \{ z\in\mathbb{C} \, : \, |\,\operatorname{Re}(z) – \operatorname{Im}(z)\,|< 2\}$ es una región, figura 49.

Figura 49: El conjunto $X$ del ejemplo 10.2(c) es una región en $\mathbb{C}$.

Definición 10.4. (Segmento de recta.)
Sean $z_1,z_2\in\mathbb{C}$, entonces el segmento de recta que va de $z_1$ a $z_2$, denotado por $[z_1, z_2]$, se define como:
\begin{equation*}
[z_1, z_2] = \{ z_1 + t(z_2 -z_1) \, : \, 0\leq t \leq 1 \}
\end{equation*}

Definición 10.5. (Polígono o poligonal.)
Sean $z,w\in\mathbb{C}$, con $z\neq w$. Un polígno o poligonal de $z$ a $w$ se define como el conjunto de $n$-segmentos de recta que unen a dichos puntos, es decir: \begin{align*}
P & = \bigcup\limits_{k=1}^{n} [z_k, w_k]\\
& = [z, z_2, \ldots , z_n, w],
\end{align*} donde $z=z_1$, $w=w_n$ y $w_k = z_{k+1}$ para $1\leq k \leq n-1$.

Figura 50: Polígono o poligonal que une a los puntos $z$ y $w$ mediante $n-1$ segmentos de recta.

Definición 10.6. (Poligonal conexo.)
Un conjunto $S\subset\mathbb{C}$ se llama poligonal conexo si para cualesquiera dos puntos $z, w\in S$ existe un polígono de $z$ a $w$ tal que está totalmente contenido en $S$.

Ejemplo 10.3.
Sean $\rho_1, \rho_2, \rho_3 \in (0,\infty)$ con $\rho_1 < \rho_2 < \rho_3$ y $z_0 \in \mathbb{C}$ un punto fijo. Consideremos a los siguientes conjuntos de $\mathbb{C}$:
a) $X = \overline{B}(z_0,\rho_1) \cup \left( \, \overline{B}(z_0,\rho_3) \setminus \overline{B}(z_0,\rho_2) \right)$, figura 51(a).
b) $Y = B(z_0,\rho_2) \setminus B(z_0,\rho_1)$, figura 51(b).

Figura 51: El conjunto $X$ no es poligonal conexo, mientras que el conjunto $Y$ sí es poligonal conexo..

De acuerdo con la figura 51(a) podemos ver que el conjunto $X$ no es poligonal conexo, ya que si tomamos a $z_1 \in \overline{B}(z_0,\rho_1)$ y $z_2 \in \overline{B}(z_0,\rho_3) \setminus \overline{B}(z_0,\rho_2)$, entonces no es posible trazar una poligonal que una a dichos puntos.

Por otra parte, considerando la figura 51(b) es claro que para cualesquiera dos puntos en $Y$ es posible encontrar una poligonal que los una y que se quede contenida en $Y$, por lo que dicho conjunto sí es poligonal conexo.

Teorema 10.1.
Un conjunto $S \subset \mathbb{C}$ abierto es conexo si y solo si es poligonal conexo.

Demostración.
$\Rightarrow)$
Supongamos que $S$ es un dominio y sea $\zeta \in S$ un punto fijo. Dar una construcción explícita de un polígono $P$ que vaya de $\zeta$ a un punto $w \in S$ tal que $P\subset S$, puede resultar un tanto complicado. Sin embargo solo basta con garantizar que existe dicho polígono. Definamos el siguiente conjunto: \begin{equation*} A = \{w \in S \, : \, \text{existe un polígono} \, \, P \,\, \text{de} \, \, \zeta \,\, \text{a} \,\, w \,\, \text{tal que} \,\, P \subset S \}. \end{equation*} Notemos que $A\neq\emptyset$ ya que $\zeta\in A$.

Veamos que $A$ es abierto en $S$. Sea $w\in A$ y sea $P = [\zeta, z_2, \ldots, z_n, w]$ un polígono de $\zeta$ a $w$ tal que $P\subset S$. Dado que $S$ es abierto entonces existe $\rho>0$ tal que $B(w,\rho)\subset S$. Notemos que si $z\in B(w,\rho)$, entonces se cumple que $[w,z] \subset B(w,\rho)$ (¿por qué?) Así el polígono $Q = P \cup [w,z]$ es un polígono de $\zeta$ a $z$ tal que $Q \subset S$, por lo que $z \in A$. Entonces $B(w,\rho) \subset A$, es decir $A$ es abierto.

Es claro que si $A = S$, entonces $S\setminus A = \emptyset$ es abierto, por lo que $A$ es cerrado y en tal caso no habría nada que probar.

Supongamos entonces que existe $z \in S\setminus A$. Dado que $S$ es abierto entonces existe $\rho>0$ tal que $B(z,\rho) \subset S$. Si suponemos que existe $w\in B(z,\rho) \cap A$, entonces podemos construir un polígono $Q = [\zeta, z_2, \ldots, z_n, w] \cup [w, z]$ que va de $\zeta$ a $z$ tal que $Q\subset S$, pero entonces $z \in A$, lo cual es una contradicción. Entonces no existe $w\in B(z,\rho) \cap A$, es decir $B(z,\rho) \cap A = \emptyset$. Por lo que $B(z,\rho) \subset S\setminus A$, de donde concluimos que $S\setminus A$ es abierto. Por lo tanto $A$ es cerrado en $S$.

Como $S$ es conexo y considerando que $A$ es abierto y cerrado en $S$, con $A \neq \emptyset$, entonces concluimos que $A = S$. Por lo tanto $S$ es poligonal conexo.

$(\Leftarrow$
Supongamos que $S$ es poligonal conexo, procedemos por reducción al absurdo. Supongamos que $S$ no es conexo, entonces existen $A\neq\emptyset$ y $B\neq\emptyset$ abiertos tales que $S = A \cup B$, $A \cap B = \emptyset$. Sea $z \in A$ y $w \in B$, por hipótesis sabemos que existe un polígono $P$ que va de $z$ a $w$ tal que $P \subset S$. Desde que $P \subset A \cup B $ y $A \cap B = \emptyset$ al menos uno de los segmentos que forman a $P$ debe tener un punto final en $A$, digamos $z_k$, y otro punto final en $B$, digamos $w_k$. Entonces dicho segmento es $[z_k, w_k]$. Definamos los siguientes conjuntos:
\begin{align*}
T_1 = \{ \lambda \in[0,1] \, : \, z_k + \lambda(w_k – z_k) \in A \},\\
T_2 = \{ \alpha \in[0,1] \, : \, z_k + \alpha(w_k – z_k) \in B \}.
\end{align*} Notemos que $0 \in S$ y $1\in T$, además dado que $A \cap B = \emptyset$ y $[z_k, w_k] \subset P \subset A \cup B$ es fácil ver que $S \cap T = \emptyset$ y $S \cup T = [0,1]$.

Lema 10.1.
Los conjuntos $S$ y $T$ son abiertos en $[0,1]\subset\mathbb{R}$ con la métrica euclidiana.
Demostración. Se deja como ejercicio al lector.
$\blacksquare$

De acuerdo con lo anterior y considerando el lema 10.1 tenemos que $[0,1] = T \cup S$ es disconexo, lo cual contradice la proposición 10.1. Por lo tanto $S$ es conexo.

$\blacksquare$

Observación 10.1.
Notemos que en la prueba del teorema 10.1, al probar que un conjunto poligonal conexo es conexo no utilizamos que $S$ es abierto, entonces ¿un conjunto conexo es poligonal conexo?

Proposición 10.2.
Sea $(X,d_X)$ un espacio métrico. Entonces las siguientes condiciones son equivalentes:

  1. $(X,d_X)$ es disconexo.
  2. Existe una función sobreyectiva y continua de $(X,d_X)$ en el espacio métrico discreto de dos elementos $(X_0,d_{X_0})$, donde $X_0 = \{0,1\}$ y $d_{X_0}$ es la métrica discreta, es decir $d_{X_0}(0,1) = 1$.

Demostración.
1. $\Rightarrow)$ 2.
Sea $X = A\cup B$, donde $A$ y $B$ son dos subconjuntos de $X$ abiertos no vacíos tales que $A \cap B = \emptyset$. Definimos la función $f:X \to X_0$ dada por:
\begin{equation*}
f(x)= \left\{ \begin{array}{lcc}
0 & \text{si} & x \in A,\\
1 & \text{si} & x \in B.
\end{array} \right.
\end{equation*} Es claro que la función $f$ es suprayectiva. Notemos que los conjuntos abiertos de $X_0$ son (¿por qué?): \begin{equation*}
\emptyset, \{0\}, \{1\}, X_0.
\end{equation*} Notemos que $f^{-1}\left(\emptyset\right) = \emptyset$, $f^{-1}\left(X_0\right) = X$, y sabemos que los conjuntos $X$ y $\emptyset$ son abiertos en $X$. Por otra parte, tenemos que $f^{-1}\left(\{0\}\right) = A$ y $f^{-1}\left(\{1\}\right) = B$, los cuales con conjuntos abiertos en $X$. Entonces por la proposición 9.2 se sigue que $f$ es continua en $X$.

2. $\Rightarrow)$ 1.
Sea $f:X \to X_0$ una función continua y sobreyectiva. Dado que $f$ es sobreyectiva tenemos que los conjuntos $A = f^{-1}\left(\{0\}\right)$ y $B = f^{-1}\left(\{1\}\right)$ son dos subconjuntos de $X$ no vacíos. Notemos que $A,B$ son abiertos en $X$, ya que los conjuntos $\{0\}$ y $\{1\}$ son abiertos en $X_0$, por lo que al ser $f$ una función continua se sigue de la proposición 9.2 que sus imágenes inversas son abiertas en $X$. Más aún, se tiene que los conjuntos $A$ y $B$ son tales que $X = A \cup B$ y $A \cap B = \emptyset$, por lo que $(X, d_X)$ es disconexo.

$\blacksquare$

Podemos reformular el resultado anterior y obtener el siguiente:

Corolario 10.1
Sea $(X, d_X)$ un espacio métrico. Las siguientes condiciones son equivalentes:

  1. $(X, d_X)$ es conexo.
  2. Las únicas funciones continuas de $(X, d_X)$ en $(X_0, d_{X_0})$ son las funciones constantes, es decir las funciones $f(x) = 1$ para todo $x\in X$ y $g(x) = 0$ para todo $x\in X$.

$\blacksquare$

Proposición 10.3.
Sean $(X, d_X)$ y $(Y, d_Y)$ dos espacios métricos y sea $f: X \to Y$ una función continua. Si $(X, d_X)$ es conexo, entonces el subespacio métrico $(f(X), d^*)$, donde $d^*$ es la métrica inducida por $d_Y$, es conexo.

Demostración. Dadas las hipótesis, procedamos por reducción al absurdo, supongamos que $(f(X), d^*)$ es disconexo. Entonces por la proposición 10.2 tenemos que existe una funcion sobreyectiva y continua, digamos $g$, entre $(f(X), d^*)$ y $(X_0, d_{X_0})$. Entonces por la proposición 9.3 se sigue que la función $g \circ f : X \to X_0$ es continua y como $g$ es sobreyectiva se tiene que $g(f(X))=X_0$, lo cual contradice la conexidad de $(X, d_X)$ de acuerdo con el corolario 10.1.

Por lo tanto $(f(X), d^*)$ es conexo.

$\blacksquare$

Un resultado importante que se prueba en Cálculo es el teorema del valor intermedio, el cual resulta ser un caso particular de la proposición 10.3.

Teorema 10.2. (Teorema del valor intermedio.)
Si $f:[a,b] \to \mathbb{R}$ es una función continua en $[a,b]$ con $f(a)<f(b)$, entonces para todo $y$ tal que $f(a) \leq y \leq f(b)$ existe $x\in[a, b]$ tal que $f(x) = y$.

Demostración. Dadas las hipótesis, tomemos a $y\in\mathbb{R}$ tal que $f(a) \leq y \leq f(b)$.

Como $[a, b]\subset\mathbb{R}$ es un intervalo, por la proposición 10.1 se sigue que $([a, b], \,d)$ es conexo, donde $d$ es la métrica inducida por el valor absoluto en $\mathbb{R}$. Dado que $f$ es una función continua y $([a, b], \, d)$ es conexo, por la proposición 10.3 se tiene que $(f([a, b]), \, d^*)$ es conexo, donde $d^*$ es la métrica inducida por el valor absoluto en $\mathbb{R}$. Por la proposición 10.1 tenemos que el conjunto $f([a,b])$ es un intervalo en $\mathbb{R}$. Es claro que dicho intervalo es no vacío desde que $f(a)$ y $f(b)$ pertenecen a dicho conjunto.

Dado que $f(a) \leq y \leq f(b)$ y $f(a),f(b)\in f([a,b])$ entonces se sigue que $y\in f([a,b])$. Por lo tanto existe algún $x\in[a, b]$ tal que $f(x) = y$. Como $y$ era arbitrario se sigue el resultado para todo $y\in\mathbb{R}$ tal que $f(a) \leq y \leq f(b)$.

$\blacksquare$

Proposición 10.4.
Sea $(X, d_X)$ un espacio métrico. Si $Y\subset X$ es conexo en $X$, entonces cualquier conjunto $Z$ tal que $Y \subset Z \subset \overline{Y}$ es conexo.

Demostración. Dadas las hipótesis, supongamos que $Z$ no es conexo. Entonces existen $A\neq \emptyset$ y $B\neq \emptyset$ tales que $Z = A\cup B$ y $A \cap B = \emptyset$.
Como $Y \subset Z \subset \overline{Y}$, entonces $\overline{Y} \subset \overline{Z}$, de donde se sigue que $Y$ es denso en $Z$, por lo que $Y \cap A \neq \emptyset$ y $Y \cap B \neq \emptyset$ son conjuntos abiertos en $Y$ (¿por qué?), además se tiene que: \begin{align*}
(Y \cap A) \cup (Y \cap B) = Y,\\
(Y \cap A) \cap (Y \cap B) = \emptyset,
\end{align*} lo cual contradice la conexidad de $Y$, por lo tanto $Z$ es conexo.

$\blacksquare$

Observación 10.2.
Dado que $Y\subset \overline{Y} \subset \overline{Y}$, de la proposición 10.4 se tiene que $\overline{Y}$ es conexo si $Y$ es conexo en $(X, d_X)$.

Proposición 10.5.
Sea $(X, d_X)$ un espacio métrico y sea $\{Y_j \,:\, j\in J\}$, con $J$ un conjunto de índices, una familia de conjuntos conexos en dicho espacio métrico tal que $\bigcap_{j\in J} Y_j \neq \emptyset$. Entonces $Y = \bigcup_{j\in J} Y_j$ es conexo.

Demostración. Dadas las hipótesis, procedamos por reducción al absurdo. Supongamos que $Y$ no es conexo. Entonces existen subconjuntos no vacíos de $Y$, digamos $A$ y $B$, los cuales son abiertos en $Y$ y tales que $Y = A\cup B$ y $A \cap B \neq \emptyset$. Sea $y \in \bigcap_{j\in J} Y_j \neq \emptyset$. Sin pérdida de generalidad supongamos que $y\in A$. Por hipótesis tenemos que $B\neq \emptyset$, por lo que debe existir al menos algún $j\in J$ tal que $B \cap Y_j \neq \emptyset$. Entonces $y\in A \cap Y_j$, es decir $A \cap Y_j \neq \emptyset$. Es claro que los conjuntos $A \cap Y_j$ y $B \cap Y_j$ son abiertos en $Y_j$ y además notemos que: \begin{align*}
(A \cap Y_j) \cup (B \cap Y_j) = Y_j,\\
(A \cap Y_j) \cap (B \cap Y_j) = \emptyset,
\end{align*} lo cual contradice la conexidad de $Y_j$.

Por lo tanto $Y = \bigcup_{j\in J} Y_j$ es conexo.

$\blacksquare$

De este resultado se deduce por inducción el siguiente:

Corolario 10.2.
Sea $(X, d_X)$ un espacio métrico y sea $\{Y_j\}_{1\leq j \leq n}$ una sucesión de conjuntos conexos en dicho espacio métrico tal que $Y_j \cap Y_{j+1} \neq \emptyset$, con $1 \leq j \leq n-1$. Entonces $\bigcup_{j=1}^n Y_j$ es conexo en $(X, d_X)$.

$\blacksquare$

Definición 10.7. (Componente conexa.)
Sea $(X,d_X)$ un espacio métrico y $z\in X$. La componente conexa de $z$ es el conjunto: \begin{equation*}
C(z) = \bigcup \{A \subset X \, : \, z\in A \,\, \text{y}\,\, A \,\, \text{es conexo}\}. \end{equation*}

Observación 10.3.
De la definición y de la proposición 10.4 es claro que $C(z)$ es el subconjunto conexo máximo de $X$.(¿Por qué?)

Por otra parte notemos que un espacio métrico disconexo puede ser descompuesto únicamente en sus componentes conexas.

Ejemplo 10.4.

  1. Si $X$ es conexo, entonces $C(z) = X$ para todo $z\in X$.
  2. Sea $X = (0, 2) \setminus \{1\}$ dotado con la métrica inducida por el valor absoluto en $\mathbb{R}$. Las componentes conexas de $X$ son los intervalos $(0, 1)$ y $(1, 2)$.
  3. Consideremos al conjunto $U = \left\{z\in\mathbb{C} \,:\, \operatorname{Re}(z)\neq0\right\}$. Sus componentes conexas son: \begin{equation*} D_1 = \left\{z\in\mathbb{C} \,:\, \operatorname{Re}(z) > 0\right\}, \quad D_2 = \left\{z\in\mathbb{C} \,:\,\operatorname{Re}(z) < 0\right\}.
    \end{equation*}
  4. Sea $V = \{ z\in\mathbb{C} \,:\, \operatorname{Re}(z)\not\in\mathbb{Z}\}$. Entonces sus componentes conexas son $G_n = \{z\in\mathbb{C} \,:\, n< \operatorname{Re}(z) < n+1\}$, para cada $n\in\mathbb{Z}$.

Proposición 10.6.
Sea $(X, d_X)$ un espacio métrico. Entonces se cumple lo siguiente.

  1. Cada subconjunto conexo de $(X, d_X)$ está contenido únicamente en una componente conexa.
  2. Cada subconjunto conexo y no vacío de $(X, d_X)$ que es abierto y cerrado en $X$ es una componente de $(X, d_X)$.
  3. Cada componente de $(X, d_X)$ es cerrada.

Demostración.

  1. Primeramente notemos que para $z,y \in X$, si $C(z) \cap C(y) \neq \emptyset$, entonces por la proposición 10.5 se tiene que $C(z) \cup C(y)$ es conexo lo cual contradice la maximalidad de $C(z)$ a menos de que $C(z) = C(y)$. Es decir, si $C(z) \neq C(y)$, entonces $C(z) \cap C(y) = \emptyset$. Sea $A \subset X $ un conjunto conexo tal que $z\in A$. Por la maximalidad de $C(z)$ es claro que $A \subset C(z)$. Dado que dos componentes distintas son ajenas entre sí, es claro que cada conjunto $A\subset X$ conexo tal que $z \in A$ únicamente está contenido en una componente conexa.
  2. Sea $A \subset X$ un conjunto conexo abierto y cerrado en $(X, d_X)$ y sea $z \in A$. Tenemos que $A \subset C(z)$, por lo que $A$ es abierto y cerrado en $(C(z), d_{C(z)})$ (¿por qué?), por lo que por la conexidad de $C(z)$ se debe cumplir que $C(z) = A$.
  3. Sea $z\in X$. Sabemos que $C(z) \subset \overline{C(z)}$. De acuerdo con la proposición 10.4 y la observación 10.2, tenemos que al ser $(C(z), d_{C(z)})$ un subespacio conexo, entonces $\overline{C(z)}$ es también conexo, por lo que por la maximalidad de $C(z)$ se cumple que $\overline{C(z)} \subset C(z)$, por lo que $\overline{C(z)} = C(z)$, es decir $C(z)$ es cerrado.

$\blacksquare$

Observación 10.4.
El inciso 1 de la proposición 10.6 nos dice que el conjunto $X$ se puede expresar como la unión de sus componentes conexas.

Observación 10.5.
Notemos que una componente conexa no necesariamente tiene que ser un conjunto abierto en $(X, d_X)$. Consideremos al siguiente conjunto: \begin{equation*}
X = \{0\} \cup \left\{\frac{1}{n} \,:\, n\in\mathbb{N}^+\right\},
\end{equation*} dotado con la métrica inducida por el valor absoluto en $\mathbb{R}$. No es díficil convencerse de que cada componente conexa de $X$ es un punto y cada punto es una componente. Además cada componente ${\frac{1}{n}}$ es un conjunto abierto en $X$, mientras que la componente conexa ${0}$ es cerrada en $X$ desde que su complemento es abierto en $X$, pero no es abierta ya que dada cualquier $\varepsilon$-vecindad de 0 a esta siempre pertenecerá $\frac{1}{n}$ para algún $n\in\mathbb{N}^+$.

Compacidad en un espacio métrico

Definición 10.8. (Cubierta abierta.)
Sea $(X,d)$ un espacio métrico y $K\subset X$. Una familia de subconjuntos de $X$, digamos $\mathcal{G} = \{G_i : i\in I\}$, donde $I$ es un conjunto arbitrario de índices, tal que: \begin{equation*}
K \subset \bigcup_{i \in I} G_i,
\end{equation*} se llama una cubierta de $K$. Si además cada conjunto de $\mathcal{G}$ es un conjunto abierto en $X$, entonces diremos que es una cubierta abierta de $K$.

Definición 10.9.
Sea $(X,d)$ un espacio métrico. Se dice que un conjunto $K\subset X$ es compacto si toda cubierta abierta $\mathcal{G}$ contiene un subconjunto finito $\{G_1, G_2, \ldots, G_n\} \subset \mathcal{G}$ tal que: \begin{equation*}
K \subset G_1 \cup G_2 \cup \cdots \cup G_n.
\end{equation*}

Ejemplo 10.5.

  1. El conjunto vacío y todo conjunto finito son compactos.
  2. El conjunto $B(0,1) = \left\{ z\in\mathbb{C} : |\,z\,|<1\right\}$ no es un conjunto compacto. Sea $G_n = \{z\in\mathbb{C} : |\,z\,| < 1 – \frac{1}{n+1}\}$ para toda $n\in\mathbb{N}^+$, entonces $\{G_1, G_2, G_3, \ldots \}$ es una cubierta abierta de $B(0,1)$, pero no existe una subcubierta finita.

Para el espacio métrico $(\mathbb{C},d)$ consideraremos válida en el curso las siguientes caracterizaciones de subconjuntos compactos de $(\mathbb{R}^2, d)$, donde $d$ es la distancia usual de $\mathbb{R}^2$.

Proposición 10.7.
Sea $ S \subset \mathbb{C}$. Las siguientes condiciones son equivalentes:

  1. $S$ es compacto.
  2. Todo subconjunto infinito de puntos de $S$ tiene algún punto de acumulación en $S$.
  3. Toda sucesión de números complejos $\{z_n\}_{n\geq 1}$ de $S$ tiene alguna subsucesión convergente a un punto $z\in S$.
  4. $S$ es cerrado y acotado. (Teorema de Heine – Borel.)

$\blacksquare$

Del mismo modo, para un espacio métrico $(X,d)$ consideraremos válidos los siguientes resultados. Para una prueba detallada de estos se puede consultar algún texto como Topología de espacios métricos de Ignacio L. Iribarren o Metric Spaces de Satish Shirali y Harkrishan L. Vasudeva.

Proposición 10.8.
Sea $(X,d)$ un espacio métrico compacto, entonces $(X,d)$ es completo.

Proposición 10.9.
Sean $(X, d_X)$ y $(Y, d_Y)$ dos espacios métricos y sea $f: X \to Y$ una función continua. Si $X$ es compacto, entonces $f(X)$ es un subconjunto compacto de $Y$.

Proposición 10.10.
Sea $(X, d_X)$ un espacio métrico, sea $K\subset X$ y sea $f: K \to \mathbb{R}$ una función continua. Si $K$ es un conjunto compacto, entonces $f$ alcanza sus valores máximo y mínimo y ambos son finitos.

Proposición 10.11. (Teorema de Cantor.)
Sean $(X, d)$ un espacio métrico y $\{K_n\}_{n\geq1}$ una sucesión de subconjuntos compactos no vacíos de $X$ tales que $K_1 \supset K_2 \supset K_3 \supset \cdots$. Entonces $\bigcap\limits_{n=1}^{\infty} K_n \neq \emptyset$.

Proposición 10.12.
Sean $(X, d_X)$ y $(Y, d_Y)$ dos espacios métricos. Si para todo $K\subset X$ conjunto compacto la restricción $f:K \to Y$ es una función continua, entonces $f: X \to Y$ es función continua.

Ejemplo 10.6.
Sea $z_0\in\mathbb{C}$ fijo y sea $\rho>0$. Todo disco cerrado $\overline{B}(z_0, \rho)$ es compacto.

Tarea moral

  1. Realiza la demostración de la proposición 10.1.
  2. Prueba el lema 10.1. Hint: Considera la función $\gamma:[0,1] \to\mathbb{C}$ tal que $\gamma(t) = z + t(w-z)$, con $z,w\in\mathbb{C}$ y utiliza la proposición 9.2.
  3. Considera la definición 10.4. Sean $z,w\in\mathbb{C}$. Demuestra que el segmento de recta $[z,w]$ es un conjunto conexo. Hint: Considera la proposición 10.3 y el ejercicio anterior.
  4. Consideremos el conjunto dado en el ejercicio 8 de la entrada 7, es decir: \begin{equation*}
    S = \{z\in\mathbb{C} \,:\, |\,\operatorname{Im}(z)\,|<|\operatorname{Re}(z)|\}. \end{equation*} Prueba que dicho conjunto dotado con la métrica euclidiana de $\mathbb{C}$ no es conexo. Determina sus componentes conexas.
  5. Consideremos a $(\mathbb{C}, d)$, donde $d$ es la métrica euclidiana. Sean $X,Y\subset \mathbb{C}$ dos conjuntos conexos. Supon que $X \cap Y \neq \emptyset$, entonces ¿el conjunto $X \cap Y$ es necesariamente conexo? Realiza la prueba o da un contraejemplo.
  6. Da un bosquejo de la demostración de la proposición 10.7.
  7. Considera los siguientes conjuntos:
    a) $X = \left\{ \frac{1}{n} + i \frac{1}{m} \,: \, n,m\in\mathbb{N}^+ \right\}$.
    b) $Y = \{z\in\mathbb{C} \,:\, \operatorname{Re}(z), \operatorname{Im}(z) \in \mathbb{Q}\}$.
    c) $W = \bigcup_{n\in\mathbb{Z}} B(n, 1/2)$.
    Determina sus componentes conexas.
  8. ¿Cuáles de los siguientes subconjutnos de $\mathbb{C}$, dotados con la métrica inducida por el módulo complejo, son conexos?
    a) $A = \{z\in\mathbb{C} \,:\, |\,z\,|\leq 1\} \cup \{z\in\mathbb{C} \, : \, |\,z-2\,|<1\}$.
    b) $B = [0, 1) \cup \left\{1+\frac{1}{n} \, : \, n\in\mathbb{N}^+ \right\}$.
    Si alguno no es conexo determina sus componentes conexas.
  9. Sea $U\subset\mathbb{C}$ un conjunto abierto. Muestra que $U$ se puede ver como una unión disjunta numerable de dominios en el plano complejo, es decir, $U$ es la unión numerable de componentes conexas distintas.

Más adelante…

En esta entrada hemos abordado los conceptos de conexidad y compacidad para conjuntos de algún espacio métrico, con lo cual logramos caracterizar a los conjuntos de $\mathbb{C}$ mediante dichos conceptos. Es importante mencionar que existen muchos más resultados para los conjuntos con estas propiedades, sin embargo aquí únicamente mencionamos algunos de los cuales nos serán de utilidad a lo largo del curso. Asimismo solo hemos trabajado con las definiciones que requeriremos, por lo que es importante complementar estos temas con bibliografía adicional sobre espacios métricos.

La siguiente entrada abordaremos el concepto del infinito desde la perspectiva de los números complejos, por lo que realizaremos una extensión de $\mathbb{C}$ dotando a este campo con un nuevo elemento y considerando un nuevo modelo, la Esfera de Riemann, el cual nos permitirá trabajar de forma idónea con este nuevo elemento llamado el punto al infinito e inducir una nueva métrica.

Entradas relacionadas

Variable Compleja I: Continuidad en un espacio métrico

Por Pedro Rivera Herrera

Introducción

La idea de continuidad es uno de los conceptos estructurales de la Topología y el Análisis Matemático. Al hablar de esta idea generalmente asociamos el concepto con la ininterrupción de la gráfica de una función, lo cual es claro cuando trabajamos con funciones reales definidas en algún intervalo, intuitivamente pensamos en la ininterrupción de una función considerando que para cualquier punto $z$ en el dominio de una función $f$, se tendrá que $f(x)$ no estará muy separada de $f(z)$ siempre que $x$ se mantenga lo suficientemente cerca de $z$ en el dominio. Pero, ¿qué pasa con las funciones que cuya gráfica no podemos visualizar? Hablar de continuidad para los espacios métricos resulta de gran importancia, ya que mediante la definición de métrica resulta posible generalizar el concepto de continuidad para funciones de $\mathbb{R}^n$ en $\mathbb{R}^m$, con lo cual podemos responder nuestra pregunta y obtener así una idea clara y general sobre lo que es la continuidad.

En esta entrada abordaremos el concepto de continuidad entre espacios métricos desde una perspectiva general, además de establecer la estrecha relación que existe entre los conceptos de sucesión, límite y continuidad, para obtener así una serie de resultados que nos permitirán caracterizar al espacio métrico $(\mathbb{C},d)$, con $d$ la métrica euclidiana, y facilitar nuestro estudio de la continuidad entre funciones complejas que estudiaremos a detalle en la siguiente unidad.

Continuidad en espacios métricos

Definición 9.1. (Continuidad.)
Sean $(X,d_X)$ y $(Y,d_Y)$ dos espacios métricos y sea $A\subset X$. Una función $f:A \to Y$ se dice que es continua en $a\in A$ si para todo $\varepsilon>0$ existe algún $\delta>0$ (que depende de $a$ y $\varepsilon$) tal que:
\begin{equation*}
d_Y\left( f(x), f(a) \right) < \varepsilon \quad \text{si} \quad d_X(x,a)<\delta. \end{equation*} Decimos que $f$ es continua en $A$ si es continua en todo punto de $A$.

Lema 9.1.
Sea $f:X \to Y$ una función arbitraria y sean $A\subset X$ y $B\subset Y$. Entonces:
\begin{equation*}
f(A) \subset B \quad \text{si y solo si} \quad A \subset f^{-1}(B).
\end{equation*}

Demostración. Se deja como ejercicio al lector.

$\blacksquare$

Proposición 9.1
Sean $(X,d_X)$ y $(Y, d_Y)$ espacios métricos y sea $f: (X,d_X) \to (Y, d_Y)$ una función. Entonces $f$ es continua en un punto $x_0\in X$ si y solo si para todo $\varepsilon>0$ existe $\delta>0$ tal que:
\begin{equation*}
B(x_0,\delta)\subset f^{-1}\left[B(f(x_0),\varepsilon)\right],
\end{equation*} donde $B(x,r)$ denota una $r$-vecindad de $x$.

Demostración. Una función $f:X \to Y$ es continua en $x_0\in X$ si y solo si para todo $\varepsilon>0$ existe $\delta>0$ tal que:
\begin{equation*}
d_Y\left( f(x_0), f(x) \right) < \varepsilon,
\end{equation*} para toda $x\in X$ tal que $d_X(x_0,x)<\delta$, es decir:
\begin{equation*}
\text{si} \,\, x\in B\left(x_0,\delta\right) \,\, \text{entonces} \,\, f(x)\in B\left(f(x_0),\varepsilon\right),
\end{equation*} o equivalentemente: (¿por qué?)
\begin{equation*}
f\left[B\left(x_0,\delta\right)\right] \subset B\left(f(x_0),\varepsilon\right). \end{equation*} Pero por el lema 9.1 esta última condición es equivalente a:
\begin{equation*}
B\left(x_0,\delta\right) \subset f^{-1}\left[B\left(f(x_0),\varepsilon\right)\right].
\end{equation*}

$\blacksquare$

Proposición 9.2.
Sean $(X,d_X)$ y $(Y, d_Y)$ espacios métricos y sea $f: (X,d_X) \to (Y, d_Y)$ una función. Las siguientes afirmaciones son equivalentes:

  1. $f$ es continua en $X$.
  2. Si $A$ es abierto en $Y$, entonces $f^{-1}(A)$ es abierto en $X$.
  3. Si $B$ es cerrado en $Y$, entonces $f^{-1}(B)$ es cerrado en $X$.

Demostración.
1. $\Rightarrow$ 2.
Sea $f$ una función continua y sea $A\subset Y$ un conjunto abierto. Como queremos probar que $f^{-1}(A)$ es abierto en $X$ y dado que $X$ y $\emptyset$ son abiertos en $X$ supongamos que $f^{-1}(A)\neq X$ y $f^{-1}(A)\neq \emptyset$. Sea $x_0 \in f^{-1}(A)$, entonces tenemos que $f(x_0)\in A$ (¿por qué?). Dado que $A$ es abierto en $Y$, entonces existe $\varepsilon>0$ tal que $B(f(x_0),\varepsilon)\subset A$. Como $f$ es continua tenemos por la proposición 9.1 que existe $\delta>0$ tal que: \begin{equation*}
B(x_0,\delta)\subset f^{-1}\left[B(f(x_0),\varepsilon)\right]\subset f^{-1}(A). \end{equation*} De donde se sigue que todo punto de $f^{-1}(A)$ es un punto interior, por lo tanto $f^{-1}(A)$ es abierto en $X$.

2. $\Rightarrow$ 1.
Supongamos que $f^{-1}(A)$ es abierto en $X$ para todo conjunto $A$ abierto en $Y$. Sea $x_0\in X$. Por la proposición 6.2 sabemos que para todo $\varepsilon>0$ se cumple que la bola abierta $B(f(x_0),\varepsilon)$ es un conjunto abierto en $Y$, por lo que $f^{-1}\left[B(f(x_0),\varepsilon)\right]$, es abierto en $X$. Notemos que:
\begin{equation*}
x_0\in f^{-1}\left[B(f(x_0),\varepsilon)\right],
\end{equation*} por lo que existe $\delta>0$ tal que:
\begin{equation*}
B(x_0,\delta)\subset f^{-1}\left[B(f(x_0),\varepsilon)\right].
\end{equation*} Por lo que por la proposición 9.1 se sigue que $f$ es continua en $x_0$.

2. $\Leftrightarrow$ 3.
Se deja como ejercicio al lector.

$\blacksquare$

Proposición 9.3. (Composición de funciones.)
Supongamos que $(X,d_X)$, $(Y,d_Y)$ y $(Z,d_Z)$ son espacios métricos y sean $g:X \to Y$ y $f:Y \to Z$ dos funciones. Si $f$ y $g$ son continuas, entonces la composición $f \circ g$ es continua.

Demostración. Dadas las hipótesis, supongamos que $A$ es un subconjunto abierto de $Z$. Entonces por la proposición 9.2 se sigue que $f^{-1}(A)$ es abierto en $Y$, por lo que $g^{-1}(f^{-1}(A))$ es abierto en $X$. Dado que $g^{-1}(f^{-1}(A)) = (f\circ g)^{-1}(A)$, entonces por la proposición 9.2 tenemos que la función $f \circ g$ es continua.

$\blacksquare$

Proposición 9.4.
Sean $(X,d_X)$ y $(Y, d_Y)$ espacios métricos, $f:A\subset X \to Y$ una función y sea $a \in A$. Entonces se cumple que:

  1. Si $a\in A\setminus A’$, es decir si $a$ es un punto aislado, entonces $f$ es continua en $a$.
  2. Si $a\in A\cap A’$, es decir si $a$ es un punto de acumulación, entonces $f$ es continua en $a$ si y solo si \begin{equation*}
    \lim_{x \to a} f(x) = f(a).
    \end{equation*}

Demostración. Se deja como ejercicio al lector.

$\blacksquare$

Proposición 9.5.
Sean $(X,d_X)$ y $(Y, d_Y)$ espacios métricos y sea $A\subset X$. Una función $f:A \to Y$ es continua en $a \in A$ si y solo si para cualquier sucesión $\{x_n\}_{n\geq1}\subset A$ convergente a $a$ la sucesión $\{f(x_n)\}_{n\geq1}$ converge a $f(a)$.

Demostración.
$\Rightarrow)$
Supongamos que $f:A\to Y$ es una función continua en $a\in A$ y sea $\{x_n\}_{n\geq1}$ una sucesión de $A$ tal que $\lim\limits_{n\to\infty} x_n = a$. Veamos que la sucesión $\{f(x_n)\}_{n\geq1}$ converge a $f(a)$.

Sea $\varepsilon>0$, por la continuidad de $f$ en $a$ existe $\delta>0$ tal que para todo $x\in A$ con $d_X(x,a)<\delta$ se cumple que $d_Y(f(x),f(a))<\varepsilon$. Dado que $\lim\limits_{n\to\infty} x_n = a$, entonces existe algún $N\in\mathbb{N}^+$ tal que: \begin{equation*} d_X(x_n,a)<\delta, \quad \forall n\geq N, \end{equation*} por lo que si $n\geq N$ entonces: \begin{equation*} d_Y(f(x_n),f(a))<\varepsilon, \end{equation*} es decir $\lim\limits_{n\to\infty} f(x_n) = f(a)$.

$(\Leftarrow$
Supongamos que para toda sucesión $\{x_n\}_{n\geq1}\subset A$ convergente a $a$ se cumple que $\lim\limits_{n\to\infty} f(x_n) = f(a)$. Veamos que $f$ es continua en $a$.

Por reducción al absurdo supongamos que $f$ no es continua en $a$. Entonces existe algún $\varepsilon>0$ tal que para todo $\delta>0$ existe $x_\delta \in A$ tal que $d_X(x_\delta,a)<\delta$ y $d_Y(f(x_\delta),f(a))\geq \varepsilon$. Notemos que para cada $n\in\mathbb{N}^+$ el número $\frac{1}{n}$ es positivo, por lo que debe existir $x_n\in A$ tal que $d_X(x_n,a)<\frac{1}{n}$ y $d_Y(f(x_n),f(a))\geq \varepsilon$, es decir que la sucesión $\{x_n\}_{n\geq1}$ converge a $a$, pero la sucesión $\{f(x_n)\}_{n\geq1}$ no converge a $f(a)$, lo cual contradice nuestra hipótesis, por lo que $f$ debe ser continua en $a$.

$\blacksquare$

Ejemplo 9.1.
Sea $(X,d_X)$ un espacio métrico y consideremos al espacio métrico $(\mathbb{R}^n, d)$, donde $d$ es la distancia euclidiana, es decir:
\begin{equation*}
d(x,y) = \left(\sum_{k=1}^n (x_k – y_k)^2\right)^{1/2},
\end{equation*} para todo $x=(x_1, \ldots, x_n)$, $y=(y_1, \ldots, y_n)$ en $\mathbb{R}^n$. Si $f_k : X \to \mathbb{R}$, con $k\in\{1,2, \ldots, n\}$, son funciones continuas, entonces la función $f : X \to \mathbb{R}^n$ dada por $f(x) = (f_1(x), f_2(x), \ldots, f_n(x))$ es continua.

Solución. Sea $\varepsilon>0$, entonces existen $\delta_k > 0$, tales que si $d_X(x,a) < \delta_k$ entonces:
\begin{equation*}
d(f_k(x),f_k(a)) = |\,f_k(x) – f_k(a)\,| < \frac{\varepsilon}{\sqrt{n}},
\end{equation*} para toda $k\in\{1,2, \ldots, n\}$. Por lo que tomando $\delta = \text{mín}\{\delta_1, \ldots, \delta_n\}$, tenemos que si $d_X(x,a) < \delta$, entonces: \begin{equation*}
d(f(x),f(a)) = \left(\sum_{k=1}^n (f_k(x) – f_k(a))^2\right)^{1/2} < \varepsilon, \end{equation*} de donde se sigue el resultado.

Por otra parte, considerando que toda función $f:X \to \mathbb{R}^n$ se puede expresar en términos de sus funciones componentes, es decir $f(x) = (f_1(x), f_2(x), \ldots, f_n(x))$ para toda $x\in X$, y dado que para toda $k\in\{1, 2, \ldots, n\}$ se cumple:
\begin{equation*}
|\,f_k(x) – f_k(y)\,| \leq \left(\sum_{k=1}^n (f_k(x) – f_k(y))^2\right)^{1/2} = d(f(x),f(y)), \end{equation*} por lo que si $f$ es una función continua, entonces cada función componente $f_k : X \to \mathbb{R}^n$ es continua.

Definición 9.2. (Homeomorfismo.)
Sean $(X,d_X)$ y $(Y,d_Y)$ dos espacios métricos. Un homeomorfismo entre $X$ y $Y$ es una función $f:X\to Y$ tal que:

  1. $f$ es biyectiva.
  2. $f$ es continua en $X$.
  3. La inversa de $f$ es continua en $Y$, es decir, $f^{-1}: Y \to X$ es continua.

Si existe un homeomorfismo entre $X$ y $Y$, entonces diremos que los espacios métricos $(X,d_X)$ y $(Y,d_Y)$ son homeomorfos.

Observación 9.1.
Formalmente no hemos definido lo que es una función compleja de variable compleja, sin embargo para ejemplificar los conceptos de esta entrada podemos considerar la siguiente función sin mayor problema. En caso de existir duda de dicha definición puede consultarse la entrada 12 en la cual se aborda dicho concepto de manera formal.

Ejemplo 9.2.
Sea $D = B(0,1)\subset\mathbb{C}$. Consideremos a la función $f:\mathbb{C} \to D$ dada por:
\begin{equation*}
f(z) = \frac{z}{1+|\,z\,|}, \quad z\in\mathbb{C}.
\end{equation*} Veamos que $f$ induce un homeomorfismo entre $D$ y $\mathbb{C}$.

Solución. Primeramente verifiquemos que $f$ es biyectiva. Sean $z_1,z_2\in\mathbb{C}$, es claro que si $z_1 \neq z_2$, entonces $|\,z_1\,| \neq |\,z_2\,|$, por lo que:
\begin{equation*}
\frac{z_1}{1+|\,z_1\,|} \neq \frac{z_2}{1+|\,z_2\,|},
\end{equation*} es decir que $f(z_1) \neq f(z_2)$, por lo que $f$ es inyectiva.
Por otra parte, si $w\in D$ tenemos que $|\,w\,|<1$, por lo que $1 – |\,w\,|>0$. Entonces tomando: \begin{equation*}
z = \frac{w}{1-|\,w\,|},
\end{equation*} es claro que $w = f(z)$. Como $w\in D$ era arbitrario entonces tenemos que $f$ es sobreyectiva.
Por lo tanto, como $f$ es biyectiva tenemos que existe la función inversa de $f$, es decir $f^{-1}:D \to \mathbb{C}$ dada por:
\begin{equation*}
f^{-1}(z) = \frac{z}{1-|\,z\,|}, \quad z\in\mathbb{C}.
\end{equation*} Considerando los resultados de esta entrada es fácil probar que $f$ y $f^{-1}$ son continuas, por lo que se deja como se deja como ejercicio al lector.

Proposición 9.6.
Sean $(X,d_X)$, $(Y,d_Y)$ y $(Z, d_Z)$ espacios métricos y sean $g:X \to Y$ y $f:Y \to Z$ dos funciones.

  1. Si $g$ es un homeomorfismo, entonces $f$ es continua si y sólo si $f \circ g$ es continua.
  2. Si $f$ es un homeomorfismo, entonces $g$ es continua si y sólo si $f \circ g$ es continua.

Demostración.

  1. Dadas las hipótesis, por la proposición 9.3 es claro que $f = (f\circ g) \circ g^{-1}$ es continua si y sólo si $f \circ g$ es continua.
  2. Dadas las hipótesis, por la proposición 9.3 es claro que $g = f^{-1}\circ(f\circ g)$ es continua si y sólo si $f \circ g$ es continua.

$\blacksquare$

Tarea moral

  1. Demuestra el lema 9.1.
  2. Completa la demostración de la proposición 9.2.
  3. Prueba que las funciones $f$ y $f^{-1}$ del ejemplo 9.2 son continuas.
  4. Sean $a, b\in\mathbb{R}\setminus\{0\}$. Considera a los siguientes conjuntos: \begin{align*}
    X = \{x+iy \,:\, x^2+y^2 = 1\},\\
    Y = \left\{x + iy \, : \, \left(\frac{x}{a}\right)^2 + \left(\frac{y}{b}\right)^2 = 1\right\}. \end{align*} Demuestra que $X$ y $Y$, dotados con la métrica euclidiana de $\mathbb{C}$, son homeomorfos. Hint: Considera la función $f(x+iy) = ax + iby$.
  5. Demuestra la proposición 9.4.

Más adelante…

En esta entrada hemos dado una definición clara y general del concepto de continuidad, caracterizando así a los espacios métricos mediante dicho concepto y obteniendo resultados que nos permitieron relacionar a los conceptos de sucesión y de límite con el de continuidad. Estos resultados serán de gran utilidad en las siguientes entradas al estudiar a las funciones complejas (de variable compleja).

La siguiente entrada abordaremos los conceptos de conexidad y compacidad de un espacio métrico, en particular caracterizaremos a los conjuntos de $\mathbb{C}$ mediante estos conceptos, definiremos nuevos conceptos y obtendremos nuevos resultados que relacionan a los conceptos de continuidad, conexidad y compacidad en un espacio métrico, los cuales utilizaremos a lo largo del curso al trabajar con funciones de $\mathbb{C}$ en $\mathbb{C}$.

Entradas relacionadas

Teoría de los Conjuntos I: Propiedades del producto cartesiano

Por Gabriela Hernández Aguilar

Introducción

En esta nueva entrada demostraremos algunas de las propiedades del producto cartesiano. Discutiremos sobre si esta operación en conjuntos es conmutativa, además de ver el comportamiento del producto cartesiano con respecto a las operaciones que definimos antes: unión, intersección, diferencia y diferencia simétrica.

Producto cartesiano

Recordemos la definición de producto cartesiano.

Definición. Sean $A$ y $B$ conjuntos cualesquiera, definimos el producto cartesiano de $A$ y $B$, como:

$A\times B=\set{(a,b): a\in A\ y\ b\in B}$.

Ejemplo.

Consideremos los conjuntos $A=\set{0,1}$ y $B=\set{0,1,2,3}$. Tenemos que $A\times B=\set{(0,0),(0,1), (0,2), (0,3), (1,0), (1,1), (1,2), (1,3)}$. De hecho, podemos representar geométricamente a este conjunto como se muestra en la siguiente imagen:

Imagen representación geométrica del producto cartesiano.

Por supuesto, esta representación es un poco informal pues estamos usando la recta numérica con números reales (que no hemos dicho qué son) y estamos asumiendo cierto orden (del cuál no hemos hablado). Por el momento, piensa que esta representación es sólo para conectar la idea de producto cartesiano con conceptos que has visto en otros cursos.

$\square$

Conmutatividad del producto cartesiano

En general el producto cartesiano no es conmutativo, es decir, si $A$ y $B$ son conjuntos, no necesariamente es cierto que $A\times B=B\times A$.

Ejemplo.

Sean $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que:

$A\times B=\set{(\emptyset, \set{\emptyset})}$.

Por otro lado,

$B\times A=\set{(\set{\emptyset},\emptyset)}$.

Dado que tanto $A\times B$ y $B\times A$ sólo tienen un elemento, para que pase que $A\times B=B\times A$, tendría que ocurrir que $(\emptyset,\set{\emptyset})=(\set{\emptyset}, \emptyset)$. Usando el teorema que vimos en la entrada pasada tendríamos que $\emptyset=\set{\emptyset}$ y $\set{\emptyset}=\emptyset$, lo cual no ocurre. Por lo tanto, $A\times B\not=B\times A$.

$\square$

Veamos ahora bajo qué condición el producto cartesiano sí conmuta.

Proposición. Sean $A$ y $B$ conjuntos. Entonces $A\times B=B\times A$ si y sólo si $A=B$ o $A=\emptyset$ o $B=\emptyset$.

Demostración.

$\rightarrow$] Supongamos que $A$ y $B$ son conjuntos tales que $A\times B=B\times A$.

Caso 1: Si $A=\emptyset$ se cumple la proposición.

Caso 2: Si $B=\emptyset$ se cumple la proposición.

Caso 3: Si $A$ y $B$ son conjuntos no vacíos. Sea $x\in A$. Como $B\not=\emptyset$, existe $y\in B$ y así la pareja $(x,y)\in A\times B$. Por hipótesis $A\times B=B\times A$, por lo que $(x,y)\in B\times A$, esto es $x\in B$ y $y\in A$. En particular, $x\in B$ y por lo tanto, $A\subseteq B$.

Para ver que $B\subseteq A$ seguimos un argumento análogo al anterior. Por lo tanto, $A=B$.

$\leftarrow$] Si $A=B$, tenemos que $A\times B=A\times A=B\times B= B\times A$. Si $A=\emptyset$, entonces por definición de producto cartesiano $A\times B=\emptyset\times B=\emptyset$ y $B\times A=B\times \emptyset= \emptyset$, por lo que $A\times B=B\times A$. Análogamente si $B=\emptyset$.

$\square$

Producto cartesiano y unión

Las siguientes dos proposiciones verifican que el producto cartesiano se distribuye sobre la unión.

Proposición. Para $A,B,C$ conjuntos se cumple que $(A\cup B)\times C=(A\times C)\cup (B\times C)$.

Demostración.

Se tiene que $(x,y)\in (A\cup B)\times C$
si y sólo si $x\in A\cup B$ y $y\in C$
si y sólo si $(x\in A$ o $x\in B)$ y $y\in C$
si y sólo si $(x\in A$ y $y\in C)$ o $(x\in B$ y $y\in C)$
si y sólo si $(x,y)\in A\times C$ o $(x,y)\in B\times C$
si y sólo si $(x, y)\in (A\times C)\cup (B\times C)$.

$\square$

Proposición. Para $A,B,C$ conjuntos se cumple que $A\times (B\cup C)=(A\times B)\cup (A\times C)$.

Demostración.

Se tiene que $(x,y)\in A\times (B\cup C)$
si y sólo si $x\in A$ y $y\in B\cup C$
si y sólo si $x\in A$ y $(y\in B$ o $y\in C)$
si y sólo si $(x\in A$ y $y\in B)$ o $(x\in A$ y $y\in C)$
si y sólo si $(x,y)\in A\times B$ o $(x,y)\in A\times C$
si y sólo si $(x, y)\in (A\times B)\cup (A\times C)$.

$\square$

Proposición. Para cualesquiera $A, B, C, D$ conjuntos no vacíos ocurre que $(A\times C)\cup (B\times D)\subseteq (A\cup B)\times (C\cup D)$.

Demostración.

Sean $A, B, C, D$ conjuntos no vacíos. Tomemos $(x,y)\in (A\times C)\cup (B\times D)$ arbitrario, entonces $(x,y)\in A\times C$ o $(x,y)\in B\times D$.

Si $(x, y)\in A\times C$, entonces $x\in A$ y $y\in C$. Luego, como $A\subseteq A\cup B$ y $C\subseteq C\cup D$ se sigue que $x\in A\cup B$ y $y\in C\cup D$. Así, $(x,y)\in (A\cup B)\times (C\cup D)$.

Si $(x, y)\in B\times D$, entonces $x\in B$ y $y\in D$. Luego, como $B\subseteq A\cup B$ y $D\subseteq C\cup D$ se sigue que $x\in A\cup B$ y $y\in C\cup D$. Así, $(x,y)\in (A\cup B)\times (C\cup D)$.

$\square$

Producto cartesiano e intersección

Con la siguientes dos demostraciones podremos ver que el producto cartesiano se distribuye sobre la intersección.

Proposición. Para $A,B,C$ conjuntos se cumple que $(A\cap B)\times C=(A\times C)\cap (B\times C)$.

Demostración.

Se tiene que $(x,y)\in (A\cap B)\times C$
si y sólo si $x\in A\cap B$ y $y\in C$
si y sólo si $(x\in A$ y $x\in B)$ y $y\in C$
si y sólo si $(x\in A$ y $y\in C)$ y $(x\in B$ y $y\in C)$
si y sólo si $(x,y)\in A\times C$ y $(x,y)\in B\times C$
si y sólo si $(x, y)\in (A\times C)\cap (B\times C)$.

$\square$

Proposición. Para $A,B,C$ conjuntos se cumple que $A\times (B\cap C)=(A\times B)\cap (A\times C)$.

Demostración.

Se tiene que $(x,y)\in A\times (B\cap C)$
si y sólo si $x\in A$ y $y\in B\cap C$
si y sólo si $x\in A$ y $(y\in B$ y $y\in C)$
si y sólo si $(x\in A$ y $y\in B)$ y $(x\in A$ y $y\in C)$
si y sólo si $(x,y)\in A\times B$ y $(x,y)\in A\times C$
si y sólo si $(x, y)\in (A\times B)\cap (A\times C)$.

$\square$

Proposición. Para cualesquiera $A, B, C, D$ conjuntos no vacíos ocurre que $(A\times C)\cap (B\times D)= (A\cap B)\times (C\cap D)$.

Demostración.

Sean $A, B, C, D$ conjuntos no vacíos. Tenemos que:
$(x,y)\in (A\times C)\cap (B\times D)$
si y sólo si $(x,y)\in A\times C$ y $(x,y)\in B\times D$
si y sólo si $(x\in A$ y $y\in C)$ y $(x\in B$ y $y\in D)$
si y sólo si $(x\in A$ y $x\in B)$ y $(y\in C$ y $y\in D)$
si y sólo si $x\in A\cap B$ y $y\in C\times D$
si y sólo si $(x,y)\in (A\cap B)\times (C\cap D)$.

$\square$

Producto cartesiano y diferencia

Con los siguientes resultados probamos que el producto cartesiano se distribuye sobre la diferencia.

Proposición. Sean $A, B, C$ conjuntos no vacíos. Se tiene que $A\times (B\setminus C)= (A\times B)\setminus (A\times C)$.

Demostración.

Se tiene que $(x,y)\in A\times (B\setminus C)$
si y sólo si $x\in A$ y $y\in B\setminus C$
si y sólo si $x\in A$ y ($y\in B$ y $y\notin C$)
si y sólo si $(x\in A$ y $y\in B)$ y $(x\in A$ y $y\notin C)$
si y sólo si $(x,y)\in A\times B$ y $(x,y)\notin A\times C$
si y sólo si $(x,y)\in (A\times B)\setminus (A\times C)$.

$\square$

Proposición. Para $A,B,C$ conjuntos se cumple que $(A\setminus B)\times C=(A\times C)\setminus (B\times C)$.

Demostración.

Se tiene que $(x,y)\in (A\setminus B)\times C$
si y sólo si $x\in A\setminus B$ y $y\in C$
si y sólo si $(x\in A$ y $x\notin B)$ y $y\in C$
si y sólo si $(x\in A$ y $y\in C)$ y $(x\notin B$ y $y\in C)$
si y sólo si $(x,y)\in A\times C$ y $(x,y)\notin B\times C$
si y sólo si $(x, y)\in (A\times C)\setminus (B\times C)$.

$\square$

Producto cartesiano y diferencia simétrica

La siguiente proposición demuestra que el producto cartesiano distribuye a la diferencia simétrica. Como ya demostramos propiedades de cómo interactúa el producto cartesiano con la unión, intersección y diferencia, podremos dar una demostración muy breve usando álgebra de conjuntos.

Proposición. Sean $A, B, C$ conjuntos. Se tiene que $A\times (B\triangle C)= (A\times B)\triangle (A\times C)$.

Demostración. Procedemos por álgebra de conjuntos:

\begin{align*}
A\times (B\triangle C) &= A\times ((B\cup C)\setminus (B\cap C))\\
&=(A\times (B\cup C))\setminus (A\times (B\cap C))\\
&=((A\times B)\cup (A\times C))\setminus (A\times (B\cap C))\\
&=((A\times B)\cup (A\times C) \setminus ((A\times B)\cap (A\times C))\\
&=(A\times B)\triangle (A\times C).
\end{align*}

$\square$

Tarea moral

  • Demuestra que $A\times B=\emptyset$ si y sólo si $A=\emptyset$ o $B=\emptyset$.
  • Muestra que si $C\times D\not=\emptyset$ entonces $C\times D\subseteq A\times B$ si y sólo si $C\subseteq A$ y $D\subseteq B$.
  • Muestra que no siempre se da la igualdad $(A\times C)\cup (B\times D)= (A\cup B)\times (C\cup D)$.
  • Demuestra que $(A\cup B)\times (C\cup D)=(A\times C)\cup (B\times D)\cup (A\times D)\cup (B\times C)$.
  • Muestra que $(X\times Y)\setminus (B\times C)=((X\setminus B)\times Y)\cup(X\times (Y\setminus C))$.
  • Demuestra que $(A\triangle B)\times C=(A\times C)\triangle (B\times C)$.

Más adelante…

En la siguiente entrada definiremos qué es una relación. Para ello utilizaremos el concepto de producto cartesiano y pareja ordenada. Resultará que una relación es un subconjunto de un producto cartesiano, por lo que es importante que comprendas bien el concepto de producto cartesiano que hemos visto en las últimas dos entradas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»