Archivo de la categoría: Sin clasificar

3.4. MATRIZ DE UNA COMBINACIÓN LINEAL DE TRANSFORMACIONES: ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Sabemos que toda transformación lineal entre espacios vectoriales de dimensión finita puede describirse mediante una matriz, siempre que fijemos bases en el dominio y el codominio. Lo verdaderamente valioso es que esta relación no solo asigna una matriz a cada transformación lineal, sino que establece una biyección entre ambas nociones. Esto significa que no hay pérdida de información al pasar de una descripción a la otra; cada transformación lineal tiene una única matriz asociada y cada matriz representa exactamente una transformación lineal. En otras palabras, estamos ante dos “lenguajes” distintos capaces de expresar la misma estructura.

Esta correspondencia no es accidental: surge de la manera en que una transformación lineal actúa sobre los vectores y, en particular, sobre las coordenadas de esos vectores respecto de una base.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\{ ax+bx^2+cx^3 | a,b,c \in \mathbb{R} \}$ y $W=\{ d+ex+fx^2 | d,e,f \in \mathbb{R} \}$.
    Sean $B = (x,x^2,x^3)$ y $\Gamma = (1,x,x^2)$.
    Sean $T,S \in \mathcal{L}(V,W)$ con $T(ax+bx^2+cx^3)=a+2bx+3cx^2$ y $S(ax+bx^2+cx^3)=(2a+b)+3bx-cx^2$
    $[ 3T+S ]_{B}^{\Gamma} = 3 [ T ]_{B}^{\Gamma} +[ S ]_{B}^{\Gamma}$

Justificación.

Por un lado, $(3T+S) \left( ax+bx^2+cx^3 \right) = 3T(ax+bx^2+cx^3)+S(ax+bx^2+cx^3)$ $=3[a+2bx+3cx^2]+ \left[ (2a+b)+3bx-cx^2 \right]$ $=(5a+b)+9bx+8cx^2$.
De donde $[ 3T+S ]_{B}^{\Gamma} = \begin{pmatrix} 5 & 1 & 0 \\ 0 & 9 & 0 \\ 0 & 0 & 8 \end{pmatrix}$.

Por otro lado $[ T]_{B}^{\Gamma} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}$ y $[ S ]_{B}^{\Gamma} = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{pmatrix}$
De donde $3[ T ]_{B}^{\Gamma} + [ S]_{B}^{\Gamma} = 3 \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} + \begin{pmatrix} 2 & 1 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{pmatrix} = \begin{pmatrix} 5 & 1 & 0 \\ 0 & 9 & 0 \\ 0 & 0 & 8 \end{pmatrix}$.

Veamos ahora que lo que ocurrió en el ejemplo anterior no es casualidad, probemos que el asignarle a una transformación lineal su matriz asociada se comporta bien con las operaciones de suma y producto por escalar:

Proposición (3.4.1.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita, $B, \Gamma$ bases ordenadas de $V$ y $W$ respectivamente, $T,S \in \mathcal{L}(V,W)$ y $\lambda \in K$.
Se cumple que $[ \lambda S + T ]_{B}^{\Gamma}$ $= \lambda [ S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma}$.

Demostración: Sean $n$ la dimensión de $V$, $B= ( v_1, …, v_n )$ y $j \in \{ 1, …, n \}$.

$\begin{align*}
col_j [ \lambda S + T]_{B}^{\Gamma} &= [ (\lambda S + T)(v_j) ]_{\Gamma} \tag{Def. de suma y producto}\\
&= [ \lambda S(v_j) + T(v_j) ]_{\Gamma}\tag{Obs. entrada 3.1}\\
&= \lambda [ S(v_j) ]_{\Gamma} + [ T(v_j) ]_{\Gamma} \tag{Def. de matriz asociada}\\
&= \lambda col_j[ S ]_{B}^{\Gamma} + col_j [ T ]_{B}^{\Gamma} \tag{Suma de matrices}\\
&= col_j \left( \lambda [ S ]_{B}^{\Gamma} +[T ]_{B}^{\Gamma} \right) \tag{}\\
\end{align*}$

$\therefore col_j [\lambda S + T ]_{B}^{\Gamma} = col_j \left( \lambda [S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma} \right)$

Al tratarse de una columna aleatoria, concluimos que todas las columnas de $[ \lambda S + T ]_{B}^{\Gamma}$ y $\lambda [ S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma}$ son iguales y con ello, las matrices son idénticas.

Por lo tanto $[\lambda S + T ]_{B}^{\Gamma} = \lambda [ S ]_{B}^{\Gamma} + [ T]_{B}^{\Gamma}$.

Veamos ahora que la matriz asociada a una transformación lineal determina por completo a la transformación:

Proposición (3.4.2.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita, $B$ y $\Gamma$ bases ordenadas de $V$ y $W$ respectivamente, $T,S \in \mathcal{L}(V,W)$.
Si $[T ]_{B}^{\Gamma} = [ S ]_{B}^{\Gamma}$ entonces $T=S$.

Demostración: Supongamos que $[T ]_{B}^{\Gamma} =[ S ]_{B}^{\Gamma}$

Sean $n$ y $m$ las dimensiones de $V$ y $W$ respectivamente, $B= ( v_1, …, v_n )$ y $\Gamma = ( w_1, …, w_m )$.

Sea $j \in \{ 1,…,n \}$.
Debido a que $\Gamma$ es una base de $W$, existen $\lambda_{1j}, …, \lambda_{mj} \in K$ tales que $T(v_j) =\lambda_{1j}w_1 + … + \lambda_{mj}w_m$. Entonces,

$\begin{align*}
\begin{pmatrix} \lambda_{1j} \\ \vdots \\ \lambda_{mj} \end{pmatrix}&=[ T(v_j) ]_{\Gamma} \tag{}\\
&= col_j [T]_{B}^{\Gamma} \tag{}\\
&= col_j [ S ]_{B}^{\Gamma} \tag{$[ T]_{B}^{\Gamma} =[S ]_{B}^{\Gamma}$}\\
&= [ S(v_j) ]_{\Gamma} \tag{}\\
\therefore \begin{pmatrix} \lambda_{1j} \\ \vdots \\ \lambda_{mj} \end{pmatrix}&=[ S(v_j)]_{\Gamma}
\end{align*}$

Por lo tanto, $S(v_j) =\lambda_{1j}w_1 + … + \lambda_{mj}w_m = T(v_j)$.

Como se cumple para toda $j \in \{ 1, …, n \}$, entonces $T$ y $S$ coinciden al evaluarse en los elementos de una base y por el corolario 2.4.2 de la entrada 2.4 esto nos permite concluir que $T=S$.

Ejemplos

  • Sean $K = \mathbb{R}$ y $V=W= \mathbb{R}^3$.
    Sean $\mathcal{C} = (e_1, e_2, e_3)$ la base canónica de $V$ y $\Gamma = ((1,0,1), (1,1,0), (0,1,1))$ una base de $W$.
    Sean $T,S \in \mathcal{L}(V,W)$ tales que $[ T ]_{\mathcal{C}}^{\Gamma} =[ S ]_{\mathcal{C}}^{\Gamma} = \begin{pmatrix} 2 & 0 & 4 \\ 1 & -1 & 1 \\ 8 & 1 & 1 \end{pmatrix}$.
    Entonces $T(x,y,z)=S(x,y,z)=(3x-y+5z, 9x+2z, 10x+y+5z)$

Justificación.

$T(e_1) = S(e_1) = 2(1,0,1) + 1(1,1,0) + 8(0,1,1) = (3,9,10)$
$T(e_2) = S(e_2) = 0(1,0,1) – 1(1,1,0) + 1(0,1,1) = (-1,0,1)$
$T(e_3) = S(e_3) = 4(1,0,1) + 1(1,1,0)+ 1(0,1,1) = (5,2,5)$

Tenemos que $T(x,y,z) = T(xe_1 + ye_2 + ze_3)$ $= xT(e_1) + yT(e_2) + zT(e_3)$$=xS(e_1) + yS(e_2) + zS(e_3)$ $=S(xe_1 + ye_2 + ze_3)$ $=S(x,y,z)$.

Y como $xT(e_1) + yT(e_2) + zT(e_3)$ $= x(3,9,10) + y(-1,0,1) + z(5,2,5)$ $=(3x-y+5z,9x+2z,10x+y+5z)$, entonces $T(x,y,z)=S(x,y,z)=(3x-y+5z,9x+2z,10x+y+5z)$.

Tarea Moral

  1. Sean $V$ un $K$ – espacio vectorial de dimensión dos y $S, T \in \mathcal{L}(V,V)$.
    Sea $\Gamma$ base ordenada de $V$.
    Dadas $M_1 , M_2 \in \mathcal{M}_{2 \times 2}(\mathbb{R})$ y $\alpha_1 , \alpha_2 , \beta_1 , \beta_2 \in \mathbb{R}$, si se tiene que:
    $\begin{cases}
    [ \alpha_1 S + \beta_1 T ]_{\Gamma} = M_1\\
    [ \beta_2 S + \beta_2 T]_{\Gamma} = M_2\\
    \end{cases}$
    ¿Cómo crearías un sistema de ecuaciones para obtener $S$ y $T$?
    ¿Lo puedes adaptar para tres transformaciones si tuvieras tres ecuaciones matriciales inicialmente bien definidas? ¿Sería necesario ajustar en ese caso la dimensión de $V$? Justifica tus respuestas.
  2. ¿Qué te dice el hecho de que una misma transformación tenga distintas matrices según la base? ¿Eso cambia la esencia de la transformación? ¿Por qué sí o por qué no?
    Para responder, reflexiona en lo siguiente:
    Imagina que en un plano cartesiano estás parado con el Eje X (lado positivo), y un amigo está en el Eje Y (lado negativo) viendo simultánemante a un triángulo rotar. Sus descripciones en coordenadas serán diferentes, porque sus ejes son distintos… ¿eso significa que vieron distintas rotaciones?

Más adelante…

Veremos un resultado que junto con los dos de esta entrada darán lugar a un isomorfismo que quizás a algunos sorpenda y otros hayan visto venir… No por nada intervienen en él dos espacios vectoriales que hemos mencionado una y otra vez de modo tal que hemos tenido que recalcar que uno consiste de las representaciones de los elementos del otro. ¿Cuáles dos espacios crees que sean?

Entradas relacionadas

Guía de notación para Análisis Matemático I

Por Lizbeth Fernández Villegas

El vínculo a esta página lo encontrarás al final de cada entrada y al inicio del índice en Análisis Matemático I.

Introducción

Aprender Análisis Matemático es, en gran medida, aprender a leer un nuevo idioma. A lo largo de estas notas, hemos adoptado la notación clásica de los grandes referentes del Análisis Matemático para dar rigor a cada concepto. Sin embargo, sabemos que a veces estos símbolos pueden sentirse como una barrera.
He preparado esta Guía de notación como un mapa de consulta rápida. Aquí encontrarás desde los símbolos lógicos fundamentales hasta las definiciones de las métricas y normas más complejas que exploramos en cada sesión. Si alguna vez te pierdes entre subíndices o definiciones alternativas, vuelve aquí. Los términos están enlistados por orden de aparición en la exposición de acuerdo con el índice en Análisis Matemático I e incluyen un enlace directo a la entrada donde fueron definidos a fondo por primera vez. ¡Que la notación sea tu herramienta, no un obstáculo!


Notación general

$
\renewcommand{\arraystretch}{1}
\begin{array}{c|l}
\text{Símbolo} & \text{Significado} \\
\hline \hline
\forall & \text{Para todo} \\ \hline
\exists & \text{Existe} \\ \hline
\exists! & \text{Existe un único} \\ \hline
\nexists & \text{No existe} \\ \hline
\implies & \text{Implica (entonces)} \\ \hline
\iff & \text{Si y solo si (equivalencia)} \\ \hline
\therefore & \text{Por lo tanto} \\ \hline
\in / \notin & \text{Pertenece / No pertenece} \\ \hline
\subset & \text{Contenido en (subconjunto)} \\ \hline
\cup / \cap & \text{Unión / Intersección} \\ \hline
A \setminus B & \text{Diferencia de conjuntos} \\ \hline
A^c & \text{Complemento del conjunto } A \\ \hline
\emptyset & \text{Conjunto vacío} \\ \hline
\mathbb{N} & \text{Números Naturales} \\ \hline
\mathbb{Z} & \text{Números Enteros} \\ \hline
\mathbb{Q} & \text{Números Racionales} \\ \hline
\mathbb{R} & \text{Números Reales} \\ \hline
\mathbb{R}^n & \text{Espacio Euclidiano } n\text{-dimensional} \\ \hline
\mathbb{I} & \text{Números Irracionales } (\mathbb{R} \setminus \mathbb{Q}) \\ \hline
\mathbb{C} & \text{Números Complejos} \\
\end{array}
$

Unidad 1. Espacios Métricos

$
\renewcommand{\arraystretch}{1.5}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
(X,d) & \text{Espacio métrico (conjunto y métrica)} & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
d(x,y) & \text{Distancia entre los puntos } x \text{ y } y & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
d_X & \text{Distancia en el espacio métrico } X & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
f: A \to B & \text{Función de } A \text{ en } B & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
(X,d_{disc}) & \text{Métrica discreta} & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
|x-y| & \text{Métrica usual en } \mathbb{R} & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
\mathcal{C}^0[a,b] & \text{Funciones continuas en } [a,b] & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
\mathcal{B}(A, \mathbb{R}) & \text{Funciones acotadas de } A \text{ en } \mathbb{R} & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
d_\infty(f,g) & \text{Distancia del supremo} & \href{https://blog.nekomath.com/espacios-metricos/}{\textcolor{blue}{\text{Espacios métricos}}} \\ \hline
\norm{\cdot} & \text{Norma en un espacio vectorial } V & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\ell_\infty & \text{Sucesiones reales acotadas} & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\| x \|_p := (\sum_{i=1}^n |x_i|^p ) ^ {1/p} & \text{Norma } p \text{ en } \mathbb{R}^n & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\|x\|_\infty := max \{|x_1|,…,|x_n|\} & \text{Norma infinito en } \mathbb{R}^n & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\norm{f}_\infty :=\underset{a \leq x \leq b}{max} \, |f(x)| & \text{Norma infinito en } \mathcal{C}^0[a,b] & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\norm{z} := \sqrt{a^2+b^2} & \text{Norma usual en } \mathbb{C} \text{ para } z = a+bi & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\ell_p & \text{Espacio de sucesiones } p\text{-sumables} & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\norm{(x_{n})_{n \in \mathbb{N}}}_{\infty} :=\underset{n \in \mathbb{N}}{sup} \, |x_{n}| & \begin{matrix} \text{Norma infinito en el conjunto} \\ \text {de sucesiones reales acotadas } \ell_\infty \end{matrix} & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\norm{(x_{n})_{n \in \mathbb{N}}}_p := (\sum_{i=1}^{\infty} |x_i|^p )^{1/p} & \text{Norma } p \text{ en el conjunto de sucesiones } \ell_p & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
\norm{f}_p:= \left(\int_{a}^{b} |f(x)|^p \,dx \right)^{1/p} & \text{Norma } p \text{ en } \mathcal{C}^0[a,b] \text{ (integral)} & \href{https://blog.nekomath.com/espacios-normados/}{\textcolor{blue}{\text{Espacios normados}}} \\ \hline
B(x,\varepsilon) & \text{Bola abierta (centro } x, \text{ radio } \varepsilon) & \href{https://blog.nekomath.com/la-bola-abierta-en-un-espacio-metrico/}{\textcolor{blue}{\text{La bola abierta}}} \\ \hline
B_X(x,\varepsilon) & \text{Bola abierta en el espacio métrico } X & \href{https://blog.nekomath.com/la-bola-abierta-en-un-espacio-metrico/}{\textcolor{blue}{\text{La bola abierta}}} \\ \hline
Int(A) & \text{Interior de un conjunto } A & \href{https://blog.nekomath.com/nociones-topologicas-basicas/}{\textcolor{blue}{\text{Nociones topológicas}}} \\ \hline
\overline{A} & \text{Cerradura o adherencia de } A & \href{https://blog.nekomath.com/nociones-topologicas-basicas/}{\textcolor{blue}{\text{Nociones topológicas}}} \\ \hline
\overline{B}(x,\varepsilon) & \text{Bola cerrada (centro } x, \text{ radio } \varepsilon) & \href{https://blog.nekomath.com/nociones-topologicas-basicas/}{\textcolor{blue}{\text{Nociones topológicas}}} \\ \hline
\partial A & \text{Frontera de un conjunto } A & \href{https://blog.nekomath.com/nociones-topologicas-basicas/}{\textcolor{blue}{\text{Nociones topológicas}}} \\ \hline
\mathcal{B}(S,X) & \begin{matrix} \text{Conjunto de funciones} \\ \text{acotadas de } S \text{ en } X \end{matrix} & \href{https://blog.nekomath.com/espacios-de-funciones/}{\textcolor{blue}{\text{Espacios de funciones}}} \\ \hline
d_\infty (f,g) & \begin{matrix} \text{Métrica uniforme: } \\ \sup_{z\in S} d(f(z),g(z)) \end{matrix} & \href{https://blog.nekomath.com/espacios-de-funciones/}{\textcolor{blue}{\text{Espacios de funciones}}} \\ \hline
\mathcal{C}^0([0,1], \mathbb{R}^2) & \begin{matrix} \text{Funciones continuas de} \\ \text{un intervalo a un plano} \end{matrix} & \href{https://blog.nekomath.com/espacios-de-funciones/}{\textcolor{blue}{\text{Espacios de funciones}}} \\ \hline
\end{array}
$

Unidad 2. Continuidad

$
\renewcommand{\arraystretch}{1.5}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
\begin{matrix} (x_n)_{n \in \mathbb{N}} \\ (x_n) \end{matrix} & \begin{matrix} \text{Sucesión definida como} \\ \text{función } x: \mathbb{N} \to X \end{matrix} & \href{https://blog.nekomath.com/convergencia/}{\textcolor{blue}{\text{Convergencia}}} \\ \hline x_n & \text{Término n-ésimo de la sucesión} & \href{https://blog.nekomath.com/convergencia/}{\textcolor{blue}{\text{Convergencia}}} \\ \hline \begin{matrix} x_n \to x \\ \underset{n \to \infty}{lim} \, x_n = x \end{matrix} & \begin{matrix} \text{La sucesión converge} \\ \text{al punto } x \end{matrix} & \href{https://blog.nekomath.com/convergencia/}{\textcolor{blue}{\text{Convergencia}}} \\ \hline
U_\varepsilon(A) & \begin{matrix} \text{Unión de bolas de radio } \varepsilon \\ \text{con centro en } A \end{matrix} & \href{https://blog.nekomath.com/la-metrica-de-hausdorff/}{\textcolor{blue}{\text{Métrica de Hausdorff}}} \\ \hline
d_H(A,B) & \begin{matrix} \text{Distancia de Hausdorff} \\ \text{entre conjuntos} \end{matrix} & \href{https://blog.nekomath.com/la-metrica-de-hausdorff/}{\textcolor{blue}{\text{Métrica de Hausdorff}}} \\ \hline
\text{dist}(a,B) & \inf_{b \in B} d(a,b) & \href{https://blog.nekomath.com/la-metrica-de-hausdorff/}{\textcolor{blue}{\text{Métrica de Hausdorff}}} \\ \hline
\mathcal{M}(X) & \begin{matrix} \text{Espacio de cerrados y acotados} \\ \text{de } X \text{ con la métrica } d_H \end{matrix} & \href{https://blog.nekomath.com/la-metrica-de-hausdorff/}{\textcolor{blue}{\text{Métrica de Hausdorff}}} \\ \hline
f(A) & \text{Imagen del conjunto } A \text{ bajo } f & \href{https://blog.nekomath.com/limite-de-una-funcion/}{\textcolor{blue}{\text{Límite de una función}}} \\ \hline
\begin{matrix} \underset{x \to x_0}{lim} \, f(x) = L \\ f(x) \to L \end{matrix} & \begin{matrix} \text{Límite de la función cuando} \\ x \text{ tiende a } x_0 \end{matrix} & \href{https://blog.nekomath.com/limite-de-una-funcion/}{\textcolor{blue}{\text{Límite de una función}}} \\ \hline
f^{-1}(U) & \text{Imagen inversa del conjunto } U & \href{https://blog.nekomath.com/funciones-continuas-en-espacios-metricos/}{\textcolor{blue}{\text{Funciones continuas}}} \\
\end{array}
$

Unidad 3. Completez

$
\renewcommand{\arraystretch}{1.5}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
diam(A) & \underset{x_1,x_2 \in A}{sup}{d(x_1,x_2)} & \href{https://blog.nekomath.com/conjuntos-anidados/}{\textcolor{blue}{\text{Conjuntos anidados}}} \\ \hline
(x_n) \sim (x’n) & \underset{n \to \infty}{lim} d(x_n, x’_n) = 0 & \href{https://blog.nekomath.com/completacion-de-un-espacio-metrico/}{\textcolor{blue}{\text{Completación}}} \\ \hline
\\
\end{array}
$

Unidad 4. Convergencia uniforme su relación con la derivada y la integral

$
\renewcommand{\arraystretch}{1.5}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
\mathcal{C}_b^0(X,Y) & \begin{matrix} \text{Funciones continuas y} \\ \text{acotadas de } X \text{ a } Y \end{matrix} & \href{https://blog.nekomath.com/convergencia-uniforme-y-continuidad/}{\textcolor{blue}{\text{Conv. uniforme y cont.}}} \\ \hline d_{\infty}(f,g) & \underset{x \in X}{sup} \, d_Y(f(x), g(x)) & \href{https://blog.nekomath.com/convergencia-uniforme-y-continuidad/}{\textcolor{blue}{\text{Conv. uniforme y cont.}}} \\ \hline
\mathcal{C}^0(A,X) & \text{Funciones continuas de } A \text{ a } X & \href{https://blog.nekomath.com/convergencia-uniforme-y-continuidad/}{\textcolor{blue}{\text{Conv. uniforme y cont.}}} \\ \hline
\sum_{k=1}^{\infty} v_k & \begin{matrix} \text{Serie convergente:} \\ \underset{n \to \infty}{lim} \sum_{k=1}^{n} v_k \end{matrix} & \href{https://blog.nekomath.com/convergencia-uniforme-de-series-en-espacios-de-banach/}{\textcolor{blue}{\text{Series en Banach}}} \\
\end{array}
$

Unidad 5. Teoremas de punto fijo y aplicación a las ecuaciones diferenciales

$
\renewcommand{\arraystretch}{2}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
(\phi^n(x_0))_{n \in \mathbb{N}} & \begin{matrix} \text{Sucesión de iteraciones de} \ \text{punto fijo que converge a } x^* \end{matrix} & \href{https://blog.nekomath.com/funcion-contraccion/}{\textcolor{blue}{\text{Contracciones}}} \\ \hline
\phi^n & \underset{n \text{ veces}}{\underbrace{\phi \circ \dots \circ \phi}} & \href{https://blog.nekomath.com/funcion-contraccion/}{\textcolor{blue}{\text{Contracciones}}} \\
\end{array}
$

Unidad 6. Compacidad, Heine-Borel y Árzela-Ascoli

$
\renewcommand{\arraystretch}{2}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
\mathcal{C} = {A_i}_{i \in \mathcal{I}} & \begin{matrix} \text{Cubierta de } A \text{ si} \\ A \subset \underset{i \in \mathcal{I}}{\cup} A_i \end{matrix} & \href{https://blog.nekomath.com/compacidad-en-espacios-metricos/}{\textcolor{blue}{\text{Compacidad}}} \\ \hline
\overline{f}(x_0) & \underset{\varepsilon \to 0}{lim} \left[ \underset{x \in B_X(x_0, \varepsilon)}{sup} f(x) \right] & \href{https://blog.nekomath.com/funciones-semicontinuas/}{\textcolor{blue}{\text{Semicontinuas}}} \\ \hline
\underline{f}(x_0) & \underset{\varepsilon \to 0}{lim} \left[ \underset{x \in B_X(x_0, \varepsilon)}{inf} f(x) \right] & \href{https://blog.nekomath.com/funciones-semicontinuas/}{\textcolor{blue}{\text{Semicontinuas}}} \\ \hline
\omega f(x_0) & \overline{f}(x_0) – \underline{f}(x_0) & \href{https://blog.nekomath.com/funciones-semicontinuas/}{\textcolor{blue}{\text{Semicontinuas}}} \\ \hline
\varepsilon\text{-$red$} & \text{Conjunto finito que «pixeliza» el espacio} & \href{https://blog.nekomath.com/varepsilon-redes/}{\textcolor{blue}{\varepsilon\text{-$redes$} }} \
\end{array}
$

Unidad 8. Integral de Riemann-Stieltjes

$
\renewcommand{\arraystretch}{2}
\begin{array}{c|l|l}
\text{Símbolo} & \text{Significado} & \text{Aparece en…} \\ \hline \hline
P, \, \mathcal{P}_{[a,b]} & \text{Partición y conjunto de particiones de } [a,b] & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
S_P[f;a,b] & \sum_{i=1}^{n} |f(x_i) – f(x_{i-1})| & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
\begin{matrix} V[f;a,b] := V[a,b] \ := V := \underset{P \in \mathcal{P}_{[a,b]}}{sup} S_P \end{matrix} & \text{Variación de } f \text{ sobre } [a,b] & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
x^+, x^- & \text{Partes positiva y negativa de } x \in \mathbb{R} & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
S_P^+ := S_P^+[f;a,b] & \sum_{i=1}^{n} (f(x_i) – f(x_{i-1}))^+ & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
S_P^- := S_P^-[f;a,b] & \sum_{i=1}^{n} (f(x_i) – f(x_{i-1}))^- & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
S^+ := S^+[f;a,b] & \text{Variación positiva: } \underset{P \in \mathcal{P}}{sup} S_P^+ & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
S^- := S^-[f;a,b] & \text{Variación negativa: } \underset{P \in \mathcal{P}}{sup} S_P^- & \href{https://blog.nekomath.com/funciones-de-variacion-acotada/}{\textcolor{blue}{\text{Variación acotada}}} \\ \hline
\underset{x \to x_0^+}{lim} f(x), \, \underset{x \to x_0^-}{lim} f(x) & \text{Límites por la derecha y por la izquierda} & \href{https://blog.nekomath.com/funciones-de-variacion-acotada-parte-2/}{\textcolor{blue}{\text{Variación acotada 2}}} \\ \hline
S(P, f, \alpha) & \sum_{i=1}^{n} f(\xi_i)(\alpha(x_i) – \alpha(x_{i-1})) & \href{https://blog.nekomath.com/propiedades-de-la-integral-de-riemann-stieltjes-parte-1/}{\textcolor{blue}{\text{Integral R-S 1}}} \\ \hline
\int_a^b f d\alpha := \int_a^b f(x) d\alpha(x) & \text{Integral de Riemann-Stieltjes} & \href{https://blog.nekomath.com/propiedades-de-la-integral-de-riemann-stieltjes-parte-1/}{\textcolor{blue}{\text{Integral R-S 1}}} \\ \hline
m_i, M_i & \inf \text{ y } \sup \text{ de } f \text{ en } [x_{i-1}, x_i] & \href{https://blog.nekomath.com/propiedades-de-la-integral-de-riemann-stieltjes-parte-2/}{\textcolor{blue}{\text{Integral R-S 2}}} \\ \hline
\underline{S}_P, \overline{S}_P & \text{Suma inferior y suma superior de R-S} & \href{https://blog.nekomath.com/propiedades-de-la-integral-de-riemann-stieltjes-parte-2/}{\textcolor{blue}{\text{Integral R-S 2}}} \\
\end{array}
$

Productos de espacios métricos

Por Lizbeth Fernández Villegas

Introducción

Hasta ahora hemos trabajado en espacios métricos de forma individual. Sin embargo, (como ya lo habrás notado), en el análisis matemático, muchas veces construímos estructuras más complejas a partir de otras más simples. Podemos hacer eso a través del producto cartesiano de conjuntos, así como lo hemos visto en $\mathbb{R}^2,$ que no es más que el producto de la recta real consigo misma. ¿Cómo podemos definir la cercanía en este nuevo espacio? En esta sección exploraremos cómo «heredar» las métricas de los espacios originales para dotar de estructura al producto de espacios métricos, y veremos que, sin importar qué camino elijamos para medir, la esencia de la convergencia y la compacidad se preserva.

Comencemos con la primera:

Definición. Producto métrico. Dados dos espacios métricos $(X, d_X)$ y $(Y,d_Y), $el producto cartesiano $X \times Y:= \{(x,y) \, | \, x \in X, y \in Y\}$ provisto de una distancia $d$ es llamado producto métrico. Es posible definir métricas de varias maneras, pero pediremos que una sucesión $(x_n,y_n)_{n \in \mathbb{N}} \,$ sea convergente en $X \times Y$ cuando $(x_n)_{n \in \mathbb{N}} \,$ es convergente en $X$ y $(y_n)_{n \in \mathbb{N}} \,$ es convergente en $Y.$

Presentamos algunas distancias para el producto:

Proposición. Las siguientes son métricas en $X \times Y$ y satisfacen que una sucesión $(x_n,y_n)_{n \in \mathbb{N}} \,$ es convergente en $X \times Y$ si y solo si $(x_n)_{n \in \mathbb{N}} \,$ es convergente en $X$ y $(y_n)_{n \in \mathbb{N}} \,$ es convergente en $Y.$

Sean $(x_1,y_1), \, (x_2,y_2) \in X \times Y.$

  1. $\displaystyle d_1((x_1,y_1),(x_2,y_2)):= d_X(x_1,x_2)+d_Y(y_1,y_2).$
  2. $\displaystyle d_2((x_1,y_1),(x_2,y_2)):=\sqrt{d_X(x_1,x_2)^2+d_Y(y_1,y_2)^2}.$
  3. $\displaystyle$ En general, para $p \in [1, \infty):$
    $d_p((x_1,y_1),(x_2,y_2)):=\left(d_X(x_1,x_2)^p+d_Y(y_1,y_2)^p\right)^{\frac{1}{p}}.$
  4. $\displaystyle d_{\infty}((x_1,y_1),(x_2,y_2)):= max \{ d_X(x_1,x_2),d_Y(y_1,y_2)\}.$

Demostración:
Veamos que $d_2$ es una métrica en $X \times Y.$

\begin{align*}
d_2((x_1,y_1),(x_2,y_2)) =0\\
\iff \sqrt{d_X(x_1,x_2)^2+d_Y(y_1,y_2)^2} =0 \\
\iff d_X(x_1,x_2) =0 \, \text{ y } \, d_Y(y_1,y_2) =0 \\
\iff x_1 = x_2 \, \text{ y } \, y_1 = y_2 \\
\iff (x_1,y_1)=(x_2,y_2).
\end{align*}

Es inmediato ver que $d_2((x_1,y_1),(x_2,y_2)) = d_2((x_2,y_2), (x_1,y_1)).$

Ahora probemos la desigualdad del triángulo:

Dados $(x_1,y_1), \, (x_2,y_2), \, (x_3,y_3) \in X \times Y,$ usamos la desigualdad de Minkowski en el penúltimo renglón para probar:

\begin{align*}
d_2((x_1,y_1),(x_3,y_3))=\sqrt{d_X(x_1,x_3)^2+d_Y(y_1,y_3)^2} \\
\leq \sqrt{(d_X(x_1,x_2)+d_X(x_2,x_3))^2+(d_Y(y_1,y_2)+d_Y(y_2,y_3))^2} \\
\leq \sqrt{d_X(x_1,x_2)^2+d_Y(y_1,y_2)^2}+\sqrt{d_X(x_2,x_3)^2+d_Y(y_2,y_3)^2} \\
=d_2((x_1,y_1),(x_2,y_2))+d_2((x_2,y_2),(x_3,y_3)).
\end{align*}

Ahora veamos que cualquier sucesión $(x_n,y_n)_{n \in \mathbb{N}} \,$ es convergente en $X \times Y$ si y solo si $(x_n)_{n \in \mathbb{N}} \,$ es convergente en $X$ y $(y_n)_{n \in \mathbb{N}} \,$ es convergente en $Y:$

Sea $(x_n,y_n)_{n \in \mathbb{N}} \,$ una sucesión en $(X \times Y,d_2).$ Si $(x_n,y_n)_{n \in \mathbb{N}} \to (x,y)$ en $(X \times Y,d_2)$ entonces para cada $\varepsilon>0$ existe $N \in \mathbb{N}$ tal que para cada $n \geq N, d_2((x_n,y_n),(x,y)) < \varepsilon.$ Entonces $\sqrt{d_X(x_n,x)^2+d_Y(y_n,y)^2} < \varepsilon,$ de modo que $\sqrt{d_X(x_n,x)^2} = d_X(x_n,x) < \varepsilon \, \text{ y } \, \sqrt{d_Y(y_n,y)^2} = d_Y(y_n,y)< \varepsilon.$
Por lo tanto $(x_n)_{n \in \mathbb{N}} \to x$ en $X$ y $(y_n)_{n \in \mathbb{N}} \to y$ en $Y.$

Para el regreso partimos de $(x_n)_{n \in \mathbb{N}} \to x$ en $X$ y $(y_n)_{n \in \mathbb{N}} \to y$ en $Y.$ Entonces dado $\varepsilon >0$ existe $N \in \mathbb{N}$ tal que para cada $n\geq N, d_X(x_n,x) < \frac{\varepsilon}{2} \, \text{ y } \, d_Y(y_n,y)< \frac{\varepsilon}{2}.$
Entonces $\sqrt{d_X(x_n,x)^2} < \frac{\varepsilon}{2} \, \text{ y } \, \sqrt{d_Y(y_n,y)^2}< \frac{\varepsilon}{2}.$
Entonces $\sqrt{d_X(x_n,x)^2+d_Y(y_n,y)^2} \leq \sqrt{d_X(x_n,x)^2}+ \sqrt{d_Y(y_n,y)^2} < \frac{\varepsilon}{2} + \frac{\varepsilon}{2} = \varepsilon.$ Así para cada $n \geq N, d_2((x_n,y_n),(x,y)) < \varepsilon.$ Por lo tanto $(x_n,y_n)_{n \in \mathbb{N}} \to (x,y)$ en $(X \times Y,d_2).$

Dejaremos como ejercicio probar que las demás distancias definidas también son métricas y que son equivalentes.
También es posible definir métricas en el producto finito de espacios métricos:

Proposición. Para cada $i=1,…,n$ sea $(X_i,d_i),$ un espacio métrico. Definimos
$$X := \prod_{i =1}^{n}X_i= X_1 \times X_2 \times… \times X_n = \{(x_1,x_2,…,x_n) \, | \, x_i \in X_i, i =1,…,n\}.$$

Sean $x= (x_1,x_2,…,x_n), y=(y_1,y_2,…,y_n) \in X.$ Las siguientes son métricas equivalentes en $X.$

  1. $d_1(x,y) := \sum_{i = 1}^{n} d_i(x_i,y_i).$
  2. $d_2(x,y) := \sqrt{\sum_{i = 1}^{n} d_i(x_i,y_i)^2 }.$
  3. $d_{\infty} (x,y):= max\{d_1(x_1,y_1),…,d_n(x_n,y_n)\}.$

Demostración: Queda como ejercicio al lector.

Teorema de Tychonoff para productos finitos. Sea $(X_i,d_i),$ $i=1,…,n. \,$ un espacio métrico compacto. Entonces $\left( \prod_{i =1}^{n}X_i, d_{\infty} \right)$ es compacto.

Nota: Esta argumentación es válida para cualquier otra métrica aquí definida en el producto de espacios, pues son equivalentes a $d_{\infty}.$

Demostración:
Sea $X = \prod_{i =1}^{n}X_i\, $ y $\, (x_{k_1}, x_{k_2},x_{k_3},…,x_{k_n})_{k \in \mathbb{N}}$ una sucesión en $(X, d_{\infty}).$ Para probar la compacidad vamos a mostrar que tiene una subsucesión convergente en $(X,d_{\infty}).$

Vamos a hacer sucesiones con los términos de los elementos de la sucesión. Para mostrar esto, enlistamos los primeros términos de la sucesión, que son elementos en $\left( \prod_{i =1}^{n}X_i \right),$ como sigue:

\begin{align*}
(\textcolor{magenta}{x_{1_1}}, x_{1_2},x_{1_3},…,x_{1_n})\\
(\textcolor{magenta}{x_{2_1}}, x_{2_2},x_{2_3},…,x_{2_n})\\
(\textcolor{magenta}{x_{3_1}}, x_{3_2},x_{3_3},…,x_{3_n})\\
\bullet \\
\bullet \\
\bullet \\
\end{align*}

Los elementos de $X_1,$ señalados en rosa forman una sucesión: $\textcolor{magenta}{(x_{k_1})_{k \in \mathbb{N}}}\,$ en $X_1,$ que es compacto, entonces tiene una subsucesión tal que $\textcolor{magenta}{(x_{\alpha_1(k)_1})_{k \in \mathbb{N}}} \to \hat{x_1},$ para algún $\hat{x_1} \in X_1.$

Tomemos ahora los elementos correspondientes a los términos de esta subsucesión pero esta vez seleccionando a los de la segunda posición.

Nota: La siguiente lista es solo una representación de cómo la subsucesión selecciona algunos elementos, los indicados en rosa. Formamos una sucesión con los representados en azul.
\begin{align*}
(\textcolor{magenta}{x_{1_1}}, \textcolor{RoyalBlue}{x_{1_2}},\textcolor{gray}{x_{1_3},…,x_{1_n}})\\
(\textcolor{gray}{x_{2_1}, x_{2_2},x_{2_3},…,x_{2_n}})\\
(\textcolor{gray}{x_{3_1}, x_{3_2},x_{3_3},…,x_{3_n}})\\
(\textcolor{magenta}{x_{4_1}}, \textcolor{RoyalBlue}{x_{4_2}},\textcolor{gray}{x_{4_3},…,x_{4_n}})\\
(\textcolor{magenta}{x_{5_1}}, \textcolor{RoyalBlue}{x_{5_2}},\textcolor{gray}{x_{5_3},…,x_{5_n}})\\
(\textcolor{gray}{x_{6_1}, x_{6_2},x_{6_3},…,x_{6_n}})\\
(\textcolor{magenta}{x_{7_1}}, \textcolor{RoyalBlue}{x_{7_2}},\textcolor{gray}{x_{7_3},…,x_{7_n}})\\
\bullet \\
\bullet \\
\bullet \\
\end{align*}

La sucesión de elementos en $X_2$ dada por $\textcolor{RoyalBlue}{(x_{\alpha_1(k)_2})_{k \in \mathbb{N}}}$ tiene una subsucesión convergente en $X_2$, pues es compacto, digamos $\textcolor{RoyalBlue}{(x_{\alpha_2(\alpha_1(k))_2})_{k \in \mathbb{N}}} \to \hat{x_2},$ para algún $\hat{x_2} \in X_2.$ Nota que $\alpha_2(\alpha_1)$ indica una subsucesión de $\textcolor{magenta}{(x_{\alpha_1(k)_1})_{k \in \mathbb{N}}}$ y como $\textcolor{magenta}{(x_{\alpha_1(k)_1})_{k \in \mathbb{N}}} \to \hat{x_1},$ entonces también $\textcolor{magenta}{(x_{\alpha_2(\alpha_1(k))_1})_{k \in \mathbb{N}}} \to \hat{x_1}.$

Procedemos análogamente con las terceras entradas de cada término de la sucesión, tomando los correspondientes a los elementos en azul que representan la subsucesión que converge.

\begin{align*}
(\textcolor{gray}{x_{1_1}, x_{1_2},x_{1_3},…,x_{1_n}})\\
(\textcolor{gray}{x_{2_1}, x_{2_2},x_{2_3},…,x_{2_n}})\\
(\textcolor{gray}{x_{3_1}, x_{3_2},x_{3_3},…,x_{3_n}})\\
(\textcolor{magenta}{x_{4_1}}, \textcolor{RoyalBlue}{x_{4_2}},\textcolor{ForestGreen}{x_{4_3}}\textcolor{gray}{,…,x_{4_n}})\\
(\textcolor{gray}{x_{5_1}, x_{5_2},x_{5_3},…,x_{5_n}})\\
(\textcolor{gray}{x_{6_1}, x_{6_2},x_{6_3},…,x_{6_n}})\\
(\textcolor{magenta}{x_{7_1}}, \textcolor{RoyalBlue}{x_{7_2}},\textcolor{ForestGreen}{x_{7_3}}\textcolor{gray}{,…,x_{7_n}})\\
\bullet \\
\bullet \\
\bullet \\
\end{align*}

Los elementos verdes son la sucesión $\textcolor{ForestGreen}{(x_{\alpha_2(\alpha_1(k))_3})_{k \in \mathbb{N}}}$ en $X_3$ que es compacto. Entonces tiene una subsucesión convergente, digamos $\textcolor{ForestGreen}{(x_{\alpha_3(\alpha_2(\alpha_1(k)))_3})_{k \in \mathbb{N}}} \to \hat{x_3},$ para algún $\hat{x_3} \in X_3.$ Nota que los subíndices dados por $\alpha_3 \circ \alpha_2 \circ \alpha_1$ indican subsucesiones de las sucesiones en $X_1$ y $X_2$ que convergen respectivamente a $\hat{x_1}$ y $\hat{x_2}.$

Continuando hasta $n$ generaremos una función creciente $\alpha = \alpha_n \circ \alpha_{n-1} \circ… \circ \alpha_2 \circ \alpha_1, \,$

Por construcción, para cada coordenada $i \in {1, \dots, n}$, la sucesión de componentes $(x_{\alpha(k)i})_{k \in \mathbb{N}}$ es una subsucesión de una sucesión que ya convergía a $\hat{x}_i$. Por lo tanto para cada $i \in \{1, \dots, n\},$ $$ (x_{\alpha(k)i})_{k \in \mathbb{N}} \to \hat{x}_i \quad \text{en } X_i $$

Dado que la convergencia en $(X, d_{\infty})$ es equivalente a la convergencia componente a componente se sigue que la subsucesión $\, (x_{\alpha(k)_1}, x_{\alpha(k)_2},x_{\alpha(k)_3},…,x_{\alpha(k)_n})_{k \in \mathbb{N}}$ converge a $(\hat{x_1}, \hat{x_2},…, \hat{x_n}) \in X.$ Por lo tanto la sucesión $\, (x_{k_1}, x_{k_2},x_{k_3},…,x_{k_n})_{k \in \mathbb{N}},$ tomada arbitrariamente en $(X, d_{\infty})$ tiene una subsucesión convergente, en consecuencia, $X$ es compacto.

El regreso también es válido. Para verlo haremos proyecciones, primero probemos la siguiente:

Proposición. Para cada $i=1,…,n$ sea $(X_i,d_i),$ un espacio métrico. Entonces para cada $k=1,…,n$ la función proyección $\pi_k: \left( \prod_{i =1}^{n}X_i \right) \to X_k$ dada por

$$\pi_k(x)= \pi_k(x_1,x_2,…,x_n):= x_k$$

es una función continua.

Demostración:
Lo haremos a través de la distancia $d_{\infty}.$ Sea $x = (x_1,x_2,…,x_n) \in \prod_{i =1}^{n}X_i \,$ y $ \, \varepsilon >0.$ Entonces si $\delta = \varepsilon \,$ y $\, y = (y_1,y_2,…,y_n) \in \prod_{i =1}^{n}X_i$ es tal que $d_{\infty}(x,y) =max\{d_1(x_1,y_1),…,d_n(x_n,y_n) \}< \delta,$ en particular $d_k(\pi_k(x), \pi_k(y)) =d_k(x_k,y_k) < \delta = \varepsilon.$ Por lo tanto $\pi_k$ es continua en $\prod_{i =1}^{n}X_i.$

Con esto el regreso del teorema de Tychonoff es inmediato: Si $\left( \prod_{i =1}^{n}X_i, d_{\infty} \right)$ es compacto, entonces, por la proposición anterior, para cada $k \in \{1,…,n\}$ se tiene que $\pi\left( \prod_{i =1}^{n}X_i \right) = X_k$ es compacto, que es lo que queríamos probar.

Antes de terminar esta sección, veamos dos resultados más:

Proposición. Sean $(X,d_X)$ y $(Y,d_Y)$ espacios métricos. Entonces el producto $(X \times Y,d_{\infty})$ es completo si y solo si tanto $(X,d_X)$ como $(Y,d_Y)$ son completos.

Demostración:
Primero supongamos que $(X \times Y,d_{\infty})$ es completo. Probemos que $(X,d_X)$ es completo. Sea $(x_n)_{n \in \mathbb{N}} \,$ una sucesión de Cauchy en $X.$ Sea $y \in Y$ (fijo). Entonces la sucesión $(x_n,y)_{n \in \mathbb{N}} \,$ es de Cauchy en $(X \times Y,d_{\infty})$, pues dada $\varepsilon >0$ existe $N \in \mathbb{N}$ tal que para cualesquiera $n,m \geq N,$ se cumple que $d_X(x_n,x_m) <\varepsilon,$ entonces
$$d_{\infty}((x_n,y),(x_m,y)) = max \{d_X(x_n,x_m),d_Y(y,y)\} = d_X(x_n,x_m) <\varepsilon.$$

En consecuencia $(x_n,y)_{n \in \mathbb{N}} \to (x^*,y^*)$ para algún $(x^*,y^*) \in X \times Y,$ (pues estamos suponiendo que el producto es completo). Por lo tanto $(x_n) \to x^*$ lo que prueba que $(X,d_X)$ es completo. La prueba para probar que $(Y,d_Y)$ es completo es análoga.

Ahora supongamos que tanto $(X,d_X)$ como $(Y,d_Y)$ son completos. Sea $(x_n,y_n)_{n \in \mathbb{N}} \,$ una sucesión de Cauchy en $(X \times Y,d_{\infty}).$ Entonces dada $\varepsilon > 0$ existe $N \in \mathbb{N}$ tal que para cualesquiera $n,m \geq N,$ se cumple que $d_{\infty}((x_n,y_n),(x_m,y_m))= max \{d_X(x_n,x_m),d_Y(y_n,y_m)\} <\varepsilon.$ De modo que existe $N \in \mathbb{N}$ tal que para cualesquiera $n,m \geq N,$ se cumple que

$$d_X(x_n,x_m) <\varepsilon \, \text{ y } \, d_Y(y_n,y_m) <\varepsilon$$

lo cual implica que $(x_n)$ y $(y_n)$ son de Cauchy en $X$ y $Y$ respectivamente, que son completos, por lo tanto existen $x^* \in X$ y $y^* \in Y$ tales que $(x_n) \to x^*$ y $(y_n) \to y^*.$ En consecuencia $(x_n,y_n)_{n \in \mathbb{N}} \to (x^*, y^*)$ por lo que concluimos que $(X \times Y,d_{\infty})$ es completo.

Proposición. El espacio producto $(X \times Y, d_{\infty})$ es totalmente acotado si y solo si tanto $(X, d_X)$ como $(Y, d_Y)$ son espacios totalmente acotados.

Demostración:
Supongamos que $(X \times Y, d_{\infty})$ es totalmente acotado. Dado $\varepsilon > 0$, existe un conjunto finito de puntos ${(x_1, y_1), \dots, (x_n, y_n)} \subset X \times Y$ tal que:
$$X \times Y = \bigcup_{i=1}^{n} B_{\infty}((x_i, y_i), \varepsilon). $$
Nota que se cumple la igualdad $B_{\infty}((x_i, y_i), \varepsilon) = B_{X}(x_i, \varepsilon) \times B_{Y}(y_i, \varepsilon).$ En consecuencia el conjunto finito $\{x_1, \dots, x_n\}$ es una $\varepsilon-red$ para $X,$ mientras que $\{y_1, \dots, y_n\}$ es una $\varepsilon-red$ para $Y$. Por lo tanto, tanto $X$ como $Y$ son totalmente acotados.

Ahora supongamos que $X$ y $Y$ son totalmente acotados. Dado $\varepsilon > 0$, existen conjuntos finitos de puntos $A = \{x_1, \dots, x_n\} \subset X$ y $B = \{y_1, \dots, y_m\} \subset Y$ tales que:
$$ X = \bigcup_{i=1}^{n} B_{X}(x_i, \varepsilon) \quad \text{y} \quad Y = \bigcup_{j=1}^{m} B_{Y}(y_j, \varepsilon). $$
Consideremos el conjunto producto $A \times B = \{(x_i, y_j) \, | \, 1 \leq i \leq n, 1 \leq j \leq m\}$, el cual es un conjunto finito de $n \times m$ puntos en $X \times Y$.

Sea $(x, y) \in X \times Y$. Entonces existe algún $x_i \in A$ tal que $d_X(x, x_i) < \varepsilon$ y existe algún $y_j \in B$ tal que $d_Y(y, y_j) < \varepsilon$. En consecuencia
$$ d_{\infty}((x, y), (x_i, y_j)) = max\{d_X(x, x_i), d_Y(y, y_j)\} < \varepsilon.$$
Esto implica que $(x, y) \in B_{\infty}((x_i, y_j), \varepsilon)$. Por lo tanto, $A \times B$ es una $\varepsilon-red$ finita para $X \times Y$, concluyendo que el producto es totalmente acotado.

Las últimas dos proposiciones también son válidas para el producto finito de espacios métricos. La prueba de esta afirmación es análoga a las ya presentadas y se dejará como ejercicio. Teniendo presente esto y el hecho de que un espacio es compacto si y solo si es completo y totalmente acotado (visto en Conjuntos relativamente compactos y totalmente acotados), es posible dar una prueba más directa al teorema de Tychonoff para productos finitos.

Más adelante…

El análisis matemático no se detiene en la abstracción del producto de espacios. El siguiente paso es preguntarnos cómo podemos aproximar funciones complejas mediante estructuras más sencillas y manejables. En la siguiente sección exploraremos los Polinomios de Bernstein, una herramienta que nos permitirá demostrar el teorema de aproximación de Weierstrass y entender cómo la combinatoria y el análisis se unen para modelar la realidad.

Tarea moral

  1. Demuestra que las funciones definidas son métricas y que son equivalentes.
  2. Prueba que $\left( \prod_{i =1}^{n}X_i, d_{\infty} \right)$ es completo si y solo si $(X_i,d_i),$ $i=1,…,n. \,$ es completo.
  3. Prueba que $\left( \prod_{i =1}^{n}X_i, d_{\infty} \right)$ es totalmente acotado si y solo si $(X_i,d_i),$ $i=1,…,n. \,$ es totalmente acotado.
  4. Demuestra a partir de los dos resultados anteriores que $\left( \prod_{i =1}^{n}X_i, d_{\infty} \right)$ es compacto si y solo si $(X_i,d_i),$ $i=1,…,n. \,$ es compacto.

Bibliografía

  1. Carothers, N.L., Real Analysis. New York: Cambridge University Press, 2000. Págs: 124 y 125. Pag 48.
  2. Clapp, M., Análisis Matemático. Ciudad de México: Editorial Papirhos, IM-UNAM, 2013. Pags: 28, 91, y 141.
  3. Antonyan, S., Curso de Topología. Ciudad de México: Facultad de Ciencias UNAM. Págs: 36, 37, 88 y 134.
  4. Wawrzyñczyk, A. Notas de curso especial: Espacios Métricos. Departamento de Matemáticas, UAM Iztapalapa. 2014 Pág 91.

Enlaces

Desigualdades: Young, Hölder, Minkowski y Chauchy-Schwarz

Por Lizbeth Fernández Villegas

Introducción

En la entrada anterior mencionamos que cuando un espacio vectorial tiene una norma, esta a su vez induce una métrica. Al final de esa sección enunciamos algunos ejemplos de espacios normados, ahora procederemos a probar que, en efecto, las definiciones dadas cumplen con la desigualdad del triángulo. Esto se hará a través de las desigualdades de Young, Hölder, Minkowski y Cauchy-Schwarz, cuyas demostraciones, por medio de razonamientos algebraicos, pueden consultarse en diversas fuentes (presentamos algunas al final). Si bien, el álgebra nos da la certeza de la prueba, la geometría nos regala la intuición del por qué ocurre así. Esto nos lleva a motivar la argumentación a modo de dibujos «en bonito» para lo que dedicaremos las siguientes líneas.

La desigualdad de Young

Proposición. Desigualdad de Young. Sean $p,q \in (1, \infty)$ tales que $\frac{1}{p} + \frac{1}{q} =1.$ Entonces para cualesquiera $a,b \in \mathbb{R}$ tales que $a,b \geq 0$ se cumple que

$$ab \leq \frac{1}{p}a^p + \frac{1}{q}b^q.$$

Demostración: Lo veremos geométricamente a través de integrales. Una prueba más breve puede consultarse en el libro Clapp, M., Análisis Matemático. Ciudad de México: Editorial Papirhos, IM-UNAM, 2013. Pág, 12.

Siendo $a,b \geq 0,$ considera el rectángulo de base $a$ y altura $b$ posicionado en el primer cuadrante, como muestra la figura.

Ahora considera una función continua y creciente $f: [0, \infty) \to \mathbb{R}$ tal que $f(0) = 0$ y con $[0,b]$ contenido en la imagen de $f.$ Nota que $f$ es una función inyectiva en $[0, \infty]$ y tiene inversa, cuando menos en los siguientes casos:

Caso 1: Cuando $f(a) = b.$

La función restringida $f_{[0,a]}: [0,a] \to [0,b]$ es biyectiva. El área del rectángulo es $ab$ y esto es igual al área bajo la curva de $f$ en $[a,b]$ más el área bajo la curva de la función inversa $f^{-1}$ (que es el área entre la curva y el eje vertical).

$ \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \,$ es igual al área del rectángulo.

Caso 2: Cuando $f(a) < b.$

La función restringida $f_{[0,f^{-1}(b)]}: [0,f^{-1}(b)] \to [0,b]$ es biyectiva. En este caso, el área del rectángulo queda contenida en el área bajo la curva en el intervalo $[0,a]$ (en el eje horizontal) y el área entre la curva y el intervalo $[0,b]$ en el eje vertical.

$ \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \,$ tiene un «pedazo» de área extra al rectángulo.

Caso 3: Cuando $f(a) >b.$

La función restringida $f_{[0,a]}: [0,a] \to [0,f(a)]$ es biyectiva. Podemos observar un «excedente» al rectángulo arriba del mismo.

El área entre la curva y los ejes en $[0,a]$ (horizontal) y $[0,b]$ (vertical) tiene un «pedazo» extra al rectángulo.

de modo que en cualquier caso

$$ab \leq \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx$$

Apliquemos esto considerando la función $f(x)= x^{p-1},$ que es creciente. Nota que $f(0)=0$ y que $f^{-1}(x)=x ^{\frac{1}{p-1}}.$ Dado que $\frac{1}{p} + \frac{1}{q} =1,$ se puede ver que $\frac{1}{p -1}=q-1.$ En consecuencia

\begin{align*}
ab &\leq \int_{0}^{a} f(x) dx+ \int_{0}^{b} f^{-1}(x) dx \\
& = \int_{0}^{a} x^{p-1} dx+ \int_{0}^{b}x ^{\frac{1}{p-1}} dx \\
& = \int_{0}^{a} x^{p-1} dx+ \int_{0}^{b}x ^{q-1} dx \\
& = \frac{a^p}{p} + \frac{b^q}{q}
\end{align*}

por lo tanto

$$ab \leq \frac{1}{p}a^p + \frac{1}{q}b^q$$

que es lo que queríamos probar. Esta desigualdad será aplicada en las siguientes demostraciones.

La función $\norm{\cdot}_p: \mathbb{R}^n \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Hölder en $\mathbb{R}^n$. Sean $p,q \in (1, \infty)$ tales que $\frac{1}{p}+\frac{1}{q}=1.$ Entonces para cualesquiera $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n,$ si $xy:= (x_1 y_1,…,x_n y_n),$ se cumple que

\begin{align*}
\norm{xy}_1 &\leq \norm{x \vphantom{y}}_p \norm{y}_q \\
\sum_{i=1}^{n}|x_i y_i| & \leq \left(\sum_{i=1}^{n}|x_i|^p \right)^\frac{1}{p} \left(\sum_{i=1}^{n}|y_i|^q \right)^\frac{1}{q}.
\end{align*}

Demostración: Si algunos de los vectores es cero, la desigualdad es inmediata, entonces supongamos que ambos son distintos de cero. Nota que si la desigualdad se cumple para $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n,$ entonces, si $\lambda, \mu \in \mathbb{R},$ la desigualdad también se cumple para $\lambda x = (\lambda x_1,…, \lambda x_n)$ y para $\mu y= (\mu y_1,…, \mu y_n).$ Siendo así, basta con probar la desigualdad para vectores de norma uno (en sus respectivos espacios, inducidos por la norma p o la norma q), es decir cuando

\begin{align*}
&& \norm{x \vphantom{y}}_p &= \norm{y}_q &=1 \\
\\
&\iff& \left( \sum_{i=1}^{n}|x_i|^p \right) ^\frac{1}{p} &= \left(\sum_{i=1}^{n}|y_i|^q \right) ^\frac{1}{q} &=1 \\
&\iff& \sum_{i=1}^{n}|x_i|^p &= \sum_{i=1}^{n}|y_i|^q &=1.
\end{align*}

Asumiendo esto, apliquemos la desigualdad de Young a los términos $|x_i|, \, |y_i|,$ $i = 1,…,n,$ de modo que

\begin{align*}
&& |x_i||y_i|&\leq \frac{|x_i|^p}{p} + \frac{|y_i|^q}{q} \\
&\Rightarrow& \sum_{i=1}^{n}|x_i||y_i|&\leq \sum_{i=1}^{n} \frac{|x_i|^p}{p} + \sum_{i=1}^{n} \frac{|y_i|^q}{q} \\
&\Rightarrow& \sum_{i=1}^{n}|x_i||y_i|&\leq \frac{1}{p}\sum_{i=1}^{n}|x_i|^p + \frac{1}{q}\sum_{i=1}^{n}|y_i|^q \\
&& &=\frac{1}{p} + \frac{1}{q} \\
&& &=1 \\
&& &=\norm{x \vphantom{y}}_p \norm{y}_q .
\end{align*}

Por lo tanto $\norm{xy}_1 \leq \norm{x \vphantom{y}}_p \norm{y}_q.$

Podemos pensar en la desigualdad de Hölder como un control sobre el producto término a término, de dos vectores, pues la suma no excede el producto del «tamaño» de cada vector en su respectiva norma. Cuando $2=p=q, \,$ la «balanza de los exponentes» es simétrica y tenemos la desigualdad de Cauchy-Schwarz. En este caso estaremos en el espacio métrico euclidiano. Veamos el resultado a través de la «sombra» de un vector, que nunca será más larga que el vector en cuestión.

Proposición. Desigualdad de Cauchy Schwarz. Sean $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n.$ Se cumple que

$$\left( \sum_{i=1}^{n}x_i y_i \right) ^2 \leq \left( \sum_{i=1}^{n}x_i^2 \right) \left( \sum_{i=1}^{n}y_i^2 \right)$$

y la igualdad se verifica si y solo si los vectores están en la misma línea, esto es, si uno es producto escalar de otro.

Demostración: Se sigue de la desigualdad de Hölder, que acabamos de probar, y de la desigualdad del triángulo que:

$$\left( \sum_{i=1}^{n}x_i y_i \right) ^2 = \left| \sum_{i=1}^{n}x_i y_i \right| ^2 \leq \left( \sum_{i=1}^{n}\left| x_i y_i \right| \right) ^2 \leq \left( \left( \sum_{i=1}^{n}|x_i|^2 \right)^{\frac{1}{2}}\left( \sum_{i=1}^{n}|y_i|^2 \right)^{\frac{1}{2}} \right) ^2 \leq \left( \sum_{i=1}^{n}x_i^2 \right) \left( \sum_{i=1}^{n}y_i^2 \right).$$

Queda como ejercicio probar que la igualdad se da si y solo si los vectores están en la misma línea.

Nota que si consideramos el producto punto euclidiano definido como $x \cdot y:= \sum_{i=1}^{n}x_i y_i$

la desigualdad de Cauchy-Schwarz es equivalente a

$$x \cdot y \leq \norm{x \vphantom{y}}_2\norm{y}_2$$

Pero veamos una interpretación geométrica:

Considera $x=(x_1, x_2), \, y = (y_1, y_2) \in \mathbb{R}^2.$

Representación de dos vectores $x$ y $y$ en $\mathbb{R}^2$ y el ángulo entre ellos.

En las notas de Neumann, M., Geometría Analítica. Producto interno. Facultad de Ciencias UNAM. 2021 se puede ver que el producto punto euclidiano
satisface
$x \cdot y = cos \theta \norm{x \vphantom{y}}_2 \norm{y}_2 $

donde $\theta$ es en ángulo entre los vectores $x$ y $y.$

Las propiedades trigonométricas nos dicen que si proyectamos el vector $x$ en el vector $y,$ el valor de $cos \theta \norm{\vphantom{y}x}_2$ coincide con la norma del vector que genera la «sombra» de la proyección. Nota que el «tamaño» de esa sombra es menor igual que el tamaño del vector proyectado (la norma de $x$), por lo tanto se verifica que:

\begin{align*}
x \cdot y &= \textcolor{magenta}{cos \theta\norm{x \vphantom{y}}_2 } \norm{y}_2 \\
&=\textcolor{magenta}{\norm{\text{sombra}}_2} \norm{y}_2 \\
&\leq \textcolor{magenta}{\norm{\vphantom{y}x}_2} \norm{y}_2 .
\end{align*}

Representación de la proyección de $x$ sobre $y.$

A continuación vamos a comprobar que la norma p satisface la desigualdad del triángulo. Es lo que se conoce como:

Proposición. Desigualdad de Minkowski en $\mathbb{R}^n.$ Sean $x=(x_1,…,x_n), \, y=(y_1,…,y_n) \in \mathbb{R}^n$ y $p \in [1,\infty]$ Se cumple que

\begin{align*}
\norm{x+y}_p &\leq \norm{x \vphantom{y}}_p+\norm{y}_p\\
\\
\left( \sum_{i=1}^n|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \left(\sum_{i=1}^n|x_i|^p \right)^{\frac{1}{p}} +\left(\sum_{i=1}^n|y_i|^p \right)^{\frac{1}{p}}.
\end{align*}

Demostración:
Si $p=1$ la desigualdad es inmediata. Considera $p>1.$ Para cada $i=1,…,n$ tenemos que

\begin{align*}
(|x_i|+|y_i|)^{p} &= (|x_i|+|y_i|)(|x_i|+|y_i|)^{p-1}\\
&= \textcolor{magenta}{|x_i|(|x_i|+|y_i|)^{p-1}}+\textcolor{RoyalBlue}{|y_i|(|x_i|+|y_i|)^{p-1}}
\end{align*}

Ahora sumemos los términos para obtener

\begin{align*}
\sum_{i=1}^{n}(|x_i|+|y_i|)^{p} = \textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}}+ \textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}.
\end{align*}

Sea $\textcolor{RedOrange}{q:= \frac{p}{p-1}}.$ Nota que $\frac{1}{p}+\frac{1}{q}= \frac{1}{p}+\frac{p-1}{p}=\frac{p}{p}=1.$ Apliquemos la desigualdad de Hölder a lo siguiente

\begin{align*}
\textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}} &\leq \left(\sum_{i=1}^n|x_i|^p \right)^{\frac{1}{p}} \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{q} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{q} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n|(|x_i|+|y_i|)^{p-1}|^\textcolor{RedOrange}{\frac{p}{p-1}} \right)^{\frac{1}{q}} \\
& \leq \norm{x \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Análogamente, podemos probar que
\begin{align*}
\textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}
& \leq \norm{y \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Sustituyendo tenemos

\begin{align*}
\sum_{i=1}^{n}(|x_i|+|y_i|)^{p} &= \textcolor{magenta}{\sum_{i=1}^{n}|x_i|(|x_i|+|y_i|)^{p-1}}+ \textcolor{RoyalBlue}{\sum_{i=1}^{n}|y_i|(|x_i|+|y_i|)^{p-1}}\\
&\leq \textcolor{magenta}{\norm{x \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}} + \textcolor{RoyalBlue}{ \norm{y \vphantom{y}}_p \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}} \\
&= (\norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p) \left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.
\end{align*}

Dividamos ambos lados de la desigualdad entre $\left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{q}}.$ Esto nos lleva a usar las leyes de los exponentes del lado izquierdo. Al calcular $1-\frac{1}{q}= \frac{1}{p}$ se sigue:

\begin{align*}
\left(\sum_{i=1}^n(|x_i|+|y_i|)^{p} \right)^{\frac{1}{p}}
&\leq \norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p .
\end{align*}

Finalmente aplicamos la desigualdad del triángulo en números reales en la parte señalada para obtener

\begin{align*}
\norm{x+y}_p &=\left(\sum_{i=1}^n\textcolor{RedOrange}{|x_i+y_i|}^{p} \right)^{\frac{1}{p}}\\
&\leq \left(\sum_{i=1}^n\textcolor{RedOrange}{(|x_i|+|y_i|)}^{p} \right)^{\frac{1}{p}} \\
&\leq \norm{x \vphantom{y}}_p+\norm{y \vphantom{y}}_p .
\end{align*}

que es lo que queríamos probar.

Aplicaremos este resultado para probar la desigualdad del triángulo en espacios de sucesiones $\ell_p$ con la norma definida en Espacios normados:

La función $\norm{\cdot}_{p}: \ell_{p} \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Minkowski para series. Sea $p \in [1, \infty)$ y sean $(x_n)_{n \in \mathbb{N}}, \, (y_n)_{n \in \mathbb{N}} \in \ell_p.$ Se cumple que

\begin{align*}
\norm{(x_n)+(y_n)}_p &\leq \norm{(x_n) \vphantom{y}}_p+\norm{(y_n)}_p\\
\\
\left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}} +\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}.
\end{align*}

Demostración:
De acuerdo con el criterio de acotación para series de números reales (lo puedes repasar en Cálculo Diferencial e Integral II: Criterio de la divergencia y de acotación), para ver que la serie $\left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}}$ converge basta probar que su sucesión de sumas parciales está acotada. Como las series $(x_n), \in (y_n) \in \ell_p$ podemos hablar del valor de su norma, donde:

\begin{align*}
\textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} &= \textcolor{magenta}{\left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}}} \\
\text{y } \,
\textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p} &= \textcolor{RoyalBlue}{\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}}.
\end{align*}

Si sumamos los primeros $N$ elementos, por la desigualdad que acabamos de probar se sigue que

\begin{align*}
\left( \sum_{i=1}^N|x_i+y_i|^p \right)^{\frac{1}{p}} & \leq \textcolor{magenta}{\left(\sum_{i=1}^N|x_i|^p \right)^{\frac{1}{p}}} + \textcolor{RoyalBlue}{\left(\sum_{i=1}^N|y_i|^p \right)^{\frac{1}{p}}}\\
&\leq \textcolor{magenta}{\left(\sum_{i=1}^{\infty}|x_i|^p \right)^{\frac{1}{p}}} + \textcolor{RoyalBlue}{\left(\sum_{i=1}^{\infty}|y_i|^p \right)^{\frac{1}{p}}}\\
&= \textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} + \textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p}.
\end{align*}

Como $N$ es cualquier número natural, concluimos que la sucesión de sumas parciales está acotada por $\textcolor{magenta}{\norm{(x_n) \vphantom{y}}_p} + \textcolor{RoyalBlue}{ \, \norm{(y_n) \vphantom{y}}_p} \,$ entonces la serie converge y

$$\norm{(x_n+y_n) \vphantom{y}}_p = \left( \sum_{i=1}^{\infty}|x_i+y_i|^p \right)^{\frac{1}{p}} \leq \norm{(x_n) \vphantom{y}}_p + \, \norm{(y_n) \vphantom{y}}_p$$

que es lo que queríamos probar.

Ahora conozcamos la versión continua de estas desigualdades, esto es, para espacios donde la norma se define a partir de una integral.

La función $\norm{\cdot \vphantom{b}}_{p}: \mathcal{C}^0[a,b] \to \mathbb{R}$ satisface la desigualdad del triángulo.

Proposición. Desigualdad de Hölder para integrales. Sean $f,g \in \mathcal{C}^0[a,b]$ y $p,q \in (1, \infty)$ tales que $\frac{1}{p} + \frac{1}{q}=1.$ Se cumple que

\begin{align*}
\int_{a}^{b} |f(x)g(x)| \,dx &\leq \left(\int_{a}^{b} |f(x)|^p \,dx \right)^{1/p} \left(\int_{a}^{b} |g(x)|^q \,dx \right)^{1/q} \\
\norm{fg}_1 &\leq \norm{f}_p \norm{g}_q.
\end{align*}

Demostración:
La desigualdad es inmediata si $f=0 \,$ o $\, g=0$ entonces supongamos que tanto $f$ como $g$ son distintas de cero. Es sencillo probar que $\norm{f}_p \neq 0$ y $\norm{g}_p \neq 0.$

Sea $x \in [a,b].$ Apliquemos la desigualdad de Young, vista arriba, a los números:

\begin{align*}
\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}} \,\text{ y } \, \textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}}
\end{align*}

tenemos que

\begin{align*}
\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}} \, \textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}} &\leq \frac{1}{p}\left(\textcolor{magenta}{\frac{|f(x)|}{\norm{f}_p}}\right)^p +\frac{1}{q}\left(\textcolor{RoyalBlue}{\frac{|g(x)|}{\norm{g}_q}}\right)^q \\

\Rightarrow \frac{|\textcolor{magenta}{f(x)}\textcolor{RoyalBlue}{g(x)}|}{\textcolor{magenta}{\norm{f}_p} \textcolor{RoyalBlue}{\norm{g}_q}} &\leq \frac{|f(x)|^p}{p\norm{f}_p^p} + \frac{|g(x)|^q}{q\norm{g}_q^q} \\

\Rightarrow \int_{a}^{b} \frac{|f(x)g(x)|}{\norm{f}_p \norm{g}_q} dx &\leq \int_{a}^{b}\frac{|f(x)|^p}{p\norm{f}_p^p} + \frac{|g(x)|^q}{q\norm{g}_q^q} dx \\
\end{align*}

De lo anterior se sigue:

\begin{align*}
\Rightarrow \frac{1}{\norm{f}_p \norm{g}_q} \int_{a}^{b} |f(x)g(x)| dx &\leq \frac{1}{p\norm{f}_p^p}\textcolor{magenta}{\int_{a}^{b}|f(x)|^p dx} + \frac{1}{q\norm{g}_q^q} \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|^q dx} \\

&= \frac{1}{p\norm{f}_p^p}\textcolor{magenta}{\norm{f}_p^p} + \frac{1}{q\norm{g}_q^q} \textcolor{RoyalBlue}{\norm{g}_q^q} \\
&= \frac{1}{p}+\frac{1}{q}\\
&=1.
\end{align*}

Al multiplicar ambos lados por $\norm{f}_p \norm{g}_q$ se verifica

\begin{align*}
\Rightarrow \int_{a}^{b} |f(x)g(x)| dx &\leq \norm{f}_p \norm{g}_q
\end{align*}

que es lo que queríamos demostrar, pues
$$\int_{a}^{b} |f(x)g(x)| \,dx =
\norm{fg}_1$$
$$ \text{y }\, \left(\int_{a}^{b} |f(x)|^p \,dx \right)^{1/p} \left(\int_{a}^{b} |g(x)|^q \,dx \right)^{1/q} = \norm{f}_p \norm{g}_q$$

Proposición. Desigualdad de Minkowski para integrales. Sean $f,g \in \mathcal{C}^0[a,b]$ y $p \in [1, \infty].$ Entonces se verifica la desigualdad del triángulo en $\norm{\cdot}_p,$ es decir

\begin{align*}
\norm{f+g}_p \leq \norm{f}_p + \norm{g}_p.
\end{align*}

Ver definición de $\norm{\cdot}_p$ en entrada Espacios normados – El blog de Leo.

Demostración:
Comencemos con el caso en que $p= \infty.$ Sea $x \in [a,b].$ Por la desigualdad del triángulo para números reales tenemos

\begin{align*}
|f(x)+g(x)| &\leq |f(x)|+|g(x)| \\
&\leq \underset{a \leq x \leq b}{max} \, |f(x)|
+\underset{a \leq x \leq b}{max} \, |g(x)| \\
&= \norm{f}_{\infty} +\norm{g}_{\infty}
\end{align*}

Dado que $\underset{a \leq x \leq b}{max} \, |f(x)+g(x)|$ es la menor de las cotas superiores concluimos:

$$\norm{f+g}_{\infty} = \underset{a \leq x \leq b}{max} \, |f(x)+g(x)|\leq \norm{f}_{\infty} +\norm{g}_{\infty}.$$

Por otro lado, cuando $p=1$ la desigualdad se sigue de la linealidad de la integral. Supongamos que $p \in (1,\infty).$

Supongamos también que ambas funciones son distintas de la constante cero (si alguna es cero la desigualdad es inmediata). Veamos que

\begin{align*}
\int_{a}^{b}(|f(x)|+|g(x)|)^p dx &= \int_{a}^{b}(|f(x)|+|g(x)|)(|f(x)|+|g(x)|)^{p-1} dx \\
&= \textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}+ \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} \\
\end{align*}

Como $p>1,$ arriba vimos que si $\textcolor{RedOrange}{q:= \frac{p}{p-1}}$ entonces $\frac{1}{q}+\frac{1}{p}=1.$ Apliquemos la desigualdad de Hölder para integrales en $\textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}$ de donde

\begin{align*}
\textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx} &\leq \left(\int_{a}^{b}|f(x)|^p dx\right)^{\frac{1}{p}} \left(\int_{a}^{b}((|f(x)|+|g(x)|)^{p-1})^{\textcolor{RedOrange}{q}} dx\right)^{\frac{1}{q}} \\
&= \norm{f}_p \left(\int_{a}^{b}((|f(x)|+|g(x)|)^{p-1})^{\textcolor{RedOrange}{\frac{p}{p-1}}} dx\right)^{\frac{1}{q}} \\
&= \norm{f}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

Se puede verificar de forma análoga que

\begin{align*}
\textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} &\leq \norm{g}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

En consecuencia

\begin{align*}
\int_{a}^{b}(|f(x)|+|g(x)|)^p dx &= \int_{a}^{b}(|f(x)|+|g(x)|)(|f(x)|+|g(x)|)^{p-1} dx \\
&= \textcolor{magenta}{\int_{a}^{b}|f(x)|(|f(x)|+|g(x)|)^{p-1} dx}+ \textcolor{RoyalBlue}{\int_{a}^{b}|g(x)|(|f(x)|+|g(x)|)^{p-1} dx} \\
&\leq \textcolor{magenta}{\norm{f}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}} + \textcolor{RoyalBlue}{\norm{g}_p \left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}}\\
&\leq (\norm{f}_p +\norm{g}_p)\left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.
\end{align*}

Ahora dividamos ambos lados de la desigualdad entre $\left(\int_{a}^{b}(|f(x)|+|g(x)|)^{p} dx\right)^{\frac{1}{q}}.$ Del lado izquierdo aplicamos leyes de los exponentes, restando $1- \frac{1}{q}=\frac{1}{p}.$ Usamos también la desigualdad del triángulo en la parte señalada. Finalmente tenemos:

\begin{align*}
\left(\int_{a}^{b}\textcolor{RedOrange}{|f(x)+g(x)|}^p\right) ^{\frac{1}{p}} &\leq \left(\int_{a}^{b}\textcolor{RedOrange}{(|f(x)|+|g(x)|)}^p\right) ^{\frac{1}{p}} \\ &\leq \norm{f}_p +\norm{g}_p \\
\Rightarrow \norm{f+g}_p &\leq \norm{f}_p +\norm{g}_p
\end{align*}

Que es lo que queríamos probar.

Más adelante…

En la siguiente entrada procederemos a identificar todos los puntos que están «cerca» de un punto específico. ¿Te suena familiar? Vamos a ver si el conjunto formado por estos puntos es diferente al que estamos acostumbrados a representar como una bola «redonda» de radio $\varepsilon > 0$.

Tarea moral

  1. Prueba que se cumple la igualdad en la desigualdad de Cauchy Schuarz si y solo si los vectores están en la misma línea.
  2. Prueba la desigualdad de Hölder para series: Si $p,q \in (1, \infty)$ y $\frac{1}{p} +\frac{1}{q}=1$ y tenemos dos sucesiones tales que $(x_n)_{n \in \mathbb{N}} \in \ell_p$ y $(y_n)_{n \in \mathbb{N}} \in \ell_q,$ entonces $(x_ny_n)_{n \in \mathbb{N}} \in \ell_1$ y
    \begin{align*}
    \norm{(x_ny_n)}_1 &\leq \norm{(x \vphantom{y}_n)}_p \norm{(y_n)}_q \\
    \sum_{i=1}^{\infty}|x_i y_i| & \leq \left(\sum_{i=1}^{\infty}|x_i|^p \right)^\frac{1}{p} \left(\sum_{i=1}^{\infty}|y_i|^q \right)^\frac{1}{q}.
    \end{align*}
  3. Prueba que las funciones definidas en Espacios normados en efecto son normas.

Bibliografía

Enlaces

La compacidad en espacios normados

Por Lizbeth Fernández Villegas

Introducción

En la sección de Compacidad en espacios métricos hablamos de un conjunto en el espacio $\ell_{\infty}:$ El conjunto dado por $\overline{B}(\mathcal{0},1)$ (donde $\mathcal{0}$ es la sucesión que en todos los términos vale 0). Tiene la propiedad de ser cerrado y acotado en $\ell_{\infty}$ pero no es compacto. Esto se probó mostrando que no era posible cubrirlo con una cantidad finita de bolas abiertas, cuyo radio era «muy pequeño», lo suficiente para no tener más de un elemento $e_i$ dentro (donde $e_i$ es la sucesión que toma a $1$ como valor en la entrada $i$ y $0$ en el resto). Se vio que era posible elegir un radio así porque los elementos $e_i$ estaban «alejados» entre sí.

Aparentemente no basta con tener nuestros elementos atrapados en un entorno para asegurar que no estén lejos unos de otros. En esta sección vamos a ver qué condiciones impiden que así suceda. Primero necesitaremos estos resultados:

Teorema. Cualesquiera dos normas en un espacio vectorial de dimensión finita son equivalentes.

Demostración:
Sea $V$ un espacio vectorial de dimensión $n$ y $\{v_1, \, v_2,…,v_n\}$ una base para $V.$ Primero definiremos una norma $\textcolor{magenta}{\norm{\cdot}^*}$ en $V$ para luego demostrar que cualquier otra norma en $V$ es equivalente a esta:

Sea $v \in V.$ Entonces $v = \sum_{i=1}^{n}x_i v_i$ para algunos (únicos) escalares $x_i \in \mathbb{R}, \, i=1,…,n.$ Definimos

$$\textcolor{magenta}{\norm{v}^*}:= \textcolor{magenta}{\sum_{i=1}^{n}|x_i|}$$

Nota que este valor coincide con la norma 1 en $\mathbb{R}^n$ del vector $(x_1,…,x_n).$ $\textcolor{orange}{\text{Dejaremos como ejercicio probar que }} \textcolor{magenta}{\norm{v}^*}$ $\textcolor{orange}{\text{ es una norma en $V$ y que la transformación}}$

$T: (\mathbb{R}^n, \norm{\cdot}_1) \to (V,\textcolor{magenta}{\norm{v}^*}) \,$ definida como $T(x_1,…,x_n)= \sum_{i=1}^{n}x_i v_i$ $\textcolor{orange}{\text{es una isometría entre estos espacios}}$ y por tanto, $T$ es una equivalencia (ejercicio 4 en Tarea moral de Más conceptos de continuidad).

Considera la esfera unitaria $S_V= \{v \in V \, | \, \textcolor{magenta}{\norm{v}^*} =1\}.$ Nota que es la imagen de $T$ en la esfera unitaria en $\mathbb{R}^n$ dada por $\mathbb{S}^{n-1}:= \{x \in \mathbb{R}^n \, | \, \norm{x}_1=1\}.$ $\textcolor{orange}{\text{Dejaremos como ejercicio probar que }}$ $\mathbb{S}^{n-1}$ es cerrado y acotado en $\mathbb{R}^n$ con la métrica usual y por tanto, compacto en ese espacio. En Más conceptos de continuidad vimos que $\norm{\cdot}_1$ y $\norm{\cdot}_2$ son equivalentes en $\mathbb{R}^n.$ Eso significa que ambos espacios métricos tienen los mismos abiertos (una cubierta abierta en $\norm{\cdot}_1$ lo es en $\norm{\cdot}_2$ y viceversa), por lo tanto $\mathbb{S}^{n-1}$ también es compacto en $(\mathbb{R}^n, \norm{\cdot}_1).$

Por la continuidad de $T$ se sigue que $T(\mathbb{S}^{n-1})= S_V$ es compacto en $(V,\textcolor{magenta}{\norm{v}^*}).$

Sea $\textcolor{RoyalBlue}{\norm{\cdot}}$ cualquier otra norma en $V.$ Vamos a probar que las normas $\textcolor{RoyalBlue}{\norm{\cdot}}$ y $\textcolor{magenta}{\norm{v}^*}$ son equivalentes.

Sea $v = \sum_{i=1}^{n}x_i v_i.$ Por propiedades de la norma se sigue:

\begin{align*}
\textcolor{RoyalBlue}{\norm{\sum_{i=1}^{n}x_i v_i}} &\leq \sum_{i=1}^{n}|x_i|\textcolor{RoyalBlue}{\norm{v_i}}\\
&\leq \underset{1 \leq i \leq n}{max} \, \textcolor{RoyalBlue}{\norm{v_i}}\textcolor{magenta}{\sum_{i=1}^{n}|x_i|}\\
\end{align*}

Haciendo $c := \underset{1 \leq i \leq n}{max} \, \textcolor{RoyalBlue}{\norm{v_i}}$ concluimos que para cualquier $v \in V,$

\begin{align}
\textcolor{RoyalBlue}{\norm{v}} \leq c \textcolor{magenta}{\norm{v}^*}
\end{align}

Nota que podemos pensar en $\textcolor{RoyalBlue}{\norm{\cdot}}$ como una función continua en el espacio $(V,\textcolor{magenta}{\norm{v}^*})$ al espacio $\mathbb{R}.$ De hecho es lipschitz continua, pues por lo que acabamos de probar, para cada $u, v \in V$ se satisface:

$$|\textcolor{RoyalBlue}{\norm{v}} -\textcolor{RoyalBlue}{\norm{u}}| \leq \textcolor{RoyalBlue}{\norm{v -u}} \leq c \textcolor{magenta}{\norm{v -u}^*}$$

y como $S_V$ es compacto en $(V,\textcolor{magenta}{\norm{v}^*})$ se sigue que $\textcolor{RoyalBlue}{\norm{\cdot}}$ alcanza su mínimo $c_2$ en $S_V.$ Nota que para cualquier $v \in S_V,$ $c \leq \textcolor{RoyalBlue}{\norm{v}}$ y que $c_2 >0,$ pues si el mínimo se alcanza en $v_0 \in S_V$ entonces $c_2=0 \iff \textcolor{RoyalBlue}{\norm{v_0}}=0 \iff v_0 =0 \iff \textcolor{magenta}{\norm{v_0}^*} =0$ entonces $v_0$ no pertenece a $S_V,$ lo cual es una contradicción.

Sea $v \neq 0 \in V.$ Entonces $\frac{v}{\textcolor{magenta}{\norm{v}^*}} \in S_V$ entonces

\begin{align}
\nonumber c_2 &\leq \textcolor{RoyalBlue}{\norm{\frac{v}{\textcolor{magenta}{\norm{v}^*}}}}\\
\nonumber \Rightarrow c_2 \textcolor{magenta}{\norm{v}^*} &\leq \textcolor{RoyalBlue}{\norm{v}} \\
\Rightarrow \textcolor{magenta}{\norm{v}^*} &\leq \frac{1}{c_2} \textcolor{RoyalBlue}{\norm{v}}.
\end{align}

De 1 y 2 concluimos que cualquier norma en $V$ es equivalente a $\textcolor{magenta}{\norm{v}^*}.$ Por lo tanto, cualesquiera dos normas en un espacio vectorial de dimensión finita son equivalentes.

Ahora estamos listos para mostrar la prueba de una afirmación presentada al final de Espacios métricos completos.

Corolario. Todo espacio normado de dimensión finita es de Banach.

Demostración:
Sea $V$ un espacio de dimensión finita $n$ con norma $\textcolor{RoyalBlue}{\norm{\cdot}}.$ Ya que $(\mathbb{R}^n,\norm{\cdot}_2)$ es completo, de acuerdo con lo visto en Espacios métricos completos bastará mostrar que existe una equivalencia entre ambos espacios.

La prueba anterior muestra que existe una equivalencia entre $(V, \textcolor{magenta}{\norm{v}^*})$ y $(\mathbb{R}^n,\norm{\cdot}_1).$ También que todas las normas en $\mathbb{R}^n$ son equivalentes, por lo que, en particular $(\mathbb{R}^n,\norm{\cdot}_1)$ es de Banach (pues $\norm{\cdot}_1$ es equivalente a $\norm{\cdot}_2)$. Luego $(V, \textcolor{magenta}{\norm{v}^*})$ es de Banach y al ser $\textcolor{magenta}{\norm{v}^*}$ equivalente a $\textcolor{RoyalBlue}{\norm{\cdot}}$ se sigue que $(V, \textcolor{RoyalBlue}{\norm{\cdot}})$ es de Banach.

Corolario. Sea $V$ un espacio vectorial normado. Todo subespacio vectorial de dimensión finita de $V$ es cerrado en $V.$

Demostración:
Sea $W$ subespacio vectorial de $V$ de dimensión finita. Por el resultado anterior, $W$ es completo. En Espacios métricos completos vimos que si un subespacio métrico es completo entonces es cerrado en el espacio que lo contiene, por lo tanto, $W$ es cerrado en $V.$

Lema de Riesz. Sea $V$ un espacio vectorial normado (de cualquier dimensión) y $W$ un subespacio vectorial de $V$ tal que $W$ es cerrado y $W \neq V.$ Entonces para cada $\delta \in (0,1)$ existe $v_{\delta} \in V$ tal que $\norm{v_{\delta}}=1$ y $\norm{v_{\delta}-w}\geq \delta$ para toda $w \in W.$

Demostración:
Como $W \neq V$ podemos tomar $v \in V \setminus W.$ Como $W$ es cerrado, existe $\varepsilon >0$ tal que $B(v, \varepsilon) \subset V \setminus W,$ en consecuencia $0 < r := \underset{w \in W}{inf} \, \norm{v-w}.$

Sea $\delta \in (0,1),$ nota que $r < \frac{r}{\delta}.$ Como $r$ es ínfimo, existe $w_0 \in W$ tal que $r \leq \textcolor{RoyalBlue}{\norm{v -w_0} \leq \frac{r}{\delta}}.$

Sea
$$v_{\delta} = \frac{v -w_0}{\norm{v -w_0}}$$

Entonces $\norm{v_{\delta}}=1.$ Probemos ahora que para cada $w \in W,$ $\norm{v_{\delta} -w}\geq \delta.$

\begin{align*}
\norm{v_{\delta}-w} &= \norm{\frac{v -w_0}{\norm{v -w_0}} -w} \\
&= \norm{\frac{v -w_0}{\norm{v -w_0}} -\frac{\norm{v -w_0}w}{\norm{v -w_0}}} \\
&= \frac{1}{\norm{v -w_0}} \norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}}
\end{align*}

Dado que $\textcolor{magenta}{w_0 -\norm{v -w_0}w}$ es combinación lineal de elementos en $W,$ se sigue que $\textcolor{magenta}{w_0 -\norm{v -w_0}w}$ pertenece a $W.$ En consecuencia

\begin{align*}
\norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}} &\geq r\\
\Rightarrow \frac{1}{\norm{v -w_0}} \norm{v -\textcolor{magenta}{w_0 -\norm{v -w_0}w}} &\geq \textcolor{RoyalBlue}{\frac{1}{\norm{v -w_0}}} r\\
\Rightarrow \norm{v_{\delta}-w} &\geq \textcolor{RoyalBlue}{\frac{\delta}{r}}r\\
\Rightarrow \norm{v_{\delta}-w} &\geq \delta
\end{align*}

que es lo que queríamos probar.

Teorema de Riesz. Sea $V$ un espacio vectorial normado. La esfera unitaria $S_V= \{v \in V \, | \, \norm{v} =1\}$ es compacta si y solo si, $V$ es de dimensión finita.

Demostración:
Supongamos por el contrario que $V$ es de dimensión infinita. Partimos de que $S_V$ es compacto. En Compacidad en espacios métricos vimos que toda sucesión de un compacto tiene una subsucesión convergente. Nuestra contradicción será una sucesión que no tiene esta propiedad:

Sea $W_1 := \langle w_1 \rangle$ el espacio generado por un vector $w_1 \in S_V$ Entonces $W_1$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_1$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_2 \in S_V$ tal que $\norm{w_2 -w} \geq \frac{1}{2}$ para cada $w \in W_1.$

Sea $W_2 := \langle w_1, w_2 \rangle$ el espacio generado por los vectores $w_1$ y $w_2.$ Entonces $W_2$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_2$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_3 \in S_V$ tal que $\norm{w_3 -w} \geq \frac{1}{2}$ para cada $w \in W_2.$
.
.
.
Sea $W_k := \langle w_1, w_2,…,w_k \rangle$ el espacio generado por los vectores $w_1, w_2,….,w_k.$ Entonces $W_k$ es subespacio propio de $V$ (pues $V$ es de dimensión infinita) y por los dos últimos resultados de arriba, $W_k$ es cerrado y para $\delta = \frac{1}{2}$ existe $w_{k+1} \in S_V$ tal que $\norm{w_{k+1} -w} \geq \frac{1}{2}$ para cada $w \in W_k.$

De esta construcción se tiene que $(w_n)_{n \in \mathbb{N}} \,$ es una sucesión de elementos de $S_V.$ Para cualesquiera dos elementos distintos de la sucesión $w_l, w_m$ supón sin pérdida de generalidad que $l < m$ entonces $w_l \in W_l \subset W_{m-1} \subsetneq W_m$ por lo que $\norm{w_l -w_m} \geq \frac{1}{2}$ en consecuencia no existe ninguna subsucesión de Cauchy para $(w_n)$ por lo que no hay tampoco una subsucesión convergente, lo que contradice que $S_V$ es compacto, por lo tanto $V$ es de dimensión finita. El regreso queda como ejercicio, (nota que $S_V$ es cerrado y acotado en $V$ y que lo puedes llevar a $(\mathbb{R}^n, \norm{\cdot}_2$ donde por Heine Borel sabemos que es compacto).

La misma argumentación prueba la siguiente:

Proposición. La bola cerrada $\overline{B}(0,1) = \{v \in V \, | \, \norm{v} \leq 1\}$ es compacta si y solo si $V$ es de dimensión finita. Lo mismo ocurre para cualquier bola cerrada en $V.$ Esto quedará como ejercicio.

De manera más general, se cumple:

Proposición. Sea $V$ un espacio vectorial normado de dimensión finita. Entonces $A \subset V$ es compacto en $V$ si y solo si $A$ es cerrado y acotado en $V.$

Demostración: Queda como ejercicio.

Más adelante…

Cuando hablamos de un espacio vectorial normado de dimensión finita $n$ podemos considerar una base de elementos $\{v_1, v_2,…,v_n\}$ todos de norma uno. La distancia entre cualesquiera dos de ellos siempre será mayor que cero y, de hecho, mayor que un $r \in \mathbb{R}.$ Ya que todos los elementos de la base están «lejos» del resto, cada uno necesitará su bolita para ser cubierto, pero al ser la base un conjunto finito, bastará una cantidad finita de bolitas para lograrlo. En dimensión infinita no ocurre así: tal como vimos, el Lema de Riesz permite seleccionar infinitos elementos en la esfera, alejados entre sí. Si queremos cubrir con bolitas «más pequeñas» que esa distancia necesitaremos una bolita para cada elemento, solo en eso ya se nos va una cantidad infinita de bolitas. Podemos ver que no podemos seleccionar cubiertas finitas para este tipo de cubiertas abiertas.

En esta entrada aprendimos que ser cerrado y acotado no basta para garantizar la compacidad en espacios de dimensión finita, lo siguiente será analizar específicamente cuando no falla lo que estamos intentando hacer (cubrir con finitas bolas chiquititas). Un conjunto donde sí se pueda hacer eso se denominará totalmente acotado. ¿Será suficiente para tener la compacidad?

Tarea moral

  1. Resuelve la parte de la prueba que quedó pendiente en el primer teorema.
  2. Demuestra el regreso del teorema de Riesz.
  3. Prueba que si $V$ es un espacio vectorial normado, entonces una bola cerrada en $V$ es compacta si y solo si $V$ es de dimensión finita.
  4. Sea $V$ un espacio vectorial normado de dimensión finita. Prueba que $A \subset V$ es compacto en $V$ si y solo si $A$ es cerrado y acotado en $V.$

Bibliografía

Enlaces