Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Geometría Analítica I: Intersección de rectas en forma normal

Por Leonardo Ignacio Martínez Sandoval

Introducción

Una pregunta geométrica muy natural es determinar cómo es la intersección de dos objetos geométricos, es decir, cuales son aquellos puntos que pertenecen a ambos. En el caso de las rectas, eso tiene una respuesta sencilla: la intersección de dos rectas puede ser vacía (cuando son paralelas), o bien un único punto, o bien una recta (cuando son la misma recta).

Como veremos a continuación, esto es sencillo de formalizar utilizando la forma normal de las rectas. Más aún, la forma normal nos ayudará a detectar mediante una cuenta sencilla exactamente en cuál de los casos anteriores nos encontramos. Así mismo, en caso de estar en la caso de que la intersección sea un único punto, también nos dará un procedimiento para encontrar sus coordenadas.

¿Cuándo dos vectores son paralelos?

Antes de estudiar concretamente la intersección de dos rectas, vamos a apoyarnos de la intuición que hemos desarrollado. Si tenemos rectas en forma normal correspondientes a vectores normales $u$ y $v$, entonces sabemos que las rectas son perpendiculares, respectivamente a los vectores $u$ y $v$. Si estos vectores están en la misma dirección, entonces las rectas también. Por ello, las rectas serán paralelas y entonces la intuición nos dice que o bien no se intersectarán, o bien serán la misma recta. Parece ser entonces importante encontar un criterio algebraico para saber cuándo dos vectores son paralelos o no.

Consideremos dos vectores no nulos $u=(u_1,u_2)$ y $v=(v_1,v_2)$. ¿Cuándo estos vectores son paralelos? Como los vectores están anclados en el origen, esto sucede únicamente cuando o bien $u$ es múltiplo escalar de $v$, o bien $v$ es múltiplo escalar de $u$. De esto sale el siguiente criterio algebraico:

Proposición. Tomemos dos vectores no nulos $u=(u_1,u_2)$ y $v=(v_1,v_2)$. Estos vectores son paralelos si y sólo si la expresión $u_1v_2-u_2v_1$ es igual a cero.

Demostración. Demostraremos la proposición en ambas direcciones.

$(\Rightarrow)$ Supongamos que los vectores $u=(u_1,u_2)$ y $v=(v_1,v_2)$ son paralelos. Si $u$ y $v$ son paralelos, entonces uno es un múltiplo escalar del otro. Sin pérdida de generalidad, supongamos que $u = k v$ para algún escalar $k \in \mathbb{R}$. Esto significa que:

$$u_1 = kv_1 \quad \text{y} \quad u_2 = kv_2.$$

Sustituyendo estas expresiones en $u_1v_2-u_2v_1$, obtenemos:

\begin{align*} u_1v_2-u_2v_1 &= (kv_1)v_2 – (kv_2)v_1 \\ &= kv_1v_2 – kv_2v_1 \\ &= 0. \end{align*}

Por lo tanto, si $u$ y $v$ son paralelos, entonces $u_1v_2-u_2v_1 = 0$.

$(\Leftarrow)$ Ahora supongamos que $u_1v_2-u_2v_1 = 0$. Queremos demostrar que $u$ y $v$ son paralelos. La condición $u_1v_2-u_2v_1 = 0$ se puede reescribir como $u_1v_2 = u_2v_1$.

Como $v$ no es el vector nulo, tenemos los siguientes casos:

  • Caso 1: $v_1 \neq 0$. De la igualdad $u_1v_2 = u_2v_1$, podemos despejar $u_2$ como $u_2 = \frac{u_1v_2}{v_1}$. Definamos $k = \frac{u_1}{v_1}$. Entonces, $u_1 = kv_1$. Sustituyendo $u_1$ en la expresión para $u_2$: $$u_2 = \frac{(kv_1)v_2}{v_1} = kv_2.$$ Así, tenemos $u_1 = kv_1$ y $u_2 = kv_2$, lo que implica que $$u = (u_1, u_2) = (kv_1, kv_2) = k(v_1, v_2) = kv.$$ Por lo tanto, $u$ es un múltiplo escalar de $v$, y son paralelos.
  • Caso 2: $v_1 = 0$. Dado que $v \neq (0,0)$, si $v_1 = 0$, entonces $v_2 \neq 0$. La condición $u_1v_2 = u_2v_1$ se convierte en $u_1v_2 = u_2 \cdot 0$, lo que implica $u_1v_2 = 0$. Como $v_2 \neq 0$, debemos tener $u_1 = 0$. En este subcaso, los vectores son $v=(0,v_2)$ y $u=(0,u_2)$. Estos vectores son paralelos pues ambos están en el eje $y$. Más concretamente, $u=\frac{u_2}{v_2} v$.

En ambos casos, si $u_1v_2-u_2v_1 = 0$, los vectores $u$ y $v$ son paralelos.

$\square$

Así, la expresión $u_1v_2-u_2v_1$ parece ser muy importante para nuestro problema de determinar la intersección de dos rectas. En efecto, en las siguientes secciones volverá a aparecer.

Intersección de rectas en forma normal

La siguiente proposición nos dice exactamente cómo es la intersección de dos rectas una vez que las tenemos en forma normal.

Proposición. Sean $a_1,a_2$ vectores no nulos de $\mathbb{R}^2$ y $b_1,b_2$ número reales. Consideremos las siguientes dos rectas en forma normal:

\begin{align*}
\ell_1 &= \{(x,y) \in \mathbb{R}^2: a_1 \cdot (x,y) = b_1\} \\
\ell_2 &= \{(x,y) \in \mathbb{R}^2: a_2 \cdot (x,y) = b_2\}.
\end{align*}

La intersección de estas rectas tiene las siguientes posibilidades:

  • Si $a_1$ y $a_2$ no son vectores paralelos, entonces la intersección de $\ell_1$ y $\ell_2$ es única.
  • Si $a_1$ y $a_2$ son vectores paralelos, entonces $a_1=ka_2$ para algún real $k$:
    • Si $b_1=kb_2$, entonces ambas ecuaciones representan la misma recta y entonces la intersección es ella misma.
    • Si $b_1\neq kb_2$, entonces las rectas son distintas y paralelas y por lo tanto tienen intersección vacía.

Demostración. Vayamos por casos. Nombremos $a_1=(a_{11},a_{12})$ y $a_2=(a_{21},a_{22})$.

Las ecuaciones de las rectas son:

$$
\begin{cases}
a_{11}x + a_{12}y = b_1 \\
a_{21}x + a_{22}y = b_2
\end{cases}
$$

Esto es un sistema de ecuaciones lineales. Analicemos las posibilidades:

  • Caso 1: $a_1$ y $a_2$ no son vectores paralelos. Según la proposición anterior, dos vectores $a_1=(a_{11},a_{12})$ y $a_2=(a_{21},a_{22})$ no son paralelos si y sólo si la expresión $a_{11}a_{22}-a_{12}a_{21}$ es distinta de cero. Multiplicando la primera ecuación por $a_{21}$ y la segunda ecuación por $a_{11}$ obtenemos lo siguiente:
    \begin{align*} a_{21}(a_{11}x + a_{12}y) &= a_{21}b_1 \\ a_{11}(a_{21}x + a_{22}y) &= a_{11}b_2 \end{align*}
    Lo que resulta en el sistema equivalente:
    \begin{align*} a_{11}a_{21}x + a_{12}a_{21}y &= a_{21}b_1 \\ a_{11}a_{21}x + a_{11}a_{22}y &= a_{11}b_2 \end{align*}
    Restando la primera ecuación de la segunda, eliminamos $x$ y obtenemos:
    \begin{align*} (a_{11}a_{21}x + a_{11}a_{22}y) – (a_{11}a_{21}x + a_{12}a_{21}y) &= a_{11}b_2 – a_{21}b_1 \\ (a_{11}a_{22} – a_{12}a_{21})y &= a_{11}b_2 – a_{21}b_1 \end{align*}
    Dado que $a_{11}a_{22}-a_{12}a_{21} \neq 0$, podemos despejar $y$ para obtener un valor único. De manera análoga, se puede encontrar un valor único para $x$. Esto demuestra que existe una única solución $(x,y)$ para el sistema, lo que significa que la intersección de $\ell_1$ y $\ell_2$ es única.
  • Caso 2: $a_1$ y $a_2$ son vectores paralelos, y $b_1=kb_2$ para algún $k \in \mathbb{R}$. Si $a_1$ y $a_2$ son paralelos, entonces $a_1 = ka_2$ para algún escalar $k \in \mathbb{R}$ (ya que $a_1$ y $a_2$ son vectores no nulos). Esto implica que $a_{11} = ka_{21}$ y $a_{12} = ka_{22}$. La ecuación de la recta $\ell_1$ es $a_{11}x + a_{12}y = b_1$. Sustituyendo las expresiones para $a_{11}$ y $a_{12}$ en esta ecuación, obtenemos: \begin{align*} (ka_{21})x + (ka_{22})y &= b_1 \\ k(a_{21}x + a_{22}y) &= b_1 \end{align*} Sabemos que para los puntos en $\ell_2$, se cumple $a_{21}x + a_{22}y = b_2$. Sustituyendo esto en la ecuación anterior, obtenemos $kb_2 = b_1$. Si se cumple la condición $b_1=kb_2$, entonces la ecuación de $\ell_1$ se convierte en $k(a_{21}x + a_{22}y) = kb_2$. Dado que $a_1$ es no nulo, $k$ no puede ser cero. Podemos dividir por $k$ para obtener $a_{21}x + a_{22}y = b_2$. Esta es exactamente la ecuación de la recta $\ell_2$. Por lo tanto, ambas ecuaciones representan la misma recta, y su intersección es la recta completa.
  • Caso 3: $a_1$ y $a_2$ son vectores paralelos, y $b_1 \neq kb_2$ para algún $k \in \mathbb{R}$. Similar al Caso 2, si $a_1$ y $a_2$ son paralelos, entonces $a_1 = ka_2$ para algún $k \in \mathbb{R}$. Esto lleva a que la ecuación de $\ell_1$ pueda escribirse como $k(a_{21}x + a_{22}y) = b_1$. Si existiera un punto $(x,y)$ en la intersección de $\ell_1$ y $\ell_2$, debería satisfacer ambas ecuaciones. Es decir, $a_{21}x + a_{22}y = b_2$ (por ser un punto de $\ell_2$) y $k(a_{21}x + a_{22}y) = b_1$ (por ser un punto de $\ell_1$). Sustituyendo la primera en la segunda, obtendríamos $kb_2 = b_1$. Sin embargo, la condición de este caso es que $b_1 \neq kb_2$. Esto significa que no puede haber ningún punto $(x,y)$ que satisfaga ambas ecuaciones simultáneamente. Por lo tanto, las rectas son paralelas y distintas, y su intersección es vacía.

$\square$

Ejemplo de rectas iguales

Veamos ahora ejemplos de cada una de estas posibilidades:

Ejemplo. Encuentra la intersección de las rectas dadas por las siguientes ecuaciones.

\begin{align*}
(1,-2)\cdot (x,y) = 3\\
(-2,4) \cdot (x,y) = -6.
\end{align*}

Solución. Identifiquemos los vectores normales $a_1$ y $a_2$, y los escalares $b_1$ y $b_2$:

$$a_1 = (1,-2), \quad b_1 = 3$$

$$a_2 = (-2,4), \quad b_2 = -6$$

Primero, verificamos si los vectores normales $a_1$ y $a_2$ son paralelos. Calculamos la expresión $a_{11}a_{22}-a_{12}a_{21}$:

\begin{align*} a_{11}a_{22}-a_{12}a_{21} &= (1)(4) – (-2)(-2) \\ &= 4 – 4 \\ &= 0. \end{align*}

Dado que la expresión es cero, los vectores $a_1$ y $a_2$ son paralelos. De hecho, por inspección notamos que $(1,-2) = -\frac{1}{2}(-2,4)$.

Notemos que también sucede que $b_1=3=-\frac{1}{2}6$. Según la proposición, las rectas son entonces la misma. Por lo tanto, la intersección de las dos rectas es la recta misma, $\ell_1$. Podemos escribir la solución como el conjunto de puntos $(x,y)$ que satisfacen $x – 2y = 3$.

$\triangle$

Ejemplo de rectas que no se intersectan

Ejemplo. Encuentra la intersección de las rectas dadas por las siguientes ecuaciones:

\begin{align*}
(3,-4)\cdot (x,y) = 3\\
(-6,8) \cdot (x,y) = -2.
\end{align*}

Solución. Identifiquemos los vectores normales $a_1$ y $a_2$, y los escalares $b_1$ y $b_2$:

$$a_1 = (3,-4), \quad b_1 = 3$$

$$a_2 = (-6,8), \quad b_2 = -2$$

Primero, verificamos si los vectores normales $a_1$ y $a_2$ son paralelos. Calculamos la expresión $a_{11}a_{22}-a_{12}a_{21}$:

\begin{align*} a_{11}a_{22}-a_{12}a_{21} &= (3)(8) – (-4)(-6) \\ &= 24 – 24 \\ &= 0 \end{align*}

Como obtenemos cero, los vectores $a_1$ y $a_2$ son paralelos. Esto significa que $a_1 = ka_2$ para algún escalar $k$. En efecto, $a_1= -\frac{1}{2} a_2$. Sin embargo, ahora $-\frac{1}{2} b_2 = 1 \neq 3 = b_1$. Esto significa que las rectas son paralelas y distintas.

Por lo tanto, la intersección de las dos rectas es vacía.

$\triangle$

La siguiente figura muestra ambas rectas. En efecto, las rectas parecen ser paralelas.

Ejemplo de rectas que se intersectan en un único punto

Ejemplo. Determina dónde se intersectan la recta paralela a $(3,1)$ que pasa por el punto $(1,1)$ y la recta perpendicular a $(2,2)$ que pasa por el punto $(5,-3)$.

Solución. Para poder usar los resultados de esta entrada, primero pasaremos cada una de estas ecuaciones a forma normal $a \cdot (x,y) = b$.

Recta 1: Paralela a $(3,1)$ y pasa por $(1,1)$.

Si la recta es paralela al vector $(3,1)$, su vector normal $a_1$ debe ser perpendicular a $(3,1)$. Un vector perpendicular a $(3,1)$ es, por ejemplo, $a_1 = (-1,3)$.

La ecuación de la recta es de la forma $-x + 3y = b_1$. Para encontrar $b_1$, sustituimos el punto $(1,1)$ por el que pasa la recta:

$$b_1= -(1) + 3(1) = 2.$$

Así, la primera recta en forma normal es $\ell_1 =\{(-1,3) \cdot (x,y) = 2\}$, correspondiente a la ecuación $-x+3y=2$.

Recta 2: Perpendicular a $(2,2)$ y pasa por $(5,-3)$.

Si la recta es perpendicular al vector $(2,2)$, entonces su vector normal $a_2$ es $(2,2)$.

La ecuación de la recta es de la forma $2x + 2y = b_2$. Para encontrar $b_2$, sustituimos el punto $(5,-3)$ por el que pasa la recta:

$$b_2 = 2(5)+2(-3)=4.$$

Así, la segunda recta en forma normal corresponde a la ecuación $2x+y=4$, que es equivalente a $x+y=2$. Así, podemos ponerle en forma normal como $\ell_2=\{(1,1) \cdot (x,y) = 2\}$.

De este modo, encontrar los puntos de intersección de las rectas corresponde a resolver el siguiente sistema de ecuaciones:

$$\begin{cases} -x + 3y = 2\\ x + y = 2. \end{cases}$$

Identificamos los vectores normales $a_1 = (-1,3)$ y $a_2 = (1,1)$. Veamos si $a_1$ y $a_2$ son paralelos. Para ello, calculamos la expresión $a_{11}a_{22}-a_{12}a_{21}$:

\begin{align*} a_{11}a_{22}-a_{12}a_{21} &= (-1)(1) – (3)(1) \\ &= -1 – 3 \\ &= -4. \end{align*}

Dado que el resultado no es cero, los vectores $a_1$ y $a_2$ no son paralelos. Según la proposición, esto significa que la intersección de las dos rectas es un punto único, que podemos encontrar resolviendo el sistema de ecuaciones. Sumando la primera ecuación con la segunda:

\begin{align*} (-x + 3y) + (x + y) &= 2 + 2 \\ 4y &= 4 \\ y &= 1. \end{align*}

Como $y$ es $1$, entonces de la segunda igualdad concluimos que $x=1$ también. Por lo tanto, las rectas se intersecan en el punto $(1,1)$.

$\triangle$

La siguiente figura muestra ambas rectas. La visualización coincide con lo que demostramos formalmente.

Más adelante…

Hemos entendido cómo se ve la intersección de rectas a partir de su forma normal. Pero la forma normal de una recta no sólo nos ayuda a hablar de la recta misma. Una pequeña variación nos permite hablar también de cada uno de los dos pedazos en los que queda dividido el plano por la recta. A cada uno de estos pedazos le llamamos semiplano. ¿Cómo se verá la intersección de semiplanos? Daremos una introducción a estas ideas en la siguiente entrada.

Tarea moral

  1. De la siguiente lista de vectores, identifica todos aquellos $u$ y $v$ que cumplan que $u$ es paralelo a $v$:
    \begin{align*}&(1,1), (3,3), (5,2), (2,5), (10,4), \\&(-5,-2), (-3,3), (2,-2), (4,0), (5,1).\end{align*}
  2. Encuentra la intersección de las siguientes parejas de rectas:
    • $2x+3y=1$ y $3x+2y=2$.
    • $15+20y=12$ y $-6x-8y=7$.
    • $x+y=1$ y $-x-y=-1$.
  3. En los resultados de esta entrada hemos pedido que los vectores $u$ y $v$ sean no nulos para que las rectas en forma normal estén bien definidas. Pero si alguno de estos vectores es cero, todavía se pueden plantear un sistema de dos ecuaciones. ¿Qué posibilidades hay para estos sistemas de ecuaciones?
  4. Si tenemos vectores $u$, $v$ y $w$ en el plano, muestra que están en una misma línea si y sólo si $u-v$ y $w-v$ son paralelos.
  5. Toma tres vectores $u$, $v$ y $w$ de modo que no estén en una misma línea. La altura desde $u$ es la recta por $u$, perpendicular a $v-w$. De manera análoga se definen las alturas por $v$ y $w$.
    • Encuentra la intersección de la altura por $u$ y la altura por $v$.
    • Encuentra la intersección de la altura por $u$ y la altura por $w$.
    • Demuestra analíticamente, con las técnicas que hemos platicado aquí, que las tres alturas pasan por un mismo punto.

Entradas relacionadas

2.7. TRANSFORMACIONES LINEALES INVERTIBLES E ISOMORFISMOS: definiciones, equivalencias y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

«Ir y venir» de un espacio a otro da ventajas enormes
En estos casos, las transformaciones no crean un cambio permanente, podemos pensarlo también como un puente que permite retornar

Teorema (2.7.1.): Sean $V$ y $W$ dos $K$ – espacios vectoriales de dimensión finita con $\dim V=\dim W$ y $T\in\mathcal{L}(V,W)$. Las siguientes condiciones son equivalentes:

a) $T$ es invertible
b) $T$ es inyectiva
c) $T$ es suprayectiva
d) Para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$
e) Existe $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$

Demostración: Veamos la cadena de implicaciones.

a) $\Rightarrow$ b) Sup. que $T$ es invertible.

Por lo visto en la entrada anterior, tenemos que $T$ es biyectiva.
En particular, $T$ es inyectiva.

b) $\Rightarrow$ c) Sup. que $T$ es inyectiva.

Entonces $Núc T=\{ \theta_V\}$. De modo que $\dim Núc T=0$.
Por el Teorema de la dimensión (2.3.1.), $\dim V =\dim NúcT+\dim ImT=\dim ImT$.

Como $\dim W=\dim V$, entonces $\dim W=\dim ImT$.
Y sabemos que $ImT\leqslant W$, así que al tener la misma dimensión resulta que $ImT=W$.
Por lo tanto, $T$ es suprayectiva.

c) $\Rightarrow$ d) Sup. que $T$ es suprayectiva.

Sea $\beta =\{ v_1,v_2,…,v_n\}$ una base de $V$.

Sabemos que $\langle T(v_1),T(v_2),…,T(v_n) \rangle\subseteq W$.
Veamos que tenemos también la otra igualdad.
Sea $w\in W$.

Como $T$ es suprayectiva, $\exists v\in V(T(v)=w)$.
Y como $\beta$ es base de $V$, entonces existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.

Entonces $w=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))$$=\sum_{i=1}^{n}(\lambda_i T(v_i))\in \langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Así, $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Y como $\dim W=\dim V$ y es finita, entonces $\{ T(v_1),T(v_2),…,T(v_n) \}$ debe ser l.i.
Por tanto, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$.

d) $\Rightarrow$ e) Sup. que para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Como todo espacio vectorial tiene al menos una base, entonces es inmediato concluir que existe al menos una base $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

e) $\Rightarrow$ a) Sup. que $\beta =\{ v_1,v_2,…,v_n \}$ es una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Entonces $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle\leqslant Im(T)\leqslant W$.
De donde, $W=Im(T)$.
Por lo tanto, $T$ es suprayectiva.

Ahora, sea $v\in NúcT$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.
Entonces $\theta_W=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))=\sum_{i=1}^{n}(\lambda_i T(v_i))$.
Y como $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$, resulta que $\theta\notin \{ T(v_1),T(v_2),…,T(v_n) \}$.

Así, $\theta_W=\sum_{i=1}^{n}(\lambda_i T(v_i))$ implica que $\forall i\in\{1,2,…,n\}(\lambda_1=\lambda_2=…=\lambda_n=0)$. Y $v=\sum_{i=1}^{n}(\lambda_i v_i)=\sum_{i=1}^{n}(0 v_i)=\theta_V$.
De donde, $NúcT=\{\theta_V\}$.
Por lo tanto $T$ es inyectiva.

Por lo tanto, $T$ es biyectiva.

Teorema (2.7.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita.
Si existe $T\in\mathcal{L}(V,W)$ invertible. Entonces $W$ es de dimensión finita y $\dim V=\dim W.$

Demostración: Sup. que existe $T\in\mathcal{L}(V,W)$ invertible.

Por el teorema 2.7.1., $T$ es biyectiva.
Como es suprayectiva, $Im T=W$. Por lo que $\dim (ImT)=\dim W$.
Como es inyectiva, $Núc T=\{\theta_V \}$. Por lo que $\dim(Núc T)=0$.

Por el teorema de la dimensión (2.3.1.) $\dim V=\dim (Núc T)+\dim (Im T)$$=0+\dim (ImT)=\dim (ImT)=\dim W$.

Como $V$ es de dimensión finita y $\dim V=\dim W$, entonces $W$ es de dimensión finita.

ISOMORFISMO

Definición: Sean $V,W$ $K$ – espacios vectoriales. Decimos que $V$ es isomorfo a $W$, denotado como $V\cong W$, si existe $\varphi \in\mathcal{L}(V,W)$ invertible. A $\varphi$ le llamamos isomorfismo de $V$ en $W$.

Ejemplos

  • Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$.
    $\varphi(x, y) = (x + y, x – y)$ es un isomorfismo entre $\mathbb{R}^2$ y $\mathbb{R}^2$

Justificación. Sean $u = (x_1, y_1) , v = (x_2, y_2) \in \mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

  • Sea $M = \left\{ \begin{pmatrix} a & b \\ 0 & 0 \end{pmatrix} | a, b \in \mathbb{R} \right\} \leqslant M_{2 \times 2}(\mathbb{R})$.
    $\varphi : \mathbb{R}^2 \longrightarrow M$ definida para cada $(x,y) \in \mathbb{R}^2$ como $\varphi(x, y) = \begin{pmatrix} x & y \\ 0 & 0 \end{pmatrix}$ es un isomorfismo entre $\mathbb{R}^2$ y $M$

Justificación. Sean $u = (x_1, y_1)$, $v = (x_2, y_2)$ en $\mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

1) P.D. $\varphi$ es lineal.

$\varphi(\lambda u + v) = \varphi(\lambda x_1 + x_2, \lambda y_1 + y_2)$ $= \begin{pmatrix} \lambda x_1 + x_2 & \lambda y_1 + y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \begin{pmatrix} x_1 & y_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} x_2 & y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \varphi(u) + \varphi(v)$

Teorema (2.7.3.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita. Entonces:
$V\cong W$ si y sólo si $\dim V=\dimW$.

Demostración: Veamos cada implicación.

$\Rightarrow$) Sup. que $V\cong W$.

Por def. existe $\varphi\in\mathcal{L}(V,W)$ invertible.

Por el teorema (2.7.2.), $\dim V=\dim W$.

$\Leftarrow$) Sup. $\dim V=\dim W$.

Digamos que $\dim V=n=\dim W$ donde $n\in\mathbb{N}$.

Sean $\{ v_1,v_2,…,v_n\}$ base de $V$ y $\{ w_1,w_2,…,w_n\}$ de $W$.
Sabemos que existe $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n \}(S(v_i)=w_i)$.
Así, $\{ w_1,w_2,…,w_n\}=\{ T(v_1),T(v_2),…,T(v_n)\}$ y por lo tanto, $\{ T(v_1),T(v_2),…,T(v_n)\}$ es base de $W$.

Por el teorema (2.7.1.), $S$ es invertible. Así, $S$ es un isomorfismo de $V$ en $W$.

Por lo tanto $V\cong W$.

Corolario (2.7.4.): Si $V$ es un $K$ espacio vectorial de dimensión finita $n$. Entonces $V\cong K^{n}$.

Tarea Moral

  1. Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ tal que $\forall (x,y) \in \mathbb{R}^2 (T (x,y) = (5x + 2y , 3x-y) )$
    Prueba que $T$ es invertible y encuentra $T^{-1}$
  2. Sean $K$ campo y $V = \left\{ \begin{pmatrix} a & a+b \\ 0 & c \end{pmatrix} | a,b,c \in K \right\}$
    Determina si $V$ es isomorfismo a $K^3$ y si lo es construye un isomorfismo de $V$ a $K^3$
  3. Demuestra que la transformación $\varphi$ definida en la demostración del corolario (1.7.4.) es un isomorfismo.

Más adelante…

Veremos muy brevemente los conceptos de base ordenada y vector de coordenadas.

Entenderemos por qué a veces conviene manejar conjuntos con un orden determinado en lugar de solo manejarlo como un listado indistinto… Al fin y al cabo, manejar transformaciones con matrices resulta muy útil y al hablar de matrices, es natural solicitar orden.

Entradas relacionadas

2.5. TRANSFORMACIONES LINEALES ENTRE DOS ESPACIOS: operaciones para formar un espacio vectorial

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Haz operado funciones? Podemos sumar, restar, multiplicar, hacer producto por escalar, componer y en cada caso se estudia si el resultado es una función, cuál es su dominio y su codominio, y nos preguntamos para cada caso qué condiciones se requieren para conservar esa propiedad.

La suma de funciones se hace entrada a entrada en $\mathbb{R}^n$
Gráficamente muestra un desplazamiento punto a punto

Veremos la suma de transformaciones y la multiplicación por escalar.
Pero más que eso, veremos que dados dos espacios vectoriales, si para el conjunto de transformaciones lineales entre esos espacios, consideramos estas dos operaciones, formamos un nuevo espacio vectorial. Los dos grandes pilares del Álgebra Lineal por fin se unifican.

SUMA Y PRODUCTO DE TRANSFORMACIONES LINEALES

Definición: Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Definimos las siguientes operaciones:

  • La suma de $T$ y $S$ es $T +_{\mathcal{L}} S: V \longrightarrow W$ donde $\forall v\in V ((T +_{\mathcal{L}} S)(v)=T(v) +_{\mathcal{W}} S(v))$.
  • El producto de $T$ por el escalar $\lambda$ es $\lambda \cdot_{\mathcal{L}} T: V \longrightarrow W$ donde $\forall v\in V ((\lambda \cdot_{\mathcal{L}} T)(v)=\lambda \cdot_{\mathcal{W}} T(v))$.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\{a+bx+cx^2+dx^3|a,b,c,d\in\mathbb{R}\}$ y $W=\mathbb{R}^3$.
    Sean $T:V\longrightarrow W$ dada por $T(a+bx+cx^2+dx^3)=(a-b+2c,b-d,2a+c)$ y $S:V\longrightarrow W$ dada por $S(a+bx+cx^2+dx^3)=(b,2c,3d)$. Entonces:
    $T+S:V\longrightarrow W$ es $(T+S)(a+bx+cx^2+dx^3)=(a+2c,b-d+2c,2a+c+3d)$
    $4\cdot S:V\longrightarrow W$ es $(4\cdot S)(a+bx+cx^2+dx^3)=(4b,8c,12d)$

Justificación. Sea $a+bx+cx^2+dx^3\in V$.

$(T+S)(a+bx+cx^2+dx^3)$$=T(a+bx+cx^2+dx^3)+S(a+bx+cx^2+dx^3)$$=(a-b+2c,b-d,2a+c)+(b,2c,3d)$$=(a-b+2c+b,b-d+2c,2a+c+3d)$$=(a+2c,b+2c-d,2a+c+3d)$

  • Sean $F$ un campo, $V=\mathcal{M}_{2\times 3}(F)$ y $W=\mathcal{M}_{2\times 2}(F)$.
    Sean $T:V\longrightarrow W$ dada por $T \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix}$ y $S:V\longrightarrow W$ dada por $S \begin{pmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 2b_{21} – 2b_{22} & b_{23} – 2b_{22} \end{pmatrix}$. Entonces
    $T+2S:V\longrightarrow W$ es $(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Justificación. $2S\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$=2 \begin{pmatrix} 0 & 0 \\ 2a_{21} – 2a_{22} & a_{23} – 2a_{22} \end{pmatrix}$$= \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

$(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Nota: Para las demostraciones de los siguientes teoremas, se considerará a $T_0 : V\longrightarrow W$ como la transformación donde $\forall v\in V(T_0(v)=\theta_W)$.

Proposición (2.5.1.): Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Entonces $T+S\in\mathcal{L}(V,W)$ y $\lambda T\in\mathcal{L}(V,W)$.

Demostración: Sean $V,W$ $K$ – espacios vectoriales. Sean $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$.

P.D. 1) $T+S\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\lambda\in K$.
Entonces $(T+S)(\lambda u + v)=T(\lambda u + v)+S(\lambda u + v)$$=(\lambda T(u)+T(v))+(\lambda S(u)+S(v))$$=\lambda(T(u)+S(u))+(T(v)+S(v))=\lambda (T+S)(u)+(T+S)(v)$.
Como $(T+S)(\lambda u + v)=\lambda (T+S)(u)+(T+S)(v)$, entonces $T+S\in\mathcal{L}(V,W)$.

P.D. 2) $\lambda T\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\mu\in K$.

Entonces $(\lambda T)(\mu u + v)=\lambda T(\mu u + v)$$=\lambda (\mu T(u)+T(v))=\mu (\lambda T(u))+\lambda T(v)$$=\mu (\lambda T)(u)+(\lambda T)(v)$.
Como $(\lambda T)(\mu u + v)=\mu (\lambda T)(u)+(\lambda T)(v)$, entonces $\lambda T\in\mathcal{L}(V,W)$.

Teorema (2.5.2.): Sean $V,W$ $K$ – espacios vectoriales. Entonces $\mathcal{L}(V,W)$ con la suma y el producto escalar definidos es un $K$ – espacio vectorial.

Demostración: Sean $T,S,R\in\mathcal{L}(V,W)$ y $\lambda, \mu \in K$.

P.D. 1) $T+(S+R)=(T+S)+R$

Sea $v\in V$.
$(T+(S+R))(v)=T(v)+(S+R)(v)=T(V)+(S(v)+R(v))$$=(T(v)+S(v))+R(v)=(T+S)(v)+R(v)$$=((T+S)+R)(v)$.

Así, $\forall v\in V((T+(S+R))(v)=((T+S)+R)(v))$.
Por lo tanto, $T+(S+R)=(T+S)+R$.

P.D. 2) $T+S=S+T$

Sea $v\in V$.

$(T+S)(v)=T(v)+S(v)=S(v)+T(v)=(S+T)(v)$.

Así, $\forall v\in V((T+S)(v)=(S+T)(v))$.
Por lo tanto, $T+S=S+T$.

P.D. 3) $T+T_0=T_0+T=T$.

Sea $v\in V$.

$(T+T_0)(v)=T(v)+T_0(v)=T(v)+\theta_W=T(v)$.
$(T_0+T)(v)=(T+T_0)(v)=T(v)$.

Así, $\forall v\in V((T+T_0)(v)=(T_0+T)(v)=T(v))$.
Por lo tanto, $T+T_0=T_0+T=T$.
De este modo, $T_0$ cumple la función de neutro en $\mathcal{L}(V,W)$.

P.D. 4) Si $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$, entonces $T+\tilde{T}=\tilde{T}+T=T_0$.

Sea $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$.
Sea $v\in V$.

$(T+\tilde{T})(v)=T(v)+\tilde{T}(v)=T(v)+(-T(v))=\theta_W$.
$(\tilde{T}+T)(v)=(T+\tilde{T})(v)=\theta_W$.

Así, $\forall v\in V((T+\tilde{T})(v)=(\tilde{T}+T)(v)=\theta_W)$.
Por lo tanto, $T+\tilde{T}=\tilde{T}+T=T_0$.
De este modo, $\tilde{T}=-T=(-1)T\in\mathcal{L}(V,W)$ cumple la función de inverso de $T$ en $\mathcal{L}(V,W)$.

P.D. 5) $(1)T=T$.

Sea $v\in V$.

$(1T)(v)=(1)T(v)=T(v)$.

Así, $\forall v\in V((1T)(v)=T(v))$.
Por lo tanto, $(1)T=T$.

P.D. 6) $\lambda (\mu T)=(\lambda\mu)T$

Sea $v\in V$.

$(\lambda (\mu T))(v)=(\lambda )(\mu T)(V)$$=(\lambda )(\mu T(v))=(\lambda\mu )T(v)$$=((\lambda\mu )T)(v)$.

Así, $\forall v\in V((\lambda (\mu T))(v)=((\lambda\mu )T)(v))$.
Por lo tanto, $\lambda (\mu T)=(\lambda\mu )T$.

P.D. 7) $(\lambda + \mu)T=\lambda T + \mu T$.

Sea $v\in V$.

$((\lambda + \mu )T)(v)=(\lambda + \mu)T(v)=\lambda T(v)+\mu T(v)$$=(\lambda T)(v)+(\mu T)(v)=(\lambda T + \mu T)(v)$.

Así, $\forall v\in V((\lambda +\mu ) T)(v)=(\lambda T + \mu T)(v))$.
Por lo tanto, $(\lambda +\mu )T=\lambda T + \mu T$.

P.D. 8) $\lambda (T+S)=\lambda T + \lambda S$.

Sea $v\in V$.

$(\lambda (T+S))(v)=(\lambda )(T+S)(v)=\lambda (T(v)+S(v))$$=\lambda T(v)+ \lambda S(v)=(\lambda T)(v)+(\lambda S)(v)$$=(\lambda T + \lambda S)(v)$.

Así, $\forall v\in V((\lambda (T+S))(v)=(\lambda T + \lambda S)(v))$.
Por lo tanto, $\lambda (T+S)=\lambda T + \lambda S$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre el campo $K$ y $S\subseteq V$.
    Defina $S^0 = \{ T \in \mathcal{L}(V,W) | \forall x\in S(T(x) = \theta_W) \}$.
    ¿Es $S^0$ un subespacio de $\mathcal{L}(V,W)$ con las operaciones anteriormente vistas?
  2. Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    a) Demuestra que $v + W$ es un subespacio de $V$ si y sólo si $v \in W$
    b) Demuestra que $v_1 + W = v_2 + W$ si y sólo si $v_1 – v_2 \in W$

Más adelante…

En la siguiente entrada veremos una nueva operación: la composición.
Y al igual que en las funciones reales, esta operación da lugar a un nuevo concepto: la identidad
¿Qué propiedades cumple la composición? ¿Cómo funciona en este caso la identidad?

Entradas relacionadas

Investigación de Operaciones: Soluciones básicas, factibles y no degeneradas (10)

Por Aldo Romero

Introducción

Ya hablamos de lo que es la forma canónica y la forma estándar de un problema lineal. Como platicamos, esto nos permitirá darle solución a los problemas siguiendo métodos que requieren tener el problema en alguna de estas dos formas. Lo que haremos ahora es reflexionar a qué nos referimos con resolver un problema de programación lineal. Para ello, recordemos los distintos tipos de soluciones que los problemas lineales pueden tener.

Tipos de soluciones y región de factibilidad

Recordemos los conceptos de soluciones factibles, soluciones básicas factibles (degeneradas y no degeneradas) y de región de factibilidad.

Supongamos que tenemos un problema de programación lineal en su forma canónica:

\begin{align}
Max \quad z &= c^tx\\
s.a&\\
A^tx &\leq b\\
x &\geq \bar 0\\
\end{align}

donde usamos la misma notación que en la entrada anterior. En particular, $c$ y $x$ son vectores en $\mathbb{R}^n$, $b$ es un vector en $\mathbb{R}^m$ y $A$ es una matriz de $m\times n$. Recuerda que en la expresión anterior entendemos $\bar 0$ como el vector en $\mathbb{R}^n$ con entradas todas iguales a cero.

También recordemos la forma estándar de un problema de programación lineal:

\begin{align*}
Max \quad z &= c’^tx’\\
s.a&\\
A’^tx’ &=b’\\
x’ &\geq \bar 0\\
\end{align*}

en donde $c’$ y $x’$ son vectores en $\mathbb{R}^{n}$,$b’$ es un vector en $\mathbb{R}^{m}$ y $A’$ es una matriz de valores reales de $m \times n$.

Como recordatorio, tenemos las siguientes definiciones para los tipos de soluciones del problema lineal.

Definición. Una solución factible a un problema de programación lineal en forma canónica es un vector $x = x_1 + x_2 + \ldots + x_n$ que satisface las restricciones $Ax \leq b$ y $x \geq \bar 0$. Esto se corresponde con una solución $x’ = x_1′ + x_2′ \ldots + x_n’$ al problema en forma estándar que satisface $A’x’= b’$ y $x’\geq \bar 0$.

Definición. La región de factibilidad de un problema de programación lineal es el conjunto de todas las soluciones factibles.

Definición. Una solución básica factible es una solución factible correspondiente a una solución $x’$ del problema en forma estándar con no más de $m$ componentes positivas. En otras palabras, $x’$ tiene al menos $n-m$ entradas iguales a cero.

Definición. Una solución básica factible no degenerada es una solución factible $x$ correspondiente a una solución $x’$ del problema en forma estándar con exactamente $m$ componentes positivas. En otras palabras, $x’$ tiene exactamente $n-m$ entradas iguales a cero.

Definición. Una solución básica factible degenerada es una solución factible correspondiente a una solución $x’$ del problema en forma estándar con menos de $m$ componentes positivas. En otras palabras, $x’$ tiene más de $n-m$ entradas iguales a cero.

La importancia de las soluciones básicas factibles y no degeneradas es que cumplen las siguientes:

  1. Se puede mostrar que si un problema de programación lineal tiene óptimo, entonces dicho óptimo se alcanza para alguna solución básica factible y no degenerada.
  2. Las soluciones básicas factibles y no degeneradas se pueden encontrar resolviendo sistemas de ecuaciones.
  3. Geométricamente, las soluciones básicas factibles y no degeneradas están en puntos extremos dentro de la región de factibilidad.

A continuación explicaremos algunos de estos puntos con un ejemplo detallado, que te ayudará a entender la intuición detrás de estas definiciones y de su importancia.

Ejemplos de región de factibilidad y tipos de solución

Consideremos el siguiente problema de programación lineal en su forma canónica:

\begin{align*}
Max. \quad z &= 2x_1 + 3x_2\\
s.a.&\\
&\begin{matrix}2x_1 &+ x_2 &\leq & 4\\
x_1 &+ 2x_2 &\leq &5\end{matrix}\\
&x_1, x_2 \geq 0.
\end{align*}

La región de factibilidad es el conjunto de todos los $(x_1,x_2)$ (en el plano $\mathbb{R}^2$) que cumplen las restricciones del problema, es decir, $2x_1 + x_2 \leq 4$, $x_1 + 2x_2 \leq 5$ y $x_1,x_2 \geq 0$. Para entender esto mejor, vamos a ilustrar cada restricción en $\mathbb{R}^2$ a continuación :

Región 1: La región $x_1\geq 0$, que son todos los elementos de $\mathbb{R}^2$ que se encuentran a la derecha del eje $Y$ incluyéndolo:

Región 2: La región $x_2\geq 0$, que son todos los elementos de $\mathbb{R}^2$ que se encuentran arriba del eje $X$ incluyéndolo:

Región 3: La región $2x_1 + x_2 \leq 4$, que son los elementos en $\mathbb{R}^2$ que están debajo de la recta $2x_1+x_2=4$ incluyéndola:

Región 4: La región $x_1+2x_2\leq 5$, que son los elementos en $\mathbb{R}^2$ que están debajo de la recta $x_1+2x_2=5$ incluyéndola:

Como queremos que se cumplan todas las restricciones al mismo tiempo, los puntos $(x_1,x_2) \in \mathbb{R}^2$ de la región de factibilidad que se encuentren en todas las regiones al mismo tiempo, es decir, los puntos que estén en la intersección. Al sobreponer las regiones que acabamos de ilustrar, obtenemos la región encerrada en la siguiente figura:

También puedes explorar el interactivo de Geogebra en donde se han coloreado los complementos de las regiones para más claridad. Puedes usar el cursor para mover la figura y las herramientas de lupa para hacer acercamientos y alejamientos.

Como hemos mencionado, el óptimo de un problema de programación lineal es una solución básica factible no degenerada y toda solución básica factible no degenerada se encuentra en algún vértice de la región de factibilidad. Entonces, el valor máximo de la función $2x_1+3x_2$ se alcanza en alguno de los vértices del polígono que es la región factible. Veamos dónde el álgebra nos dice esto.

Para ello, pensemos al problema en su forma estándar, tomando variables de holgura $s_1$ y $s_2$. Las restricciones que tienen las cuatro variables en conjunto son las siguientes.

\begin{align*}
2x_1 + x_2 + s_1 &= 4\\
x_1 + 2x_2 + s_2 &= 5\\
x_1, x_2, s_1, s_2 &\geq 0.
\end{align*}

La matriz $A’$ es $\begin{pmatrix}2 & 1 & 1 & 0 \\ 1 & 2 & 0 & 1 \end{pmatrix}$, que, se puede verificar, tiene rango $2$. Las soluciones básicas y no degeneradas corresponden a tener en ese sistema de ecuaciones exactamente $m=2$ variables positivas, de manera que necesitamos hacer exactamente $n-m=4-2=2$ de estas variables iguales a cero. Al hacer esto, podemos resolver para las $m=2$ variables restantes. Por ejemplo, si establecemos $x_1 = 0$ y $x_2 = 0$, las ecuaciones se convierten en:

\begin{align*}
s_1 = 4\\
s_2 = 5\\
x_1, x_2, s_1, s_2 \geq 0,
\end{align*}

que tiene solución única $(x_1,x_2,s_1,s_2)=(0,0,4,5)$. Así, la solución básica del problema en forma canónica es $(x_1,x_2)=(0,0)$. Hay que recordar la solución básica sólo para las variables originales, es decir, las del problema en forma canónica.

Esta solución corresponde al punto $A$ del interactivo de GeoGebra. Se puede determinar otra solución básica fijando $s_1 = 0$ y $s_2 = 0$, donde el sistema sería ahora

\begin{align*}
2x_1 + x_2 = 4\\
x_1 + 2x_2 = 5\\
x_1, x_2, s_1, s_2 \geq 0,
\end{align*}

Resolvamos este sistema de ecuaciones de forma rápida. Si multiplicamos la segunda ecuación por un $-2$ y sumamos ambas ecuaciones, la variable $x_1$ se eliminará y tendremos solo una ecuación: $-3x_2 = -6$ lo que es equivalente a $x_2 = 2$. Si sustituimos ahora este valor para $x_2$ en cualquiera de las ecuaciones, tras unos simples despejes tendremos que $x_1 = 1$.

Así, la solución básica que se obtiene es $(x_1,x_2)=(1,2)$, que es el punto $D$ del interactivo de GeoGebra.

Si seguimos considerando todas las posibilidades en las que dos variables son cero y resolvemos los ssistemas de ecuaciones resultantes, eso nos dará todas soluciones básicas no degeneradas. La solución óptima es la solución básica factible (punto extremo) con el mejor valor objetivo.

En este ejemplo tenemos $\binom{4}{2} = \frac{4!}{2!2!} = 6$ formas de volver dos de las $n$ variables iguales a cero. Ya para las variables $x_1$ y $x_2$, los puntos que obtenemos son los puntos $A$, $B$, $C$, $D$ que son puntos extremos de la región de factibilidad. Los puntos $E$ y $F$ del interactivo también son puntos básicos y no degenerados (son las otras dos intersecciones de las rectas que dibujamos), pero como no satisfacen la condición de factibilidad del problema, entonces no los podemos considerar y por lo tanto no son candidatos a dar el valor óptimo.

La siguiente tabla muestra todas las soluciones básicas factibles y no factibles de este problema:

Variables no básicas (cero)Variables básicasSolución para $(x_1,x_2)$Punto de extremo asociado¿Factible?Valor objetivo z
$(x_1, x_2) = (0,0)$$(s_1, s_2) = (4,5)$$(0, 0)$A0
$(x_1, s_1) = (0,0)$$(x_2, s_2) = (4,-3)$$(0, 4)$ENo ya que $s_2 < 0$12 (No factible)
$(x_1, s_2) = (0,0)$$(x_2, s_1) = (2.5,1.5) $$(0, 2.5)$B7.5
$(x_2, s_1) = (0,0)$$(x_1, s_2) = (2,3)$$(2, 0)$C4
$(x_2, s_2) = (0,0)$$(x_1, s_1) = (5, -6)$$(5, 0)$FNo ya que
$s_1 < 0$
10 (No factible)
$(s_1, s_2) = (0,0)$$(x_1, x_2) = (1,2)$$(1, 2)$D8 (óptimo)

Más adelante…

Notemos que a medida que el tamaño del problema se incrementa, enumerar todos los puntos esquina se volverá una tarea que tomaría mucho tiempo. Por ejemplo, si tuviéramos $20$ variables (ya con las de holgura) y $10$ restricciones, es necesario resolver considerar $\binom{20}{10}=184756$ formas de crear ecuaciones de $10\times 10$, y resolver cada una de ellas. Aunque esto es finito, son demasiadas operaciones. Y este en la práctica incluso es un ejemplo pequeño, ya que en la vida real hay problemas lineales que pueden incluir miles de variables y restricciones.

Por ello, se vuelve cruciar encontrar un método que atenúe esta carga computacional en forma drástica, que permita investigar sólo un subconjunto de todas las posibles soluciones factibles básicas no degeneradas (vértices de la región de factibilidad), pero que garantice encontrar el óptimo. Una idea intuitiva que debería servir es comenzar en un vértice y «avanzar en una dirección que mejore la función objetivo». Esto precisamente es la intuición detrás del método simplex, que repasaremos a continuación.

Tarea moral

  1. Considera el siguiente problema lineal en su forma canónica:

\begin{align*}
Min \quad z &= 2x_1 + 3x_2 \\
s.a.&\\
&\begin{matrix}x_1 &+ 3x_2 &\geq&6\\
3x_1 &+ 2x_2 &\geq &6\end{matrix}\\
&x_1, x_2 \geq 0.
\end{align*}

Usa el procedimiento descrito arriba para encontrar todas sus soluciones básicas no degeneradas y encontrar el óptimo del problema.

  1. Considera un problema de optimización lineal en dos variables $x$ y $y$, en forma canónica y con $m$ restricciones (desigualdades), además de las restricciones $x\geq 0$ y $y\geq 0$. Explica por qué la región de factibilidad siempre es un polígono con a lo más $m+2$ lados, y por qué entonces basta evaluar la función objetivo en a lo más $m+2$ puntos para encontrar su máximo.
  2. ¿Cómo se vería la región de factibilidad de un problema de optimización lineal de maximización que no tenga máximo? Explica todas las posibilidades y da ejemplos.
  3. Intenta usar las ideas de esta entrada para resolver los problemas de optimización lineal clásicos que hemos descrito en entradas anteriores.

Respuestas

1.- Primero vamos a cambiar este problema a su forma estándar.

Definamos variables de holgura no negativas $s_1$ y $s_2$ tales que $x_1 + 3x_2 – s_1 = 6$ y $3x_1 +2x_2 – s_2 = 6$.

Entonces la forma estandar del problema sería de la siguiente manera:

\begin{align*}
Min \quad z &= 2x_1 + 3x_2 \\
s.a.&\\
&\begin{matrix}x_1 &+ 3x_2 &- s_1 = &6\\
3x_1 &+ 2x_2 &- s_2 = &6\end{matrix}\\
&x_1, x_2, s_1, s_2 \geq 0.
\end{align*}

Su matriz A’ asociado a las restricciones $\begin{pmatrix}1 & 3 & -1 & 0 \\ 3 & 2 & 0 & -1 \end{pmatrix}$ en una matriz de $2 \times 4$. Las soluciones básicas no degeneradas $x’$ en $\mathbb{R}^4$ tienen $4-2 = 2$ entradas iguales a 0.

Variables no básicas (cero)Variables básicasSolución para $(x_1,x_2)$Punto de extremo asociado¿Factible?Valor objetivo z
$(x_1, x_2) = (0,0)$$(s_1, s_2) = (-6,-6)$$(0, 0)$ANo ya que $s_1,s_2 < 0$0
$(x_1, s_1) = (0,0)$$(x_2, s_2) = (2,-2)$$(0, 2)$BNo ya que $s_2 < 0$6 (No factible)
$(x_1, s_2) = (0,0)$$(x_2, s_1) = (3,3)$$(0, 3)$C9
$(x_2, s_1) = (0,0)$$(x_1, s_2) = (6, 12) $$(6, 0)$D12
$(x_2, s_2) = (0,0)$$(x_1, s_1) = (2,-4)$$(2, 0)$ENo ya que
$s_1 < 0$
4 (No factible)
$(s_1, s_2) = (0,0)$$(x_1, x_2) = (6/7,12/7)$$(6/7,12/7)$F48/7 = 6 + 6/7 (óptimo)

Por lo que el óptimo se encuentra en el punto F = (6/7, 12/7).

2.-

Entradas relacionadas

Completación de un espacio métrico

Por Lizbeth Fernández Villegas

$ \textit{ MATERIAL EN REVISIÓN}$

Introducción

En secciones anteriores vimos que las sucesiones de Cauchy no siempre son convergentes en un espacio métrico, pero cuando todas lo son decimos que el espacio es completo.

Si tenemos un espacio que no es completo, intuitivamente podemos pensar en agregar puntos a los que las sucesiones de Cauchy converjan, produciendo así, un espacio métrico más grande que sí sea completo. Habrá que tener cuidado en definir adecuadamente las distancias con los nuevos elementos. Podríamos preguntarnos entonces si dicha completación es posible, y más aún, si es única.

Comencemos con la siguiente:

Definición. Completación de un espacio métrico. Sea $(X,d)$ un espacio métrico. Diremos que un espacio métrico completo $(X^*,d^*)$ es una completación del espacio $X$ si cumple que:

  1. $X$ es subespacio métrico de $X^*.$ Así $d$ es la métrica restringida en $X.$
  2. $X$ es denso en $X^*,$ es decir $\overline{X}=X^*.$
$\mathbb{R}$ con la métrica usual es completación del subespacio $\mathbb{Q}$ con la distancia usual.

Ejemplo: El espacio métrico $(\mathbb{R},|\cdot|)$ es una completación de $(\mathbb{Q},|\cdot|).$

Proposición. Todo espacio métrico $(X,d)$ tiene una completación y esta completación es única, salvo una aplicación isométrica que envía los puntos de $X$ en sí mismos. (Aquí vimos la definición de isometría).

Prueba unicidad

Considera $X$ un espacio métrico y dos completaciones $(X^*,d^*)$ y $(X^{**},d^{**})$ de este espacio. Para probar que son iguales salvo isometrías debemos demostrar que existe una isometría biyectiva entre ambas completaciones. La isometría se construye como sigue:

Sea $x^* \in X^*,$ como $X^*$ es completación de $X$ entonces, de acuerdo con la definición $\overline{X}=X^*,$ en consecuencia $x^* \in \overline{X}$ y existe una sucesión $(x_n)_{n \in \mathbb{N}} \,$ de puntos en $X,$ que converge a $x^*.$ (Resultado visto en Convergencia). Nota que la convergencia permite concluir que $(x_n)$ es de Cauchy en $X^*$ (pues $X \subset X^*$) y por tanto también lo es en $X,$ debido a que la completación debe preservar las distancias para cualesquiera dos puntos de $X.$

$(x_n)_{n \in \mathbb{N}} \,$ es de Cauchy en $X \subset X^*$ y converge a $x^*$ en $X^*.$

Como también $X \subset X^{**}$ se sigue que los términos de $(x_n)$ también pertenecen a $X^{**}$ que, al ser completo, implica que $x_n \to x^{**}$ para algún $x^{**} \in X^{**},$ (pues si la sucesión es de Cauchy en $X$ también lo es en la completación $X^{**}$).

La misma sucesión $(x_n)_{n \in \mathbb{N}} \,$ converge también en algún punto $x^{**}$ en $X^{**}.$

Afirmación: El punto $x^{**}$ no depende de la sucesión elegida $(x_n)$ que converge en $x^*.$ Esto es, cualquier otra que también converja en $x^*$ en el espacio $X^*,$ igualmente convergerá a $x^{**}$ en el espacio $X^{**}.$ ¿Por qué? $\textcolor{orange}{\text{(Ejercicio como tarea moral).}}$
Para cada $x^* \in X^*$ sea $\phi(x^*)=x^{**}.$ Demostraremos que $\phi$ es la isometría buscada:

Se cumple que para todo $x \in X, \, \phi(x)=x.$ ¿Por qué? $\textcolor{orange}{\text{(Ejercicio como tarea moral).}}$ Por otra parte, si suponemos que tenemos sucesiones $(x_n), (y_n)$ cuyos términos están en $X,$ tales que:

$x_n \to x^*$ en $X^*\, $ y $\, x_n \to x^{**}$ en $X^{**};$
$y_n \to y^*$ en $X^*\, $ y $\, y_n \to y^{**}$ en $X^{**}$

entonces:

$d^*(x^*,y^*)=\underset{n \to \infty}{lim}\, d^*(x_n,y_n)=\underset{n \to \infty}{lim}\, d(x_n,y_n)$

así mismo

$d^{**}(x^{**},y^{**})=\underset{n \to \infty}{lim}\, d^{**}(x_n,y_n)=\underset{n \to \infty}{lim}\, d(x_n,y_n)$ ¿Por qué? $\textcolor{orange}{\text{(Ejercicio como tarea moral).}}$

Por lo tanto,

\begin{align*}
d^*(x^*,y^*)&=d^{**}(x^{**},y^{**})\\
&=d^{**}(\phi(x^*),\phi(y^*)).
\end{align*}

Lo cual demuestra que $\phi$ es una isometría. ¿Por qué se le puede considerar biyectiva? $\textcolor{orange}{\text{(Ejercicio como tarea moral).}}$

Prueba existencia

Antes de probar la existencia veamos la siguiente:

Definición. Sucesiones equivalentes. Sean $(x_n)_{n \in \mathbb{N}}\,$ y $\,(x’_n)_{n \in \mathbb{N}} \,$ sucesiones de Cauchy en el espacio métrico $X.$ Si ocurre que $\underset{n \to \infty}{lim} \, d(x_n,x’_n)=0$ diremos que las sucesiones son equivalentes y lo denotaremos como:
$$(x_n)\sim (x’_n)$$

Dos sucesiones equivalentes se acercan conforme $n \to \infty.$

Se deja como $\textcolor{orange}{\text{ejercicio como tarea moral}}$ probar que esta relación es de equivalencia (reflexiva, simétrica y transitiva). Para recordar, te recomendamos visitar Álgebra Superior I: Relaciones de equivalencia y clases de equivalencia.

Con esto se define un conjunto de clases de equivalencia, agrupando según la relación, las sucesiones de Cauchy en $X.$ Veremos que es una completación de $X.$ Probablemente esto cause confusión en este momento, pues mientras $X$ es un conjunto de puntos, la completación que proponemos tiene como elementos conjuntos de sucesiones de Cauchy. No obstante, aunque el tipo de elementos entre ambos conjuntos parezcan muy diferentes, en las próximas líneas veremos que la magia de la isometría admitirá considerarlos equivalentes.

Espacio $X$ y espacio de clases de equivalencia.

Sean $[(x_n)] \,$ y $\, [(y_n)]$ dos clases de equivalencia y sean $(x_n)$ y $(y_n)$, respectivamente, representantes de clase. Definimos la distancia entre ambas clases como:
$$d^*([(x_n)],[(y_n)])=\underset{n \to \infty}{lim} \, d(x_n,y_n).$$

Entonces se considera la distancia entre un término de la sucesión $(x_n)$ y el término correspondiente en $(y_n).$ Hablar de que existe el límite de las distancias cuando $n \to \infty$ indica que en algún momento, la distancia entre pares de términos se estabiliza.

Representación distancia entre clases.

Por supuesto que habrá que demostrar que este límite existe y que esta distancia es invariante, no depende del representante de clase elegido en cada clase de equivalencia.

Probemos primero que la sucesión dada por $(d(x_n,y_n))_{n \in \mathbb{N}} \,$ es convergente en $\mathbb{R}.$ Bastará con demostrar que es de Cauchy.

Sea $\varepsilon >0.$ Como $(x_n),(y_n)$ son de Cauchy, existen $N_1$ y $N_2 \in \mathbb{N}$ tales que

\begin{align}
\text{si } \, n,m \geq N_1 \text{ entonces } d(x_n,x_m) < \dfrac{\varepsilon}{2}\\
\text{si } \, n,m \geq N_2 \text{ entonces } d(y_n,y_m) < \dfrac{\varepsilon}{2}.
\end{align}

Sea $N=\text{máx} \, \{N_1,N_2\}.$ Se sigue que para todo $ \, n,m \geq N$ se cumple que:
\begin{align*}
|d(x_n,y_n)-d(x_m,y_m)|&=|d(x_n,y_n) \textcolor{magenta}{- d(x_n,y_m)+ d(x_n,y_m)}-d(x_m,y_m)| &\textcolor{gray}{\text{(sumando un cero estratégico)}}\\
&\leq |d(x_n,y_n)- d(x_n,y_m)|+ |d(x_n,y_m)-d(x_m,y_m)| &\textcolor{gray}{\text{(desigualdad del triángulo)}}
\end{align*}

Es sencillo probar que si $u,v,w$ son elementos de un espacio métrico $(Y,d_Y)$ se satisface que

\begin{align}
|d_Y(u,v)-d_Y(u,w)|\leq d_Y(v,w). \, \textcolor{orange}{\text{ (Ejercicio como tarea moral).}}
\end{align}

Con este resultado es posible continuar con la cadena de igualdades:

\begin{align*}
|d(x_n,y_n)- d(x_n,y_m)|+ |d(x_n,y_m)-d(x_m,y_m)|&\leq d(y_n,y_m) + d(x_n,x_m) \\
&< \frac{\varepsilon}{2}+ \frac{\varepsilon}{2} &\textcolor{gray}{\text{(desigualdades (1) y (2) )}}\\
&= \varepsilon
\end{align*}

Entonces la sucesión $(d(x_n,y_n))_{n \in \mathbb{N}} \,$ es de Cauchy en $\mathbb{R}$ y converge cuando $n \to \infty.$

Ahora demostremos que la distancia entre clases no depende del representante elegido. Sean $(x_n) \sim (x’_n)$ y sean $(y_n) \sim (y’_n).$ En efecto
$$d^*([(x_n)],[(y_n)])\, \textbf{=} \, d^*([(x’_n)],[(y’_n)])$$
pues al calcular la diferencia entre estas magnitudes tenemos:

\begin{align*}
|d^*([(x_n)],[(y_n)]) \, \textbf{-} \, d^*([(x’_n)],[(y’_n)])|&=|\underset{n \to \infty}{lim} \, d(x_n,y_n)-\underset{n \to \infty}{lim} \,d(x’_n,y’_n)| &\textcolor{gray}{\text{(por definición)}}\\
&=|\underset{n \to \infty}{lim} \, (d(x_n,y_n)- \,d(x’_n,y’_n))| &\textcolor{gray}{\text{(propiedad de límites)}}\\
&=|\underset{n \to \infty}{lim}(d(x_n,y_n)\textcolor{magenta}{- d(x_n,y’_n)+ d(x_n,y’_n)}-d(x’_n,y’_n))|&\textcolor{gray}{\text{(sumando un cero estratégico)}} \\
&=|\underset{\textcolor{ForestGreen}{n \to \infty}}{\textcolor{ForestGreen}{lim}}(d(x_n,y_n)- d(x_n,y’_n))+ \underset{\textcolor{RoyalBlue}{n \to \infty}}{\textcolor{RoyalBlue}{lim}}(d(x_n,y’_n)-d(x’_n,y’_n))| &\textcolor{gray}{\text{(propiedad de límites)}}\\
&\leq |\underset{\textcolor{ForestGreen}{n \to \infty}}{\textcolor{ForestGreen}{lim}} (d(x_n,y_n)- d(x_n,y’_n))| + |\underset{\textcolor{RoyalBlue}{n \to \infty}}{\textcolor{RoyalBlue}{lim}} (d(x_n,y’_n)-d(x’_n,y’_n))| &\textcolor{gray}{\text{(desigualdad del triángulo)}}\\
&\leq \underset{\textcolor{ForestGreen}{n \to \infty}}{\textcolor{ForestGreen}{lim}} |(d(x_n,y_n)- d(x_n,y’_n))| + \underset{\textcolor{RoyalBlue}{n \to \infty}}{\textcolor{RoyalBlue}{lim}} |(d(x_n,y’_n)-d(x’_n,y’_n))| &\textcolor{gray}{\text{(propiedad de límites y $|\cdot|$)}}\\
&\leq \underset{\textcolor{ForestGreen}{n \to \infty}}{\textcolor{ForestGreen}{lim}} d(y_n,y’_n) + \underset{\textcolor{RoyalBlue}{n \to \infty}}{\textcolor{RoyalBlue}{lim}} d(x_n,x’_n) &\textcolor{gray}{\text{(desigualdad (3) )}}\\
&= 0+0 &\textcolor{gray}{\text{(por ser sucesiones equivalentes)}}\\
&= 0
\end{align*}

Por lo tanto la distancia entre clases está bien definida.

El conjunto de clases de equivalencias de sucesiones es un espacio métrico

Sean $[(x_n)], [(y_n)], [(z_n)]$ clases de equivalencia de la relación descrita arriba. Se satisfacen los axiomas:

  1. $d^*([(x_n)], [(y_n)])=0$ si y solo si $[(x_n)]= [(y_n)]$
  2. $d^*([(x_n)], [(y_n)])=d^*([(y_n)], [(x_n)])$
  3. $d^*([(x_n)], [(y_n)]) \leq d^*([(x_n)], [(z_n)]) +d^*([(z_n)], [(y_n)])$

Dejaremos como $\textcolor{orange}{\text{ejercicio como tarea moral}}$ probar $1)$ y $2)$
Para probar $3)$ partimos de tomar representantes de clase $(x_n) \in [(x_n)], \, (y_n) \in [(y_n)] \text{ y } \,(z_n) \in [(z_n)].$ Lo siguiente es consecuencia de la desigualdad del triángulo en $d$ y la distancia entre clases definida.

\begin{align*}
&&d(x_n,y_n) &\leq d(x_n,z_n) + d(z_n,y_n)\\
&\Rightarrow & \underset{n \to \infty}{lim}d(x_n,y_n) &\leq \underset{n \to \infty}{lim}d(x_n,z_n) + \underset{n \to \infty}{lim}d(z_n,y_n)\\
&\Rightarrow& d^*([(x_n)], [(y_n)]) &\leq d^*([(x_n)], [(z_n)]) +d^*([(z_n)], [(y_n)]).
\end{align*}

Que es lo que queríamos demostrar.

Representación de la partición creada por la relación $\sim.$

En el dibujo cada clase de equivalencia está representada por sucesiones de colores similares. Al ser de Cauchy y tener distancias entre ellas que “se reducen a cero” podemos pensar en que todas las sucesiones de una clase convergen a un punto del espacio $X$ cuando de hecho son convergentes;

o bien, si no convergen en $X$ lo harán en un punto “afuerita” de $X,$ (en la cerradura respecto al espacio completo que lo contiene). Esta misma idea nos deja imaginar la distancia entre clases como la distancia entre esos “puntos de convergencia.”

El conjunto de clases de equivalencia es una completación de $X$

Sea $X^*$ el conjunto de clases de equivalencia de sucesiones de Cauchy en $X.$ Definimos $\phi:X \to X^*$ tal que para cada punto $x \in X, \,$ $\phi(x)$ es la clase de sucesiones de Cauchy que convengen en $x.$

Representación $\phi:X \to X^*.$

Sean $x,y \in X$ y dos sucesiones $(x_n), (y_n)$ en $X$ tales que:
$$\underset{n \to \infty}{lim}x_n=x \, \text{ y } \, \underset{n \to \infty}{lim}y_n =y.$$
Entonces se cumple que:
\begin{align*}
d(x,y)&=\underset{n \to \infty}{lim}d(x_n,y_n) &\textcolor{orange}{\text{(ejercicio)}}\\
&=d^*([(x_n)], [(y_n)]).
\end{align*}

Distancia entre puntos en $X$ y distancia entre términos de sucesiones que convergen en ellos.

Por lo tanto $\phi$ es una isometría entre $X$ y $X^*.$

Ahora que podemos considerar a $X$ como $\phi(X),$ demostremos que $\overline{\phi(X)}=X^*.$ En consecuencia, el espacio métrico $(X^*, d^*)$ será isométrico al espacio métrico $(\overline{\phi(X)}, d^*).$

Sea $[(x_n)] \in X^*$ y sea $\varepsilon>0.$
Buscamos demostrar que existe un elemento de $\phi(X)$ en la bola de radio $\varepsilon$ con centro en $[(x_n)],$ es decir, que su distancia a $[(x_n)]$ sea menor que $\varepsilon.$

Sea $(x_n)$ un representante de clase de $[(x_n)].$ Como es de Cauchy, existe $N \in \mathbb{N}$ tal que para todo $ \, n,m \geq N$ se cumple que
$$d(x_n,x_m)< \varepsilon.$$

Representación de $d^*([(x_N)],[(x_n)]).$

Entonces si consideramos la sucesión constante $(x_N),$ donde todos sus términos son $x_N,$ se sigue:
$$d^*([(x_N)],[(x_n)])= \underset{k \to \infty}{lim} \, d(x_N,x_k)< \varepsilon$$
Lo cual demuestra que $[(x_N)] \in \phi(X)$ está en la bola de radio $\varepsilon$ con centro en $[(x_n)].$ Por lo tanto $\overline{\phi(X)}$ es denso en $X^*.$

$X^*$ es completo

Sea $(x_n)_{n \in \mathbb{N}} \,$ una sucesión de Cauchy en $X^*.$ Si todos los términos de la sucesión están en $\phi(X)$ entonces los elementos de cada una de las clases, términos de $(x_n),$ converge en puntos de $X$ que a su vez forman una sucesión de Cauchy en $X.$

Representación de sucesión $(x_n)_{n \in \mathbb{N}} \,$ en $X^*$ y en $X.$

Luego, por cómo fue construido $X^*,$ la sucesión converge a su clase de equivalencia $[(x_n)]$ en $X^*.$
En el caso general, si la sucesión en $X^*$ es de la forma $(x^*_n)_{n \in \mathbb{N}} \,$ donde cada $(x^*_n)$ es una clase de equivalencia que no necesariamente tiene una sucesión constante de puntos en $X$, dada la densidad de $X$ (visto como $\phi(X)),$ para cada $n \in \mathbb{N}$ es posible elegir $x_n \in X$ tal que $x_n \in B(x^*_n,\frac{1}{n}).$ Queda como $\textcolor{orange}{\text{ ejercicio }}$ argumentar que la sucesión $(x_n)$ es de Cauchy y por tanto, vista como sucesión de clases, converge a algún $x^* \in X^*.$ $\textcolor{orange}{\text{ Argumenta también }}$ por qué podemos concluir que $(x^*_n)$ también converge a $x^*.$

Con esto queda demostrada la proposición.

Más adelante…

Seguiremos trabajando con la convergencia de sucesiones, pero ahora tendrán, como términos, los valores asignados en un punto por una sucesión de funciones. Hablaremos de los valores a los que una sucesión de funciones converge y veremos los términos de límite puntual y límite uniforme.

Tarea moral

  1. Argumenta los detalles que quedaron pendientes en la demostración de la completación de un espacio métrico.

Bibliografía

Enlaces