Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Superior I: Traza de matrices y propiedades

Por Eduardo García Caballero

Introducción

En esta entrada conoceremos una nueva operación que se puede aplicar a matrices: la traza. Esta operación a primera vista parece bastante sencilla, pero no por eso es menos importante; en futuros cursos conocerás cómo se relaciona estrechamente con otros conceptos matemáticos y sus aplicaciones.

Traza

Definimos la traza de una matriz cuadrada como la suma de los elementos de su diagonal. Es importante destacar que únicament ele aplicaremos la operación de traza a matrices cuadradas pues más adelante las propiedades que nos interesarán requieren de esta condición.

Por ejemplo, las trazas de las matrices
\[
A=
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
\]
son, respectivamente,
\[
\operatorname{tr}(A)
=
\operatorname{tr}
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
=
4+ (-6)
=
-2
\]
y
\[
\operatorname{tr}(B)
=
\operatorname{tr}
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
=
1 + 5 + (-5) = 1.
\]

Propiedades de la traza

La traza cumple un par de propiedades importantes con respecto a otras operaciones que definimos anteriormente. Para la prueba de estas propiedades consideraremos matrices de tamaño $2 \times 2$, pero fácilmente podrás probarlo para cualquier otro tamaño de matrices cuadradas.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que la traza se distribuye con respecto a la suma; es decir,
\begin{align*}
\operatorname{tr}(A+B)
&=
\operatorname{tr}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} \\
a_{21}+b_{21} & a_{22}+b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}+b_{11}) + (a_{22}+b_{22})
\\[5pt]
&=
(a_{11} + a_{22}) + (b_{11}+b_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\operatorname{tr}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(A) + \operatorname{tr}(B).
\end{align*}

Además, la traza saca escalares; es decir, para cualquier escalar $r$ se cumple que
\begin{align*}
\operatorname{tr}(rA)
&=
\operatorname{tr}
\left(
r
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
ra_{11} & ra_{12} \\
ra_{21} & ra_{22}
\end{pmatrix}
\\[5pt]
&=
ra_{11} + ra_{22}
\\[5pt]
&=
r(a_{11} + a_{22})
\\[5pt]
&=
r
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\\[5pt]
&=
r\operatorname{tr}(A).
\end{align*}

Problemas

Trabajemos con algunos problemas en los cuales aparece la traza:

Problema. Demuestra que para matrices $A$ y $B$ de $2 \times 2$ se cumple que $\operatorname{tr}(AB) = \operatorname{tr}(BA)$.

Solución. Lo demostraremos directamente por la definición de traza.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que
\begin{align*}
\operatorname{tr}(AB)
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21}) + (a_{21}b_{12} + a_{22}b_{22})
\\[5pt]
&=
(b_{11}a_{11} + b_{12}a_{21}) + (b_{21}a_{12} + b_{22}a_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
b_{11}a_{11} + b_{12}a_{21} & b_{11}a_{12} + b_{12}a_{22} \\
b_{21}a_{11} + b_{22}a_{21} & b_{21}a_{12} + b_{22}a_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(BA).
\end{align*}

$\square$

Problema. ¿Para qué matrices de $2 \times 2$ se tiene que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$?

Solución. Consideremos la matriz de $2 \times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}.
\]

Calculamos
\[
\operatorname{tr}(A^2)
=
\operatorname{tr}
\begin{pmatrix}
a^2 + bc & ab + bd \\
ac + cd & bc + d^2
\end{pmatrix}
=
(a^2+bc)+(bc+d^2) = a^2 + 2bc + d^2
\]
y
\[
(\operatorname{tr}(A))^2
=
(a + d)^2
=
a^2 + 2ad + d^2.
\]

Entonces, notamos que
\[
\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2
\]
si y sólo si
\[
a^2 + 2bc + d^2 = a^2 + 2ad + d^2,
\]
lo cual se cumple si y sólo si
\[
bc = ad.
\]

Entonces, las matrices de $2\times 2$ que cumplen que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$ son aquellas de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tales que $bc = ad$. ¿Podrías dar un ejemplo de una matriz que cumpla esto?

$\square$

Nota. El hecho de que la matriz $A$ anterior cumpla que $bc = ad$ equivale a que $ac – bd = 0$, y esto equivale, como verás en la siguiente entrada, a que “el determinante de $A$ sea cero”.

Más adelante…

En esta entrada aprendimos la definición de traza y vimos algunas de sus propiedades.

Además, en el problema 2, mencionamos un concepto que hasta ahora no hemos visto. En la siguiente entrada conoceremos una de las operaciones más importantes que se pueden aplicar a matrices cuadradas: el determinante.

Tarea moral

  1. Encuenta la traza de las siguientes matrices:
    \[
    \begin{pmatrix}
    3 & 4 \\
    5 & 6
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    \sqrt{2} & 3/\sqrt{2} \\
    \sqrt{3} & \sqrt{6}
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    2x & 9y \\
    4y & -5x
    \end{pmatrix},
    \]
    \[
    \begin{pmatrix}
    1 & 2 & 1 \\
    1 & -3 & 4 \\
    -1 & 0 & 4
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    -3 & 2 & 4 \\
    -4 & 2 & 4 \\
    1 & -1 & 1
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    a & b & c \\
    d & e & f \\
    1 & 2 & 3
    \end{pmatrix}.
    \]
  2. Demuestra que $\text{tr}(AB)=\text{tr}(BA)$ para matrices $A$ y $B$ de $3\times 3$. Intenta también hacerlo para matrices de $n\times n$.
  3. Determina si el siguiente enunciado es verdadero o falso. Si $A$ y $B$ son matrices de $2\times 2$ tales que $\text{tr}(A)=\text{tr}(B)$ y $\text{tr}(A^2)=\text{tr}(B^2)$, entonces $A=B$.
  4. ¿Será cierto que la traza es multiplicativa? Es decir, ¿para cualesquiera matrices $A$ y $B$ se cumple que $\text{tr}(AB)=\text{tr}(A)\text{tr}(B)$?
  5. Sea $A$ una matriz de $2\times 2$. Demuestra que $\text{tr}(AA^T)$ siempre es un número real mayor o igual que cero. ¿Es cierto esto mismo si la matriz es de $3\times 3$? ¿Es cierto siempre que $\text{tr}(A^2)$ es un número mayor o igual a cero?

Entradas relacionadas

Álgebra Superior I: Reducción de Gauss-Jordan

Por Eduardo García Caballero

Introducción

En la entrada anterior vimos que los sistemas de ecuaciones se encuentran íntimamente relacionados con los vectores y las matrices. Teniendo esto en cuenta, en esta entrada abordaremos una estrategia que nos permitirá encontrar soluciones de los sistemas de ecuaciones lineales.

Operaciones elementales por filas

Antes de pasar a describir el algoritmo con el cual podremos resolver un sistema de ecuaciones lineales, deberemos definir algunas operaciones y conceptos que nos ayudaran a efectuarlo. Empecemos con una lista de operaciones que se pueden aplicar a las matrices, las cuales son con conocidas como operaciones elementales por filas.

Para esto, consideremos una matriz
\[
A=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix},
\]
y veamos cómo la afecta cada una de estas operaciones.

La primera de estas operaciones es el reescalamiento. Esta operación consiste en seleccionar una fila de una matriz, y multiplicar cada una de las entradas de esta fila por un mismo número real distinto de cero. Por ejemplo, si reescalamos la tercera fila de $A$ por el número $-3$, obtendremos la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
(-3)(-1/3) & (-3)(4) & (-3)(0) \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
1& -12 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Otra operación que podemos aplicar a las matrices es la trasposición, la cual consiste en intercambiar el contenido de dos filas distintas. Por ejemplo, si transponemos las filas 2 y 4 de $A$, el resultado será la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
9 & -3 & 2/3 \\
-1/3 & 4 & 0 \\
\sqrt{2} & -1 & 2
\end{pmatrix}.
\]

La última de las operaciones que nos interesa es la transvección. Esta consiste en sumar el múltiplo de una fila (el resultado de multiplicar cada entrada de una fila por un mismo escalar) a otra fila (la suma se realiza entrada por entrada). Por ejemplo, si en $A$ realizamos la transvección que corresponde a “sumar 3/2 de la cuarta fila a la primera fila”, obtendremos la matriz
\[
\begin{pmatrix}
5 + (3/2)(9) & \pi+(3/2)(-3) & 3+(3/2)(2/3) \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
37/2 & -9/2+\pi & 4 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Si recuerdas, todos los sistemas de ecuaciones se pueden escribir como $Ax=b$. Las operaciones elementales son muy importantes por las siguientes dos razones:

  • Si aplicamos la misma operación elemental a $A$ y $b$ para obtener la matriz $A’$ y el vector $b’$, entonces $Ax=b$ y $A’x=b’$ tienen exactamente el mismo conjunto solución. Decimos que «las operaciones elementales no cambian las soluciones del sistema».
  • Usando operaciones elementales se puede llevar el sistema $Ax=b$ a un sistema mucho más sencillo $A_{red}x=b_{red}$ (que discutiremos más abajo). Entonces «las operaciones ayudan a simplificar un sistema de ecuaciones».

Juntando ambas observaciones, con operaciones elementales podemos llevar cualquier sistema de ecuaciones a uno mucho más sencillo y con el mismo conjunto solución.

Puedes intentar convencerte de la primera afirmación pensando en lo siguiente. En un reescalamiento de filas corresponde a multiplicar por una constante no nula ambos lados de una ecuación; la transposición corresponde a cambiar el orden en el que aparecen dos ecuaciones diferentes; mientras que la transvección corresponde a sumar un múltiplo de una ecuación a otra ecuación, y el sistema tiene las mismas soluciones pues, si un conjunto de valores es solución para dos ecuaciones, entonces es solución para cualquier combinación lineal de estas. En un curso de Álgebra Lineal I puedes encontrar las justificaciones con mucho más detalle.

En las siguientes secciones hablamos un poco más de la segunda afirmación.

Forma escalonada y escalonada reducida para una matriz

Además de las operaciones elementales por filas, es importante definir algunos conceptos.

Comencemos con el concepto de pivote: diremos que una entrada de una matriz es un pivote si es el primer elemento distinto de cero en una fila.

Diremos que una matriz se encuentra en forma escalonada si se cumple: 1. Todas las filas nulas se encuentran hasta abajo; 2. Todos los pivotes de filas no-nulas tienen valor 1; 3. El pivote de cada fila se encuentra la derecha del pivote de una fila superior. Es fácil identificar las matrices en forma escalonada porque parecen “estar en escalerita”. Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 9 & 1 & 1 \\
0 & 1 & 2 & 3 \\
0 & 0 & 1 & 1
\end{pmatrix}
\]
se encuentra en forma escalonada, mientras que las matrices
\[
\begin{pmatrix}
1 & 0 & 2 & 4 \\
0 & 0 & 9 & 2 \\
0 & 3 & 0 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 6 & 8 & -5 \\
0 & 0 & 0 & 0 \\
0 & 0 & 9 & 2
\end{pmatrix}
\]
no lo están. ¿Puedes justificar por qué?

Por su parte, diremos que una matriz se encuentra en forma escalonada reducida si está en forma escalonada y, además, si hay un pivote en alguna fila, todas las entradas que no sean pivote en la misma columna del pivote son iguales a $0$ (Ojo. Siempre hablamos de pivotes de renglones).

Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 0 & -1 & 0 \\
0 & 1 & 3 & 0 \\
0 & 0 & 0 & 1
\end{pmatrix}
\]
está en forma escalonada reducida.

Como recordarás de la entrada anterior, un sistema de ecuaciones lineales
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se puede codificar como
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Como podemos cambiar el nombre de las variables, pero el vector de soluciones sigue siendo el mismo, es común codificar el sistema como una única matriz aumentada
\[
\left(
\begin{matrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{matrix}
\
\middle|
\
\begin{matrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{matrix}
\right).
\]

Aquí pusimos una línea vertical, pero sólo es por ayuda visual. Esa matriz la puedes tratar como cualquier matriz que hemos platicado.

Teniendo esto en cuenta, las matrices en forma escalonada reducida nos son de gran utilidad al resolver sistemas de ecuaciones lineales. Por ejemplo, consideremos el sistema
\[
\begin{cases}
x + 3y + 2w &= 8 \\
z + w &= 9,
\end{cases}
\]
el cual tiene como matriz aumentada a
\[
\left(
\begin{matrix}
1 & 3 & 0 & 2 \\
0 & 0 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
8 \\
9
\end{matrix}
\right),
\]
la cual se encuentra en forma escalonada.

Gracias a que la matriz está en forma escalonada, podemos elegir en orden inverso $w$, $z$, $y$, $x$ a las variables libres y pivote como en la entrada anterior. En este caso, podemos elegir como queramos el valor de $w$ ($w$ es variable libre). Usando la segunda ecuación, podemos despejar $z$ en términos de $w$ ($z$ es variable pivote). Estos dos valores los sustituimos en la primera ecuación y notamos que $y$ puede ser lo que queramos ($y$ es variable libre). Finalmente, $x$ queda totalmente determinado por las demás variables ($x$ es pivote). Las variables pivote justo corresponden a columnas de la matriz que tengan pivote de alguna fila.

La ventaja de la forma escalonada es que podremos ir obteniendo fácilmente el valor de cada variable “de abajo hacia arriba”. En el caso de un sistema cuya matriz se encuentre en forma escalonada reducida, será aún más sencillo pues ya no tendremos que sustituir valores y obtenemos el despeje directamente.

Teorema de reducción de Gauss-Jordan

El siguiente teorema relaciona las operaciones elementales por filas con la forma escalonada reducida de una matriz.

Teorema (de reducción de Gauss-Jordan o reducción gaussiana). Cualquier matriz con entradas reales se puede a una forma escalonada reducida aplicando una cantidad finita de pasos.

A continuación presentamos un algoritmo con el cual podemos pasar de una matriz arbitraria a una matriz en su forma escalonada reducida. Para hacer más sencilla su aplicación, nos enfocaremos en comprender la estrategia que sigue el algoritmo. La descripción formal del algoritmo y demostración de que en efecto funciona como esperamos es un tema que abordarás en el curso de Álgebra Lineal I (puedes echarle un ojo a esta entrada).

Primeramente, describiremos los pasos del algoritmo, al que se le conoce como reducción de Gauss-Jordan o reducción gaussiana.

Estrategia: Iremos arreglando la matriz de izquierda a derecha. Para ello, haremos los siguientes pasos repetidamente.

  1. Buscamos la primera columna de la matriz (de izquierda a derecha) que no tenga puros ceros.
  2. Una vez encontrada dicha columna, buscamos la primera entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos la fila que contiene a dicha entrada hasta arriba mediante la operación de transposición.
  4. Multiplicamos cada entrada de la fila que acabamos de mover hasta arriba por el inverso multiplicativo de su primera entrada (aquí usamos la operación de reescalamiento). La primera entrada de esta fila ahora será 1.
  5. Mediante la operación de transvección, sustraemos múltiplos de la primera fila al resto de renglones de la matriz, de modo que el resto de los valores en la columna correspondiente a la primera entrada de la fila en la que estamos trabajando pasen a ser 0 (como puedes observar, la entrada primera entrada no-nula de la fila en la que estamos trabajando ahora será un pivote).
  6. Ignorando la primera fila, buscamos la primera columna (de izquierda a derecha) que no tenga puros ceros.
  7. Repetimos los pasos anteriores (2 a 6), pero ahora, en vez de mover la fila con la que estamos trabajando “hasta arriba”, la moveremos inmediatamente después de la última fila con la que trabajamos.
  8. Hacemos esto hasta haber arreglado todas las columnas.

Ejemplo de reducción de Gauss-Jordan

Ahora, como ejemplo, veamos cómo podemos implementar este algoritmo en la matriz
\[
\begin{pmatrix}
0 & 1 & 2 & 3 & 4 \\
-1 & 0 & 1 & 2 & 3 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
la cual, si la consideramos como la matriz aumentada
\[
\left(
\begin{matrix}
0 & 1 & 2 & 3 \\
-1 & 0 & 1 & 2 \\
3 & 1 & -1 & 0 \\
0 & 1 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
4 \\
3 \\
2 \\
1
\end{matrix}
\right),
\]
corresponde al sistema de ecuaciones
\[
\begin{cases}
y + 2z + 3w &= 4 \\
-x + z + 2w &= 2 \\
3x + y -z &= 0 \\
y + z + w &= 1.
\end{cases}
\]

Buscamos la primera la primera columna no nula, la cual resulta ser la primera columna de la matriz. En esta columna, vemos que la segunda entrada es la primera entrada distinta de cero. Entonces, mediante trasposicón, intercambiamos las filas 1 y 2 (“movemos la segunda columna hasta arriba”):
\[
\begin{pmatrix}
-1 & 0 & 1 & 2 & 3 \\
0 & 1 & 2 & 3& 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, nos fijamos en la primera entrada no nula de la primera fila, que es $-1$, y reescalamos la fila por su inverso multiplicativo, que es $-1$:
\[
\begin{pmatrix}
(-1)(-1) & (-1)(0) & (-1)(1) & (-1)(2) & (-1)(3) \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, observamos el valor de la primera entrada de la tercera fila, el cual es $3$. Entonces, mediante transvección, sumamos $-3$ veces la fila 1 a la fila 3:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3+(-3)(1) & 1+(-3)(0) & -1+(-3)(-1) & 0+(-3)(-2) & 2+(-3)(-3) \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
y realizamos lo mismo, pero ahora considerando la fila 4.
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0+(0)(1) & 1+(0)(0) & 1+(0)(-1) & 1+(0)(-2) & 1+(0)(-3)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
Como puedes observar, ninguna de las transvecciones influye en la otra, de manera que las podemos enlistar en un único paso. Además, al hacer una transvección con escalar $0$ no cambia nada de la fila, así que estas no se necesita hacerlas.

Ahora, ignorando la última fila con la que trabajamos (que es la primera), buscamos la primera columna no-nula, que en este caso será la segunda, posteriormente buscamos el primer elemento no nulo de la columna, el cual se encuentra en la segunda fila, y la “movemos enseguida de la última fila con la que trabajamos” (en este caso no tendríamos que realizar ninguna transposición, o bien, la transposición sería la de la segunda fila consigo misma, ya que ya se encuentra en seguida de la última fila con la que trabajamos). Después, reescalamos por el inverso multiplicativo del primer elemento no nulo de la fila, que es $1$:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
(1)(0) & (1)(1) & (1)(2) & (1)(3) & (1)(4) \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
(observa que reescalar por $1$ deja todas las entradas iguales) y posteriormente realizamos las transvecciones necesarias para que el resto de entradas de la segunda columna sean cero.
\[
\begin{pmatrix}
1 & 0+(0)(1) & -1+(0)(2) & -2+(0)(3) & -3+(0)(4) \\
0 & 1 & 2 & 3 & 4 \\
0 & 1+(-1)(1) & 2+(-1)(2) & 6+(-1)(3) & 11+(-1)(4) \\
0 & 1+(-1)(1) & 1+(-1)(2) & 1+(-1)(3) & 1+(-1)(4)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 0 & 3 & 7 \\
0 & 0 & -1 & -2 & -3
\end{pmatrix}
\]

De manera similar, ignorando ahora las primeras dos filas, buscamos la primera columna no-nula, la cual corresponde ahora a la tercera, y buscamos el primer elemento no-nulo de esta columna, el cual se encuentra en la cuarta fila. Entonces, transponemos las filas 3 y 4 para que el primer elemento no-nulo quede inmediatamente después de la última fila con la que trabajamos:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & -1 & -2 & -3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Seguidamente, reescalamos la tercera fila,
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
(-1)(0) & (-1)(0) & (-1)(-1) & (-1)(-2) & (-1)(-3) \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
\]
y relizamos las transvecciones necesarias:
\[
\begin{pmatrix}
1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(2) & -3+(1)(3) \\
0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(2) & 4+(-2)(3) \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Finalmente, como nuestra última columna no cero es la cuarta y la primera fila no cero (ignorando las filas que ya tienen pivote) tiene un $3$, reescalamos de la siguiente manera:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
(1/3)(0) & (1/3)(0) & (1/3)(0) & (1/3)(3) & (1/3)(7)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix},
\]

Y hacemos las transvecciones necesarias:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0+(1)(0) & 1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(7/3) \\
0+(-2)(0) & 0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(7/3) \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1/3 \\
0 & 0 & 1 & 0 & -5/3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}.
\]

Notemos que si consideramos esta matriz como la matriz aumentada
\[
\left(
\begin{matrix}
1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 0 \\
0 & 0 & 0 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
0 \\
1/3 \\
-5/3 \\
7/3
\end{matrix}
\right),
\]
este corresponde al sistema
\[
\begin{cases}
x = 0 \\
y = 1/3 \\
z = -5/3 \\
w = 7/3,
\end{cases}
\]
del cual sabemos inmediatamente su solución. Como mencionamos anteriormente, los sistemas de ecuaciones asociados a la matriz original y la matriz escalonada reducida resultante de aplicar operaciones elementales por filas, consideradas como matrices aumentadas, tienen las mismas soluciones. Entonces, ¡este último sistema es la solución para nuestro sistema de ecuaciones original!

Como podemos ver, los sistemas de ecuaciones asociados a una matriz en su forma escalonada reducida son fáciles de resolver por que vamos escogiendo valores arbitrarios para las variables en posición que no es pivote, mientras que podemos obtener el valor de las variables que son pivote mediante despejes sencillos.

Recuerda que este algoritmo funciona para cualquier matriz con entradas reales. ¿Podrías proponer otro sistema de ecuaciones e implementar la misma estrategia para resolverlo?

Más adelante…

Ahora vimos una estrategia para resolver sistemas de ecuaciones lineales de distintos tamaños. En las siguientes entradas conoceremos más propiedades sobre las matrices. Estas nuevas propiedades también juegan un rol fundamental en poder determinar de manera más rápida cuándo un sistema de ecuaciones lineales tiene solución, y tener otras alternativas para resolverlo bajo ciertas condiciones.

Tarea moral

  1. Aplica reducción gaussiana a las siguientes matrices:
    $$\begin{pmatrix} 5 & 2 \\ 13 & 5 \end{pmatrix},\quad \begin{pmatrix} 1 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix}.$$
  2. Resuelve el siguiente sistema de ecuaciones llevándolo a forma escalonada reducida, y luego aplicando a técnica de variables libres y pivote:
    $$\begin{cases} a + b + c + d + e &= -5\\2a+2b-3c-3d+e&=5 \\ a – b + c – d + e &= 0. \end{cases}$$
  3. Sea $I$ la matriz identidad de $n\times n$ y $A$ otra matriz de $n\times n$. Sea $E$ la matriz obtenida de aplicar una transvección a $I$. Sea $B$ la matriz de aplicar esa misma transvección a $A$. Demuestra que $EA=B$.
  4. Demuestra que una matriz $A$ de $2\times 2$ es invertible si y sólo si al aplicar reducción de Gauss-Jordan al final se obtiene la matriz identidad $I$. ¿Puedes hacerlo para matrices de $3\times 3$? ¿De $n\times n$?
  5. Sea $A$ una matriz de $2\times 2$ invertible. A $A$ le «pegamos» una identidad del mismo tamaño a la derecha para llegar a $(A|I)$, por ejemplo $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ se convertiría en $\begin{pmatrix} a & b & 1 & 0 \\ c & d & 0 & 1 \end{pmatrix}$. Muestra que si aplicamos reducción de Gauss-Jordan a $(A|I)$, se llega a $(I|A^{-1})$. Intenta extender tu demostración a matrices de $3\times 3$ ó $n\times n$.

Entradas relacionadas

Geometría Moderna II: Los Diez Problemas de Apolonio

Por Armando Arzola Pérez

3.5 Los Diez Problemas de Apolonio

Un problema clásico de la geometría es el «Problema de Apolonio» el cual enuncia:

Encontrar una circunferencia dado tres condiciones, las cuales pueden surgir de lo siguiente:

  1. La circunferencia pasa por uno o más puntos «P»
  2. La circunferencia es tangente a una o más líneas «L»
  3. La circunferencia debe de ser tangente a uno o más círculos «C»

De lo anterior nacen los 10 Problemas de Apolonio. (Las soluciones se darán a partir de construcciones)

Problema 1.

Construir una circunferencia que pase por tres puntos dados (PPP).

Construcción

Dados tres puntos $A$, $B$ y $C$, de los cuales podemos formar un triángulo $\triangle ABC$. Trazando las mediatrices de cada lado encontraremos el circuncentro «$O$», que resulta ser el centro de la circunferencia circunscrita al triángulo $\triangle ABC$. De esta forma podemos dibujar la circunferencia $C(O,r)$

Problema 2.

Construir una circunferencia que pase por dos puntos dados y tangente a una recta dada (PPL).

Construcción

Sean $A$ y $B$ dos puntos dados y $r$ una recta tangente a la circunferencia buscada.

El centro de la circunferencia buscada $C$ debe estar ubicada en la mediatriz del segmento $AB$, por ello dibujemos la mediatriz a través del arco de dos circunferencias con centro $A$ y centro $B$ las cuales se intersecan y se puede trazar la mediatriz.

Ahora tomamos un punto «$D$» de la mediatriz, del cual lo tomamos como centro de una circunferencia $C_1$ que pase por $A$ y $B$. También trazamos el segmento $AB$ que corte $r$ en $C$.

Debemos de encontrar una recta tangente a $C_1$ y que pase por el punto $C$. Por ello unimos $DC$ y sacamos la mediatriz con centro $E$, trazamos la circunferencia $C_2$ que interseca a $C_1$ en dos puntos del cual solo nos interesa uno que es $F$ y al unirlo con $C$ este forma una recta tangente a $C_1$.
Por ahora tenemos por potencia $CA * CB = CF^2$.

Ahora trazamos el arco de circunferencia con centro $C$ y radio $CF$ que corta a la recta $r$ en dos puntos $T_1$ y $T_2$ cumplen $CA * CB =CF^2 =CT_1^2 = CT_2^2$ perpendiculares por $T_1$ y otra por $T_2$, y cortan a la mediatriz $AB$.
Y en esas intersecciones van a estar los centros de las circunferencias que pasan por $A$, $B$ y tangentes a $r$. $_\blacksquare$

Problema 3.

Construir una circunferencia tangente a dos líneas dadas y que pasa por un punto (PLL).

Construcción

Sean $l_1$ y $l_2$ dos rectas dadas y $P$ un punto dado, notemos que el centro de la circunferencia buscada es un punto de la bisectriz; Por otro lado, la circunferencia buscada debe contener a $P$ y $P’$ punto simétrico respecto a la bisectriz.
Si observamos tenemos el caso del problema 2 PPL, ya que tenemos dos puntos $P$ y $P’$ por los cuales pasara la circunferencia buscada, además de que es tangente a una recta $l_1$. Por tal motivo se puede seguir la misma construcción anterior para llegar a la solución.

Problema 4.

Construir un círculo tangente a tres líneas dadas (LLL).

Construcción

Sean tres rectas dadas $l_1$, $l_2$ y $l_3$, las cuales forman un triángulo $\triangle ABC$. Trazando las bisectrices de los ángulos internos del triángulo $\triangle ABC$ se intersecan en un único punto $O$.
El punto $O$ es el centro de la circunferencia inscrita del triángulo $\triangle ABC$ , ahora trazamos las perpendiculares por $O$ a cada lado y encontraremos el radio $OS$ el cual nos da la circunferencia tangente a $l_1$, $l_2$ y $l_3$.

Problema 5.

Construye una circunferencia pasando por dos puntos dados y tangente a un círculo dado (PPC).

Construcción

Existen varios casos para este problema, en este caso tomaremos a los puntos $A$ y $B$ fuera de la circunferencia dada $C(O,r)$.
Trazamos la mediatriz de $A$ y $B$, después tomamos un punto cuál sea $x$ en la mediatriz y generamos una circunferencia con centro en $x$ y radio $A$ o $B$ y que corta a la circunferencia $C(O,r)$. Los dos puntos de intersección los llamaremos $D$ y $E$ los uniremos y prolongaremos hasta que corte a la recta $AB$, el punto de intersección será $F$.

Unimos $F$ con $O$ y sacamos su mediatriz, denotamos a $G$ al punto de intersección de $FO$ con la mediatriz. Ahora trazamos la circunferencia con centro $G$ y radio $O$ la cual corta a $C(O,r)$ en $H$ y $I$.

Si unimos $I$ con $O$ corta a la mediatriz $AB$ en $O_1$, el cual será el centro de la circunferencia buscada con radio $O_1I$ y por lo cual pasa por $A$, $B$ y tangente $C(O,r)$. Ocurre lo mismo si unimos $H$ con $O$, corta a la mediatriz de $AB$ en $O_2$, este sería el centro $O_2$ y radio $O_2A$, el cual genera la otra circunferencia tangente a $C(O,r)$ y pasa por $A$ y $B$.

Problema 6.

Construir una circunferencia que pase por un punto dado, tangente a una recta dada y tangente a un círculo dado (PLC).

Construcción

Para este problema 6 podemos encontrar cuatro soluciones, pero por ahora solo se dara una parte de la construcción, ya que lo demás ya se ha venido trabajando en las construcciones anteriores.
Tenemos la circunferencia $C$, el punto $P$ y la recta $r$. Trazamos una perpendicular a $r$ que pase por $C$, ahora sea $O$ el punto de corte que será el centro de inversión que convierte la circunferencia $C$ en la recta $r$, entonces los puntos $x$ y $x’$ son inversos.
Ahora debemos encontrar el punto inverso de $P$, por ello trazamos la mediatriz de $xx’$ y trazamos la mediatriz de $xP$, estas dos rectas cortan en $Y$ el cual es el centro de circunferencia que corto a $x$, $x’$ y $P$, y el punto de intersección de esta circunferencia con la recta $OP$ tendremos $P’$.

Nos daremos cuenta de que tenemos el mismo problema 2 PPL, por lo cual solo se debe seguir la misma construcción para hallar las circunferencias buscadas.

De aquí en adelante se enunciarán únicamente los problemas faltantes.

Problema 7.

Construir una circunferencia que pase por un punto $P$ dado y dos círculos tangentes a esta circunferencia buscada (PCC) (4 soluciones).

Problema 8.

Construir una circunferencia tangente a dos rectas dadas y a un círculo dado (LLC) (8 soluciones).

Problema 9.

Construir una circunferencia tangente a una línea dada y a dos círculos dados (LCC) (8 soluciones).

Problema 10. Problema de Apollonius

Construir una circunferencia tangente a tres círculos dados (CCC).

Más adelante…

Una vez visto el tema de Polos y Polares, es hora de realizar unos ejercicios que se dejaran, todo con el objetivo de fortalecer los temas vistos.

Entradas relacionadas

Geometría Moderna II: Circunferencia Polar

Por Armando Arzola Pérez

3.4 Circunferencia Polar

Introducción

Como ya se vio en la entrada anterior de Triángulo Autopolar, se puede tener un triángulo autopolar dada una circunferencia y no solo eso, sino que además se puede tener un número infinito de triángulos autopolares dada una circunferencia, pero solamente existe una circunferencia (Circunferencia Polar) de la cual un triángulo dado sea autopolar.

Circunferencia Polar

Como mencione, solo existe una circunferencia de la cual un triángulo dado sea autopolar, donde el triángulo debe de ser obtuso. Por lo cual si se cumple lo anterior se tiene una circunferencia que se denomina «Circunferencia Polar» del triángulo.

Construcción Circunferencia Polar

Dado $A$ un punto dado y $BC$ una recta dada. Supongamos $O$ el centro de la circunferencia, dado que la polar de $B$ pasa por $A$ y perpendicular a $BO$, y la polar de $C$ pasa por $A$ y perpendicular a $CO$, entonces $O$ es el ortocentro del triángulo $\triangle ABC$.

Ahora como el polo $A$ es el vértice, y el pie de la altura $D$ el cual pertenece a la polar de $A$ son puntos inversos, entonces $r= \sqrt{AO \times DO} $, de esta forma encontramos la circunferencia polar del triángulo $\triangle ABC $ la cual es única.

Construcción Circunferencia Polar

El triángulo $\triangle ABC $ es autopolar.

Propiedad 1

Cualquier circunferencia la cual tiene una cuerda como altura del triángulo es ortogonal a la circunferencia polar del triángulo.

Propiedad 2

De la construcción anterior se tiene:

Si un triángulo es autopolar con respecto a una circunferencia, entonces el triángulo es obtusángulo.

Demostración

Se sabe que el $\triangle ABC$ es autopolar con respecto a la circunferencia $C(O,r)$ y se tiene que $O$ es el ortocentro. Además, $OA \times OA’ = OC \times OC’ = OB \times OB’ =r^2$.

Ahora supongamos $O$ interno al triángulo $\triangle ABC$, entonces los puntos inversos de cada par estarían en lados contrarios de sus respectivas líneas respecto a $O$ centro de inversión, entonces $OA \times OA’ = OC \times OC’ = OB \times OB’ =-r^2$. Por lo cual $O$ debe de ser un punto externo al triángulo $\triangle ABC$.

Entonces $\angle BAC$ es un angulo externo a $\triangle B’BA$, entonces $\angle BAC= \angle BB’A + \angle ABB’ = \pi /2 + \angle ABB’$, se tiene que $\angle BAC > \pi /2$. Por lo tanto, el $\triangle ABC$ es obtusangulo. $_\blacksquare $

Teorema

El circuncirculo de un triángulo autopolar y su circunferencia de los nueve puntos son mutuamente inversas con respecto a la circunferencia polar.

Propiedad 3

Tres de los cuatro triángulos de un grupo ortocentrico son obtusos.

Circunferencia Polar triángulos Obtusos

Los triángulos $DAB$, $DBC$ y $ DCA$ son obtusos en $D$, se tienen $r_C$, $r_A$ y $r_B$ los radios de las circunferencias polares $C$, $A$ y $B$ de estos triángulos respectivamente.

Entonces se tiene $r^2_B=BA’ \times BC$ y $r^2_C=A’C \times BC$, de lo anterior se obtiene $r^2_B + r^2_C = (BA’ \times A’C) BC = BC^2$.

De esta forma las circunferencias $B$ y $C$ son ortogonales, como $A’$ y $C$ son puntos inversos con respecto a la circunferencia $B$, $A’A$ es la polar de $C$ respecto a la circunferencia $B$ y pasa por los puntos de intersección de las circunferencias $B$ y $C$, por lo cual se tiene el siguiente teorema.

Teorema

Dados los tres triángulos obtusos de un grupo ortocentrico sus circunferencias polares son ortogonales en pares, y sus puntos de intersección están en los tres lados de un cuadrángulo que pasa por el vértice común de los ángulos obtusos.

Más adelante…

Se tiene pensado abordar los 10 problemas de Apolonio.

Entradas relacionadas

Conjuntos anidados

Por Lizbeth Fernández Villegas

Introducción:

En esta ocasión nos vamos a fijar en colecciones de conjuntos que están contenidos unos en otros. Vamos a suponer que es una cantidad numerable de conjuntos. El primer conjunto contiene al segundo, que a su vez contiene a un tercero y así, sucesivamente.

Ahora pensemos en la intersección de todos esos conjuntos. Intuitivamente podemos visualizar que se tratará de un conjunto muy pequeño, que estará contenido en todos los demás.

Aquí tenemos un ejemplo de una sucesión de conjuntos donde los últimos términos corresponden al mismo conjunto. La intersección de todos los conjuntos es, evidentemente, ese último conjunto

Observemos la sucesión de intervalos $[-\frac{1}{n},\frac{1}{n}]_{n \in \mathbb{N}}.$

Nota que todos tienen como elemento al cero. Además es el único elemento que pertenece a la intersección de todos los intervalos, pues si suponemos que hay otro más, dado que $\frac{1}{n} \to 0$ es posible encontrar un intervalo suficientemente pequeño, que deje fuera este elemento.

Con un radio menor a la distancia entre $0$ y el punto rojo, este último queda fuera.

Ahora consideremos el subespacio $\mathbb{Q}$ con la métrica usual. En esta ocasión los intervalos serán $(\sqrt{2}-\frac{1}{n},\sqrt{2}+\frac{1}{n}), \, n \in \mathbb{N}.$ Queda como ejercicio al lector demostrar que la intersección de estos conjuntos es vacía en $\mathbb{Q}$.

Entonces, ¿bajo qué condiciones podremos asegurar que la intersección no es vacía pese a que los conjuntos se hagan «cada vez más pequeños» y estén contenidos unos en otros? Veamos la siguiente definición:

Definición bolas encajadas: Sea $(X,d)$ un espacio métrico y $(\overline{B}(x_n,\varepsilon_n))_{n \in \mathbb{N}} \,$ una sucesión de bolas cerradas en $X$. Si $\forall n \in \mathbb{N}$ se cumple que $\overline{B}(x_{n+1},\varepsilon_{n+1}) \subset \overline{B}(x_{n},\varepsilon_{n})$ diremos que la sucesión $(\overline{B}(x_n,\varepsilon_n))_{n \in \mathbb{N}}$ es de bolas encajadas.

Sucesión de bolas cerradas encajadas

Proposición principio de bolas encajadas: $(X,d)$ es un espacio métrico completo si y solo si para cualquier sucesión de bolas cerradas encajadas $(\overline{B}(x_n,\varepsilon_n))_{n \in \mathbb{N}}$ cuyos radios tienden a cero, es decir $\varepsilon_n \to 0,$ se cumple que la intersección de todas las bolas cerradas es no vacía. Además $\underset{n \in \mathbb{N}}{\cap} \, \overline{B}(x_n,\varepsilon_n) = \{x\}$ para algún $x \in X.$

Demostración:
Supongamos que $(X,d)$ es completo. Sea $(\overline{B}(x_n,\varepsilon_n))_{n \in \mathbb{N}} \,$ una sucesión de bolas encajadas. Vamos a probar primero que la sucesión de los centros de las bolas cerradas $(x_n)_{n \in \mathbb{N}} \,$ es de Cauchy. Sea $\varepsilon > 0,$ como $\varepsilon_n \to 0,$ existe $N \in \mathbb{N}$ tal que $\forall \, n \geq N, \, \varepsilon_n < \frac{\varepsilon}{2}.$ Como la sucesión es de bolas encajadas, tenemos que $\forall \, l,m \geq N, \, \overline{B}(x_l,\varepsilon_l) \subset \overline{B}(x_N,\varepsilon_N)$ y $\overline{B}(x_m,\varepsilon_m) \subset \overline{B}(x_N,\varepsilon_N)$ entonces $d(x_l,x_m) \leq d(x_l,x_N) + d(x_N,x_m) \leq \frac{\varepsilon}{2}+\frac{\varepsilon}{2}=\varepsilon.$ Por lo tanto $(x_n)$ es de Cauchy. Como $X$ es completo, se sigue que $x_n \to x$ para algún $x \in X$


Vamos a demostrar que $x \in \underset{n \in \mathbb{N}}{\cap} \, \overline{B}(x_n,\varepsilon_n).$ Sea $n \in \mathbb{N}.$ Como las bolas son encajadas, tenemos que $\forall k \geq n, \, B(x_k,\varepsilon_k) \subset B(x_n,\varepsilon_n)$ en consecuencia $\forall k \geq n,$ el término de la sucesión $x_k$ es elemento de $B(x_n,\varepsilon_n),$ que es un conjunto cerrado. Ya que la subsucesión formada por estos últimos términos converge en $x$ se sigue de lo que vimos en Convergencia que $x \in B(x_n,\varepsilon_n).$ Como esto ocurre $\forall n \in \mathbb{N},$ concluimos que $x \in \underset{n \in \mathbb{N}}{\cap} \, \overline{B}(x_n,\varepsilon_n).$

Además $x$ es el único punto en la intersección, pues si existe otro punto $x’ \in \underset{n \in \mathbb{N}}{\cap} \, \overline{B}(x_n,\varepsilon_n)$ existen también bolas cerradas suficientemente pequeñas que no contienen a ambos puntos. La demostración de este hecho se deja como ejercicio.

Para el regreso buscamos demostrar que $(X,d)$ es completo. Sea $(x_n)_{n \in \mathbb{N}}$ una sucesión de Cauchy.

Vamos a construir una sucesión de bolas encajadas de la siguiente forma:
Ya que la sucesión $(x_n)$ es de Cauchy, podemos afirmar que existe $N_1 \in \mathbb{N}$ tal que $\forall \, n,m \geq N_1, \, d(x_n,x_m)\leq \frac{1}{2}.$ Entonces $\forall \, n \geq N_1, \, x_n \in B(x_{N_1}, \frac{1}{2}) \subset B(x_{N_1},1).$

Nuevamente, como $(x_n)$ es de Cauchy, existe $N_2 \in \mathbb{N}$ tal que $\forall \, n,m \geq N_2, \, d(x_n,x_m)\leq \frac{1}{2^2}.$ Entonces $\forall \, n \geq N_2, \, x_n \in B(x_{N_2}, \frac{1}{2^2}) \subset B(x_{N_2},\frac{1}{2}).$ Nota que esta bola está contenida en la anterior.

Continuando recursivamente, la bola $k$ de la sucesión en construcción estará dada por el centro $x_{N_k}$ donde $N_k$ es tal que $\forall \, n,m \geq N_k, \, d(x_n,x_m)\leq \frac{1}{2^k}.$ Entonces $\forall \, n \geq N_k, \, x_n \in B(x_{N_k}, \frac{1}{2^k}) \subset B(x_{N_k},\frac{1}{2^{k-1}}).$

Así, la sucesión $(B(x_{N_n},\frac{1}{2^{n-1}}))_{n \in \mathbb{N}}$ es de bolas encajadas y sus radios tienden a cero. Por hipótesis sabemos que la intersección de estos conjuntos es $\{x\},$ para algún $x \in X.$ Es sencillo probar que la sucesión de centros $(x_{N_n})_{n \in \mathbb{N}}$ converge en $x$ (se dejará como ejercicio). Entonces tenemos una subsucesión de la sucesión de Cauchy $(x_n)$ que es convergente y, como vimos en entrada anterior, esto demuestra que $(x_n) \to x$ por lo que $X$ es completo.

Notemos que para asegurar la contención de un conjunto en otro, necesitamos obtener información acerca de las distancias entre sus elementos. Esto motiva una definición para conjuntos más generales que una bola cerrada:

Definición diámetro de un conjunto: Sea $A \subset X$. Entonces el diámetro de $A$ se define como:
$$diam(A) = sup\{d(x_1,x_2): x_1,x_2 \in A \}$$.

Cuando el conjunto $\{d(x_1,x_2): x_1,x_2 \in A \}$ no es acotado, diremos que el diámetro es $\infty.$

Proposición: Sea $(x_n)_{n \in \mathbb{N}}$ una sucesión en $(X,d)$ y para cada $N \in \mathbb{N}, \, X_N=\{x_k:k\geq N\}$ el conjunto de los términos de la sucesión que van a partir de $x_N.$ Entonces $(x_n)$ es una sucesión de Cauchy si y solo si
$$\underset{N \to \infty}{lim}\, diam \, (X_N)=0$$

Demostración:
Supón que $(x_n)$ es una sucesión de Cauchy en $X$ y sea $\varepsilon>0$. Entonces existe $K \in \mathbb{N}$ tal que $\forall \, l,m \geq K, \, d(x_l,x_m)<\varepsilon$. En consecuencia $diam\,(X_K) \leq \varepsilon.$ Como para todo $L \geq K, \, (X_L) \subset (X_K)$ se sigue que para todo $L \geq K, \, diam(X_L) \leq diam(X_K) \leq \varepsilon.$ Por lo tanto $\underset{N \to \infty}{lim}\, diam \, (X_N)=0$

Ahora supongamos que $\underset{N \to \infty}{lim}\, diam \, (X_N)=0.$ Buscamos demostrar que $(x_n)$ es de Cauchy. Sea $\varepsilon >0$, como los diámetros tienden a cero, existe $K \in \mathbb{N}$ tal que en particular $(X_K)$ satisface que $diam \, (X_K) < \varepsilon.$ Entonces $\forall \, l,m \geq K, \, d(x_l,x_m) < \varepsilon$ lo cual demuestra que $(x_n)$ es de Cauchy.

Terminemos con la siguiente:

Proposición: Sean $(A_n)_{n \in \mathbb{N}}\,$ una sucesión de subconjuntos cerrados de un espacio métrico completo $(X,d)$ tales que para todo $n \in \mathbb{N}, \, A_{n+1} \subset A_{n}$ y además $\underset{n \to \infty}{lim} \, diam(A_n) \to 0.$ Entonces $\underset{n \in \mathbb{N}}{\cap}A_n=\{x\}$ para algún $x \in X$).

Demostración:
Para cada $n \in \mathbb{N}$ elegimos $x_n \in A_n.$ Entonces para cada $N \in \mathbb{N}$ el conjunto $X_N$ definido en la proposición anterior está contenido en $A_N$, pues los conjuntos están anidados. En consecuencia, $diam(X_N) \leq diam(A_n) \to 0.$ La proposición anterior nos permite concluir que $(x_n)$ es una sucesión de Cauchy. Como $X$ es completo, se sigue que $(x_n) \to x$ para algún $x \in X.$ Dejamos como ejercicio demostrar que $\underset{n \in \mathbb{N}}{\cap}A_n=\{x\}$.

¿Recuerdas la distancia de Hausdorff vista en La métrica de Hausdorff? Nota que si $A$ y $B$ son subconjuntos de $X$ entonces $d_H(A,B)\leq diam(A \cup B).$ En esa misma entrada vimos que conjuntos anidados convergen a la intersección de todos ellos, y que este conjunto está formado por los puntos de convergencia de sucesiones que tienen elementos en los conjuntos anidados. En entradas futuras veremos que los espacios compactos son cerrados. ¿Cómo justificarías las proposiciones vistas en esta entrada a partir de los resultados presentados en la métrica de Hausdorff?

Más adelante…

Veremos los conceptos de conjunto denso y conjunto nunca denso. Descubriremos un resultado que ha sido muy importante en el estudio de los espacios métricos completos: El teorema de Baire.

Tarea moral

  1. Sea $\mathbb{Q}$ el subespacio de $\mathbb{R}$ con la métrica usual. Demuestra que la intersección de los intervalos $[\sqrt{2}-\frac{1}{n},\sqrt{2}+\frac{1}{n}], \, n \in \mathbb{N}$ es vacía.
  2. Demuestra que si $x$ está en la intersección de bolas encajadas $\underset{n \in \mathbb{N}}{\cap} \, \overline{B}(x_n,\varepsilon_n)$ entonces es único.
  3. Demuestra que la sucesión de centros $(x_{N_n})_{n \in \mathbb{N}}$ de la proposición converge en $x$.
  4. Sea $A \subset X.$ Demuestra que $diam(A)=diam(\overline{A}).$
  5. Da un ejemplo de un espacio métrico completo y de una sucesión de bolas cerradas en este espacio, encajadas unas en otras que tenga intersección vacía.

Enlaces