Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

La métrica de Hausdorff

Por Lizbeth Fernández Villegas

$ \textit{ MATERIAL EN REVISIÓN}$

Introducción

En esta entrada vamos a ver una forma de definir distancias (sí, de nuevo) pero ahora no directamente entre los elementos de un conjunto, sino entre los subconjuntos de un espacio métrico. Entonces, los subconjuntos pasarán a ser vistos como elementos de un nuevo espacio con cierta métrica. Al final haremos sucesiones de conjuntos. Descubriremos bajo qué condiciones estas sucesiones de conjuntos convergen. Será emocionante descubrir que dos conjuntos están cerca uno de otro, cuando son muy parecidos entre sí (en forma y tamaño). Esta entrada está basada en el contenido del libro «A course in Metric Geometry», escrito por Dmitri Burago, Yuri Burago y Sergei Ivanov (páginas 252 y 253). Omitiremos las demostraciones de las proposiciones, pues no son parte de los objetivos del curso. El lector puede consultarlas en el libro mencionado si así lo desea.

Sea $(X,d)$ un espacio métrico. Visualiza un conjunto $A \subset X$ y un punto arbitrario $x \in A$.

$x$ está en $A$

Sea $\varepsilon >0$. Este valor define a $B(x,\varepsilon)$.

$x$ está en la bola de radio $\varepsilon$

Visualiza la unión de todas las bolas de radio $\varepsilon$. Definimos el conjunto $U_\varepsilon(A) =: \underset{x\in A}{\cup}B(x,\varepsilon)$. Nota que este conjunto contiene al conjunto $A$.

Todas las bolas de radio $\varepsilon$ con centro en un punto de $A$
El conjunto $U_\varepsilon(A)$ es la unión de todas las bolas

Asímismo, todos los elementos de $U_\varepsilon(A)$ distan en menos que $\varepsilon$ a algún elemento de $A$, pues están en una de las bolas de radio $\varepsilon$.

Un punto $y$ en $U_\varepsilon(A)$ tiene distancia menor que $\varepsilon$ a un punto en $A$

Pensemos ahora en los conjuntos definidos de esta forma en $A$ pero buscando que también contengan a un conjunto $B \subset X$

Se puede dar el caso en que aunque $U_\varepsilon(A)$ contiene a $A,$ no contiene al conjunto $B.$

$U_\varepsilon(A)$ no cubre a $B$ completamente

Identificando valores para $\varepsilon >0$ suficientemente grandes, se logra la contención deseada:

$U_{\varepsilon’}(A)$ también contiene a $B$

Podemos identificar al ínfimo de los $\varepsilon$´s $>0$ y encontrar así un conjunto $U_{\varepsilon´´}(A)$ más ajustado pero que sigue conteniendo a ambos conjuntos.

$U_{\varepsilon´´}(A)$ es el conjunto más pequeño que cubre lo deseado

Análogamente, vamos a identificar los conjuntos $U_\varepsilon(B)$ que también contienen a $A$.

Se puede dar el caso en que aunque $U_\varepsilon(B)$ contiene a $B,$ no contiene al conjunto $A.$

$U_\varepsilon(B)$ no cubre a $A$ completamente

Identificando valores para $\varepsilon >0$ suficientemente grandes, se logra la contención deseada:

$U_{\varepsilon’}(B)$ también contiene a $A$

Podemos identificar al ínfimo de los $\varepsilon$´s $>0$ y encontrar así un conjunto $U_{\varepsilon´´}(B)$ más ajustado pero que sigue conteniendo a ambos conjuntos.

$U_{\varepsilon´´}(B)$ es el conjunto más pequeño que cubre lo deseado

Si seleccionamos al ínfimo de los $\varepsilon$’s tales que ambos conjuntos quedan contenidos de la forma $A \subset U_\varepsilon(B)$ y $B \subset U_\varepsilon(A)$. Podemos definir la distancia de Hausdorff entre $A$ y $B$ como ese ínfimo. Formalmente:
$$d_H(A,B) =: inf \{\varepsilon>0: A \subset U_\varepsilon(B) \,y\, B \subset U_\varepsilon(A) \}$$

$A \subset U_\varepsilon(B)$ y $B \subset U_\varepsilon(A)$

Sean $A\subset X$ y $B\subset X$ y $\varepsilon >0$. Si definimos $\text{dist}(a,B) =: \underset{b \in B}{inf} \, d(a,b)$ para cada $a \in A$ y análogamente $\text{dist}(b,A) =: \underset{a \in A}{inf} \, d(a,b)$ para $b \in B$ entonces las siguientes son propiedades de la distancia de Hausdorff.

a) $d_H(A,B) = max\{\underset{a \in A}{sup} \, \text{dist}(a,B),\underset{b \in B}{sup} \, \text{dist}(b,A)\}.$

$d_H(A,B) = max\{\underset{a \in A}{sup} \, \text{dist}(a,B),\underset{b \in B}{sup} \, \text{dist}(b,A)\}$

Las líneas señalan las distancias «más grandes» que hay de algún punto de $A$ al conjunto $B$ y de un punto de $B$ al conjunto $A$. Se garantiza que el máximo define el radio de las bolas que hace que los dos conjuntos $U_{\varepsilon}(A)$ y $U_{\varepsilon}(B)$ contengan tanto a $A$ como a $B$.


b) $d_H(A,B) \leq \varepsilon$ si y solo si para todo $a \in A,$ $\text{dist}(a,B) \leq \varepsilon$ y para todo $b \in B, \, \text{dist}(b,A) \leq \varepsilon.$ Esto puede no ocurrir si cambiamos «$\leq$» por «$<$».

Anteriormente hemos hablado de la definición de una función acotada (Espacios de funciones) y de una sucesión acotada (Convergencia), veamos esta definición de un modo más general:

Definición. Conjunto acotado. Sea $A \subset X$ decimos que $A$ es un conjunto acotado en $X$ si existe un punto $x_0 \in X$ y $M >0$ tal que para toda $x \in A$ se cumple que $d(x,x_0)<M$. Nota que esto es equivalente a decir que $A \subset B(x_0,M)$.

Proposición. Si $(X,d)$ es un espacio métrico, entonces $d_H$ define una métrica en el conjunto de conjuntos cerrados y acotados $\mathcal{M}(X):=\{F \subset X: F \text{ es cerrado y acotado}\}$. (En el libro de Burago la métrica puede tomar el valor infinito, en ese sentido $d_H$ también sería una métrica en el conjunto de los subconjuntos cerrados de $X$, incluyendo los no acotados).

Eso significa que $A,B \in \mathcal{M}(X)$ cumplen:

1) $d_H(A,B)=0$ si y solo si los conjuntos son iguales. En este caso tendremos que para todo $\varepsilon>0$ $A \subset U_\varepsilon(B)$ y $B \subset U_\varepsilon(A)$. Además $U_\varepsilon(B)=U_\varepsilon(A).$

$d_H = 0$ entre conjuntos iguales

2) La propiedad de simetría en espacios métricos dice que $d_H(A,B) = d_H(B,A)$

La distancia $d_H$ es simétrica

3) Se cumple la desigualdad del triángulo entre conjuntos: $$d_H(A,B) \leq d_H(A,C) + d_H(C,B)$$.
Para fines ilustrativos de esta propiedad recordemos que:
$d_H(A,B) = max\{\underset{a \in A}{sup} \, \text{dist}(a,B),\underset{b \in B}{sup} \, \text{dist}(b,A)\}.$
$d_H(A,C) = max\{\underset{a \in A}{sup} \, \text{dist}(a,C),\underset{c \in C}{sup} \, \text{dist}(c,A)\}.$
$d_H(B,C) = max\{\underset{b \in B}{sup} \, \text{dist}(b,C),\underset{c \in C}{sup} \, \text{dist}(c,B)\}.$
La imagen siguiente representa esas distancias.

Desigualdad del triángulo a partir de máximos

A continuación, visualizaremos ejemplos de sucesiones en el espacio métrico de Hausdorff. Entonces los elementos de las sucesiones serán conjuntos cerrados y acotados.
Si $(A_n)_{n \in \mathbb{N}}$ es una sucesión de conjuntos de un espacio métrico y $A_n \to A$ en la métrica de Hausdorff, entonces $d_H(A_n,A) \to 0$ en $\mathbb{R}.$ Eso significa que los conjuntos indicados por la sucesión no solo se van a acercar (en posición, si podemos pensarlo así) al conjunto $A$, sino que se van a ver como éste (pues cuando $d_H =0$ los conjuntos son iguales).

La sucesión presentada muestra estrellas de la misma forma y tamaño pero distinta posición en $\mathbb{R}^2$ cada vez más grandes pero proporcionales entre sí. Para cada $n \in \mathbb{N}$ la estrella $A_n$ tiene su centro en el punto $(\frac{1}{n},0)$. Entonces la sucesión $(A_n)_{n \in \mathbb{N}}\,$ converge a la estrella con centro en $(0,0)$.

La sucesión de huellas de perrito muestra manchas cada vez más pequeñas que convergen a las manchas verdes.

Tenemos una sucesión de conos $(A_n)_{n \in \mathbb{N}}\,$ definida como sigue: para cada $n \in \mathbb{N}$ el cono $A_n$ tiene su centro en $(0,\frac{-3}{n},0)$, altura $\frac{2}{n}$ y radio $1$. Entonces los conos ven disminuída su altura hasta llegar a $0$ mientras que el centro se desplaza al origen. Finalmente convergen al círculo unitario en el plano horizontal.

Formalmente, tenemos los siguientes:

Ejemplos de sucesiones de conjuntos en espacios euclidianos que convergen a un conjunto $A$ en el espacio de Hausdorff.

Para cada $n \in \mathbb{N}$ considera en el espacio euclidiano $\mathbb{R}^2$ el conjunto $A_n =: \overline{B}(0,1+\frac{1}{n})$. Entonces $(A_n)_{n \in \mathbb{N}}\,$ es una sucesión en el espacio de Hausdorff que converge al conjunto $A=:\overline{B}(0,1)$.

Basta con demostrar que $d_{H}(A_n,A) = max\{\underset{a \in A_n}{sup} \, \text{dist}(a,A),\underset{b \in A}{sup} \, \text{dist}(b,A_n)\} \to 0$ en $\mathbb{R}$. Es sencillo probar que para cada $n \in \mathbb{N}, \,d_{H}(A_n,A) = \frac{1}{n} \to 0 \in \mathbb{R}$ por lo tanto $A_n \to A$.

Presentamos una sucesión de prismas ubicadas en el espacio euclidiano $\mathbb{R}^3$ como muestra la imagen.

Los prismas convergen a la cara del fondo
Prisma $A_k$

Sea $A$ el triángulo que es una cara del prisma y está en el plano $X_2, X_3$. Nota que para cada $k \in \mathbb{N}$, $d_{H}(A_k,A) = max\{\underset{a \in A_k}{sup} \, \text{dist}(a,A),\underset{b \in B}{sup} \, \text{dist}(b,A_k)\}= \frac{1}{k}$

Entonces $d_{H}(A_n,A) = \frac{1}{n} \to 0 \in \mathbb{R}$ por lo tanto $A_n \to A$.


La demostración de las siguientes dos sucesiones se dejará como ejercicio.

Tenemos una sucesión de polígonos regulares en $\mathbb{R}^2$ $(A_n)_{n \in \mathbb{N}} \,$ donde, para cada natural $n$, $ A_n$ es el polígono regular de $\, n \,$ lados con centro en $(0,0)$ y circunscrito en el círculo con centro en $(0,0)$ y radio $1$. Demuestra que $A_n \to \overline{B}(0,1)$ en el espacio de Hausdorff.

Los polígonos convergen al círculo unitario

Como sugerencia, puedes demostrar que la medida del apotema vista como $\, cos \alpha \,$ tiende a $1$ en $\mathbb{R}$.


La siguiente sucesión muestra cilindros en $\mathbb{R}^3$.

Los cilindros convergen al segmento del centro

Para cada $n \in \mathbb{N}$ considera $A_n$ como el cilindro que tiene de base al círculo con centro en el origen, radio $\frac{1}{n}$ y altura $2$. Demuestra que la sucesión $(A_n)_{n \in \mathbb{N}}\,$ converge al segmento $\{(0,0,x_3): x_3 \in [0,2]\}$.

Ahora presentaremos algunas condiciones que garantizan la convergencia en sucesiones de conjuntos. En la última se menciona la noción de compacidad, concepto del que se hablará en entradas próximas. Por el momento podemos imaginar el resultado en espacios euclidianos, donde los compactos son los conjuntos cerrados y acotados.

Proposición. Sea $(A_n)_{n \in \mathbb{N}}$ una sucesión en $\mathcal{M}(X)$ tal que $A_n \to A$ en $\mathcal{M}(X)$. Entonces:

a) $A$ es el conjunto de límites de todas las sucesiones convergentes $(x_n)_{n \in \mathbb{N}}$ en $X$ tales que para toda $n \in \mathbb{N}, \, a_n \in A_n$.

Los puntos de convergencia están en el conjunto de convergencia


b) El conjunto al que converge la sucesión está dado por: $A = \underset{n \in \mathbb{N}}{\cap} (\overline{\underset{m \geq n}{\cup} A_m})$.

Esto significa que en cada iteración, vamos a considerar la cerradura de la unión de todos los conjuntos, exceptuando los de las primeras posiciones (según la iteración en la que vayamos). Esto define nuevos conjuntos, cuya intersección es el conjunto al que la sucesión converge.

La intersección de todos los conjuntos de este estilo es el conjunto al que la sucesión converge:

Proposición. Sea $(X,d)$ un espacio métrico compacto y $(A_n)_{n \in \mathbb{N}} \,$ una sucesión de subespacios compactos en él, entonces:
a) Si $A_{n+1} \subset A_n$, entonces $A_n \to \underset{n \in \mathbb{N}}{\cap}A_n$ en $\mathcal{M}(X)$.

Entonces cuando una sucesión es tal que cada término está contenido en el anterior, la sucesión converge a la intersección de todos los conjuntos.

Sucesión de cilindros


b) Si para todo $n \in \mathbb{N}, \, A_n \subset A_{n+1}$, entonces $A_n \to \overline{\underset{n \in \mathbb{N}}{\cup}A_n}$ en $\mathcal{M}(X)$.

Entonces cuando una sucesión es tal que cada término contiene al anterior, la sucesión converge a la cerradura de la unión de todos los conjuntos.

En el dibujo la sucesión $(A_n)_n \in \mathbb{N}$ tiene como conjunto $A_n = \overline{B}(0,2-\frac{1}{n})$ para cada $n \in \mathbb{N}$. Es sencillo demostrar que $A_n \to \overline{B}(0,2)$ en $\mathbb{R}^2.$

Más adelante…

Ya que hemos estudiado algunas propiedades en un espacio métrico, comenzaremos a relacionar un espacio con otros a través de funciones. Veremos bajo qué circunstancias es posible hablar de “cercanía” en puntos del contradominio cuando se parte de puntos cercanos en el espacio métrico del dominio.

Tarea moral

  1. Describe las características de las sucesión definida como:
    $A_1=[0,1]$
    $A_2=[0,1] \setminus (\frac{1}{3},\frac{2}{3})=[0,\frac{1}{3}] \cup [\frac{2}{3},1],$
    $A_3=[0,\frac{1}{3}] \setminus (\frac{1}{9},\frac{2}{9}) \cup [\frac{2}{3},1]\setminus (\frac{7}{9},\frac{8}{9})=[0,\frac{1}{9}] \cup [\frac{2}{9},\frac{1}{3}] \cup [\frac{2}{3},\frac{7}{9}] \cup[\frac{8}{9},1]$
    Y así, recursivamente, se va quitando la tercera parte central, de cada intervalo que quedaba. La intersección de estos conjuntos es conocido como el conjunto de Cantor. ¿Bajo qué resultados mencionados en esta entrada podemos concluir la convergencia de la sucesión?
  2. El copo de nieve de Koch es la curva a la que converge una sucesión definida como sigue:
    $A_1$ es un triángulo equilátero.
    $A_2$ sustituye la tercera parte central de cada lado por dos aristas de la misma medida.
    $A_3$ Hace lo mismo. Se repite el proceso recursivamente
    ¿Qué puedes decir del área encerrada por las curvas a medida que la sucesión aumenta? ¿Hay condiciones suficientes para concluir la convergencia de estos conjuntos?
  3. Demuestra la convergencia en el espacio de Hausdorff de la sucesión de polígonos circunscritos descrita anteriormente.
  4. Demuestra la convergencia en el espacio de Hausdorff de la sucesión de cilindros expresada anteriormente.

Enlaces

Convergencia

Por Lizbeth Fernández Villegas

$ \textit{ MATERIAL EN REVISIÓN}$

Introducción

Ante el modelado de situaciones, resulta útil identificar qué tan lejos está un objeto de convertirse en otro. Si se identifica una secuencia o patrón entre una situación y la siguiente, posiblemente se pueda comprobar que, tras varios cambios, nos aproximaremos a algún resultado específico. El Análisis Matemático ofrece herramientas que formalizan este estudio. En la sección que a continuación presentamos trabajaremos más con la noción de cercanía a través de distancias que van tendiendo a cero. Esta vez lo haremos con una sucesión que toma elementos del espacio métrico. Se verá bajo qué condiciones estos puntos se acercan cada vez más a cierto punto en el espacio métrico. Comencemos con la siguiente:

Definición. Sucesión. Sea $(X,d)$ un espacio métrico. Decimos que una función $x: \mathbb{N} \to X$ es una sucesión en $X$.

Podemos pensar entonces que una sucesión elige, para cada número natural $n$, un elemento $x_n$ del conjunto $X$. Vamos a denotar una sucesión como $(x_n)_{n \in \mathbb{N}}.$

Representación de una sucesión en $(X,d)$

¿Bajo qué condiciones podemos decir que la sucesión se aproxima cada vez más a cierto punto $x$ en $(X,d)$? Para que esto ocurra se espera que, siempre que se fije una distancia $\varepsilon >0$ como referencia, se pueda asegurar que los últimos elementos de la sucesión, tengan una distancia al punto $x$ menor que $\varepsilon$, es decir, que exista un número natural $N \,$ de modo que todos los puntos asignados por la sucesión a partir de la posición $N$, estén “dentro” de la bola de radio $\varepsilon$ con centro en $x$, el punto de convergencia. De manera formal, tenemos la:

Definición. Sucesión convergente. Vamos a decir que una sucesión $(x_n)_{n \in \mathbb{N}} \,$ es convergente en $(X,d)$ si existe $x \in X$ tal que para todo $\varepsilon >0$ existe $N \in \mathbb{N}$ tal que para todo $n \geq N$ ocurre que $d(x_n,x)<\varepsilon$.

Los últimos puntos de la sucesión están dentro de la bola de radio $\varepsilon$ con centro en $x$.

Si es así, diremos que $(x_n)_{n \in \mathbb{N}} \,$ converge a $x$ y se indicará en la notación como:
$$x_n \to x$$
o como:
$$\underset{n \to \infty}{lim} \, x_n =x$$
Nota: $x_n \to x \text{ en } X \iff d(x_n,x) \to 0 \text{ en } \mathbb{R}$.
Si la sucesión no es convergente decimos que es divergente.

Ahora veamos que una sucesión no puede converger a dos puntos diferentes:

Proposición. Si $(x_n)_{n \in \mathbb{N}} \,$ es una sucesión convergente en $X$ entonces el límite $\underset{n \to \infty}{lim} \, x_n$ es único.
Demostración:
Supongamos que $x_n \to x_a \,$ y $\, x_n \to x_b \,$ en $X$. Sea $\varepsilon>0$. Siguiendo la definición de convergencia se tiene que para todo $\frac{\varepsilon}{2} >0$ existen números naturales $N_a\, $ y $\, N_b\, $ tales que para todo $n\geq N_a, \, d(x_n,x_a)< \frac{\varepsilon}{2}$ y para todo $n\geq N_b, \, d(x_n,x_b)< \frac{\varepsilon}{2}$. Si elegimos $N = max\{N_a,N_b\}$ las dos condiciones anteriores se satisfacen. Entonces, para toda $n\geq N$,
$0 \leq d(x_a,x_b) \leq d(x_a,x_n)+d(x_n,x_b) \leq \frac{\varepsilon}{2}+\frac{\varepsilon}{2}= \varepsilon$
Nota entonces que $\forall \, \varepsilon >0,$ la distancia entre $x_a$ y $x_b$ queda acotada por $0 \leq d(x_a,x_b) \leq \varepsilon.$
En conclusión, $d(x_a,x_b)=0$, por lo tanto los puntos de convergencia son iguales.

Es importante mencionar que la convergencia de una sucesión depende tanto de la métrica como del conjunto a considerar. Una sucesión puede ser convergente en un espacio métrico pero no serlo en otro. Por ejemplo, la sucesión que a cada natural $n$ le asigna el número $\frac{1}{n}$ cumple que $(\frac{1}{n}) \to 0$ en $\mathbb{R}$ con la métrica euclideana, pero en el subespacio euclideano $(0,1]$ no es convergente, pues $0$ no está en el subespacio.

Definición. Subsucesión de $(x_n)_{n \in \mathbb{N}}.$. Una subsucesión $(x_{k(n)})_{n \in \mathbb{N}}$ es una composición de la sucesión $(x_n)_{n \in \mathbb{N}}$ con una función estrictamente creciente, $k:\mathbb{N} \to \mathbb{N}$.
Esto significa que una subsucesión tomará elementos en $X$ de la sucesión, en el mismo orden en que aparecen, aunque es posible que vaya descartando algunos.

Los puntos en verde señalan un ejemplo de subsucesión.

Hay una relación entre el límite de una sucesión y los de sus subsucesiones:

Proposición. Una sucesión $(x_n)_{n \in \mathbb{N}}$ converge a $x$ en $X$ si y solo si toda subsucesión $(x_{k(n)})_{n \in \mathbb{N}}$ converge a $x$ en $X$.

Tanto los últimos puntos de la sucesión como los de la subsucesión se aproximan al punto de convergencia.

Demostración:
Sea $(x_{k(n)})_{n \in \mathbb{N}}$ una subsucesión de $(x_n)_{n \in \mathbb{N}}$. Como $(x_n)_{n \in \mathbb{N}}$ converge entonces existe $N \in \mathbb{N}$ tal que para todo $n \geq N, \, d(x_n,x) < \varepsilon$. Ya que $k: \mathbb{N} \to \mathbb{N}$ es estrictamente creciente, tenemos que para todo $j \geq N, \, k(j) \geq k(N) \geq N$. Así, $d(x_k(j),x)< \varepsilon$, lo cual demuestra que $(x_{k(n)}) \to x$. El regreso es trivial, pues es posible definir una subsucesión como la sucesión misma.

Definición. Sucesión acotada. Diremos que una sucesión $(x_n)_{n \in \mathbb{N}}$ en $X$ es acotada si existe $M \in \mathbb{R}$ y $x \in X$ tales que $\forall \, n \in \mathbb{N}$ ocurre que $d(x,x_n) \leq M$.
Esto significa que una sucesión es acotada si todos los puntos $x_n,$ con $n \in \mathbb{N}$ están en una bola abierta con centro en algún punto $x$ del espacio métrico.

Representación de una sucesión acotada.

¿Es posible concluir que una sucesión es convergente si sabemos que es una sucesión acotada? Al final se te propondrá dar un ejemplo de una sucesión acotada que no sea convergente.
En contraparte, tenemos la siguiente:

Proposición. Toda sucesión convergente es acotada.
Demostración:
Sea $(x_n)_{n \in \mathbb{N}} \,$ una sucesión que converge a $x$ en $X$. Buscamos «encerrar» todos los puntos de la sucesión en una bola abierta. Si suponemos $\varepsilon = 1$, existe $N \in \mathbb{N}$ tal que para todo $n \geq N, \, d(x_n,x)<1$. Hasta aquí ya logramos «encerrar» todos los puntos de la sucesión a partir de $x_N$.

A partir de $x_N$, los puntos de la sucesión están en una bola abierta.

Para encerrar los elementos que van antes en la sucesión, considera las distancias entre $x$ y cada uno de esos puntos como $d_i = d(x_i,x), \, i=1,…,N-1$.

Si hacemos $M = máx\{d_i,1\}, \, i=1,…,N-1$, se consigue que para todo $n \in \mathbb{N}, \, d(x_n,x)<M$ con lo cual se demuestra que la sucesión es acotada.

Todos los puntos de la sucesión están en una bola abierta.

Los últimos resultados que expondremos en esta entrada son muy importantes, en el sentido en que suele acudirse a ellos para otras demostraciones. Te sugerimos tenerlos presentes.

Proposición. Si $x_n \to x$ en $X$ entonces $x$ es un punto de contacto del conjunto $\{x_n \,|n \in \mathbb{N}\}$.
Según la definición, basta con demostrar que toda bola abierta de radio $\varepsilon >0$ con centro en $x$ interseca al conjunto $\{x_n\}$. La demostración se deja como ejercicio.

Toda bola abierta con centro en el punto de convergencia tiene elementos de la sucesión.

Proposición. Sea $A \subset X$ y $x \in X$. Entonces $x \in \overline{A}$ si y solo si existe una sucesión $(x_n)_{n \in \mathbb{N}}$ en $A$ tal que $x_n \to x$ en $X$.

Demostración:
El regreso se concluye a partir de la proposición anterior.
Si $x \in \overline{A}$ entonces todas las bolas abiertas con centro en $x$ intersecan al conjunto $A$. Así, para cada $n \in \mathbb{N}$, podemos elegir un punto $x_n \in B(x, \frac{1}{n}) \cap A$. Como $d(x,x_n)< \frac{1}{n} \to 0$ en $\mathbb{R}$, se concluye que $x_n \to x$ en $X$.

Todo punto de contacto de un conjunto tiene una sucesión en el conjunto, convergente.

Más adelante…

Tendremos un acercamiento a un espacio métrico cuyos elementos son los subconjuntos cerrados de otro espacio métrico. Al definir la distancia entre estos subconjuntos cerrados veremos que, si una sucesión de ellos converge, entonces lo hace en un subconjunto cerrado. Ya que eso significa que la distancia tiende a cero, y la distancia entre dos elementos es cero cuando son iguales, podemos esperar que los subconjuntos de la sucesión se parecerán cada vez más, al subconjunto al cual convergen.

Tarea moral

  1. Prueba que si $(x_n) \to x$ en $X$ entonces $x$ es un punto de contacto del conjunto $\{x_n \,|n \in \mathbb{N}\}$.
  2. Demuestra que una sucesión constante converge.
  3. ¿Puede una sucesión ser convergente en el espacio discreto? ¿Bajo qué condiciones?
  4. Da un ejemplo de una sucesión en $\mathbb{Q}$ que converge en $\mathbb{R}$ pero no en $\mathbb{Q}$.
  5. Sea $A \subset X$. Demuestra que $x$ es un punto interior de $A$ si y solo si para toda $(x_n)_{n \in \mathbb{N}}$ que converge a $x$ en $X$, existe $N>0$ tal que $\forall \, n \geq N, x_n \in A$.
  6. Demuestra que $x \in X$ es un punto frontera de $A \subset X$ si y solo si existen sucesiones $(a_n)_{n \in \mathbb{N}}$ en $A$ y $(b_n)_{n \in \mathbb{N}}$ en $X\setminus A$ que convergen a $x$.
  7. Demuestra que si la imagen de una sucesión es finita entonces la sucesión es convergente.
  8. Da un ejemplo de una sucesión acotada que no sea convergente.

Enlaces

Álgebra Superior I: Determinante de matrices y propiedades

Por Eduardo García Caballero

Introducción

Uno de los conceptos más importantes en el álgebra lineal es la operación conocida como determinante. Si bien este concepto se extiende a distintos objetos, en esta entrada lo revisaremos como una operación que se puede aplicar a matrices cuadradas. Como veremos, el determinante está muy conectado con otros conceptos que hemos platicado sobre matrices

Definición para matrices de $2\times 2$

A modo de introducción, comenzaremos hablando de determinantes para matrices de $2\times 2$. Aunque este caso es sencillo, podremos explorar algunas de las propiedades que tienen los determinantes, las cuales se cumplirán de manera más genera. Así, comencemos con la siguiente definición.

Definición. Para una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, definimos su determinante como
\[
\operatorname{det}(A) = ad – bc.
\]

Basándonos en esta definición, podemos calcular los determinantes
\[
\operatorname{det}
\begin{pmatrix} 9 & 3 \\ 5 & 2 \end{pmatrix}=9\cdot 2 – 3\cdot 5 = 3
\]
y
\[
\operatorname{det}
\begin{pmatrix} 4 & -3 \\ 12 & -9 \end{pmatrix}
=
4\cdot (-9)-(-3)\cdot 12= 0.
\]

Otra notación que podemos encontrar para determinantes es la notación de barras. Lo que se hace es que la matriz se encierra en barras verticales, en vez de paréntesis. Así, los determinantes anteriores también se pueden escribir como
\[
\begin{vmatrix} 9 & 3 \\ 5 & 2 \end{vmatrix} = 3
\qquad
\text{y}
\qquad
\begin{vmatrix} 4 & -3 \\ 12 & -9 \end{vmatrix} = 0.
\]

Primeras propiedades del determinante

El determinante de una matriz de $2\times 2$ ayuda a detectar cuándo una matriz es invertible. De hecho, esto es algo que vimos previamente, en la entrada de matrices invertibles. En ella, dijimos que una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si se cumple que $ad – bc \ne 0$. ¡Aquí aparece el determinante! Podemos reescribir el resultado de la siguiente manera.

Teorema. Una matriz de la forma $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si $\det(A) \ne 0$. Cuando el determinante es distinto de cero, la inversa es $A^{-1} = \frac{1}{\det(A)}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$.

Otra propiedad muy importante que cumple el determinante para matrices de $2\times 2$ es la de ser multiplicativo; es decir, para matrices $A$ y $B$ se cumple que $\operatorname{det}(AB) = \operatorname{det}(A) \operatorname{det}(B)$. La demostración de esto se basa directamente en las definiciones de determinante y de producto de matrices. Hagamos las cuentas a continuación para matrices $A=\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}$ y $B=\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.$

Tenemos que:
\begin{align*}
\operatorname{det}(AB)
&=
\operatorname{det}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21})(a_{21}b_{12} + a_{22}b_{22})-(a_{11}b_{12} + a_{12}b_{22})(a_{21}b_{11} + a_{22}b_{21})
\\[5pt]
&=
a_{11}a_{22}b_{11}b_{22} – a_{12}a_{21}b_{11}b_{22} – a_{11}a_{22}b_{12}b_{21} + a_{12}a_{21}b_{12}b_{21}
\\[5pt]
&=
(a_{11}a_{22} – a_{12}a_{21})(b_{11}b_{22} – b_{12}b_{21})
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\operatorname{det}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{det}(A)\operatorname{det}(B).
\end{align*}

Interpretación geométrica del determinante de $2\times 2$

El determinante también tiene una interpretación geométrica muy interesante. Si tenemos una matriz de $2\times 2$, entonces podemos pensar a cada una de las columnas de esta matriz como un vector en el plano. Resulta que el determinante es igual al área del paralelogramo formado por estos vectores.

Por ejemplo, si consideramos la matriz
\[
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix},
\]
podemos ver que el vector asociado a su primera columna es el vector $(4,1)$, mientras que el vector asociado a su segunda columna es $(2,3)$:

Así, el paralelogramo $ABDC$ de la figura anterior formado por estos dos vectores tiene área igual a
\[
\operatorname{det}
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix}
= 4\cdot 3 – 2\cdot 1 = 10.
\]

No daremos la demostración de este hecho, pues se necesita hablar más sobre la geometría del plano. Sin embargo, las ideas necesarias para este resultado pueden consultarse en un curso de Geometría Analítica I.

Definición recursiva

También nos interesa hablar de determinantes de matrices más grandes. De hecho, nos interesa hablar del determinante de cualquier matriz cuadrada. La definición formal requiere de varios conocimientos de Álgebra Lineal I. Sin embargo, por el momento podemos platicar de cómo se obtienen los determinantes de matrices recursivamente. Con esto queremos decir que para calcular el determinante de matrices de $3\times 3$, necesitaremos calcular varios de matrices de $2\times 2$. Así mismo, para calcular el de matrices de $4\times 4$ requeriremos calcular varios de matrices de $3\times 3$ (que a su vez requieren varios de $2\times 2$).

Para explicar cómo es esta relación de poner determinantes de matrices grandes en términos de matrices más pequeñas, primeramente definiremos la función $\operatorname{sign}$, la cual asigna a cada pareja de enteros positivos $(i,j)$ el valor
\[
\operatorname{sign}(i,j) = (-1)^{i+j}.
\]
A partir de la función $\operatorname{sign}$ podemos hacer una matriz cuya entrada $a_{ij}$ es $\operatorname{sign}(i,j)$. Para visualizarla más fácilmente, podemos pensar que a la entrada $a_{11}$ (la cual se encuentra en la esquina superior izquierda) le asigna el signo “$+$”, y posteriormente va alternando los signos del resto de entradas. Por ejemplo, los signos correspondientes a las entradas de la matriz de $3 \times 3$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + \\
– & + & – \\
+ & – & +
\end{pmatrix},
\]
mientras que los signos correspondientes a las entradas de la matriz de $4 \times 4$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} & a_{14} \\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34} \\
a_{41} & a_{42} & a_{43} & a_{44}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + & – \\
– & + & – & + \\
+ & – & + & – \\
– & + & – & +
\end{pmatrix}.
\]

Ya que entendimos cómo se construyen estas matrices, el cálculo de determinantes se realiza como sigue.

Estrategia. Realizaremos el cálculo de determinante de una matriz de $n \times n$ descomponiéndola para realizar el cálculo de determinantes de matrices de $(n-1) \times (n-1)$. Eventualmente llegaremos al calcular únicamente determinantes de matrices de $2 \times 2$, para las cuales ya tenemos una fórmula. Para esto, haremos los siguientes pasos repetidamente.

  1. Seleccionaremos una fila o columna arbitraria de la matriz original (como en este paso no importa cuál fila o columna seleccionemos, buscaremos una que simplifique las operaciones que realizaremos; generalmente nos convendrá seleccionar una fila o columna que cuente en su mayoría con ceros).
  2. Para cada entrada $a_{ij}$ en la fila o columna seleccionada, calculamos el valor de
    \[
    \operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
    \]
    donde $A_{ij}$ es el la matriz que resulta de quitar la fila $i$ y la columna $j$ a la matriz original.
  3. El determinante de la matriz será la suma de todos los términos calculados en el paso anterior.

Veamos algunos ejemplos de cómo se utiliza la estrategia recién descrita.

Ejemplo con matriz de $3\times 3$

Consideremos la matriz de $3 \times 3$
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

A primera vista no hay alguna fila o columna que parezca simplificar los cálculos, por lo cual podemos proceder con cualquiera de estas; nosotros seleccionaremos la primera fila.
\[
\begin{pmatrix}
\fbox{3} & \fbox{1} & \fbox{-1} \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

Para cada término de la primera fila, calculamos el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{i,j}),
\]
obteniendo
\begin{align*}
\operatorname{sign}(1,1) \cdot (a_{11}) \cdot \operatorname{det}(A_{11})
&= +(3)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
\blacksquare & -1 & -2 \\
\blacksquare & -3 & -2
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det} \begin{pmatrix} -1 & -2 \\ -3 & -2 \end{pmatrix}
\\[5pt]
&= +(3)[(-1)(-2) – (-2)(-3)]
\\[5pt]
&= +(3)(-4)
\\[5pt]
&= -12,
\\[10pt]
\operatorname{sign}(1,2) \cdot (a_{12}) \cdot \operatorname{det}(A_{12})
&= -(1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & \blacksquare & -2 \\
4 & \blacksquare & -2
\end{pmatrix}
\\[5pt]
&= -(1)\operatorname{det}
\begin{pmatrix} 6 & -2 \\ 4 & -2 \end{pmatrix}
\\[5pt]
&=-(1)[(6)(-2) – (-2)(4)]
\\[5pt]
&=-(1)(-4)
\\[5pt]
&=4,
\\[10pt]
\operatorname{sign}(1,3) \cdot (a_{13}) \cdot \operatorname{det}(A_{13})
&= +(-1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & -1 & \blacksquare \\
4 & -3 & \blacksquare
\end{pmatrix}
\\[5pt]
&= +(-1)\operatorname{det} \begin{pmatrix} 6 & -1 \\ 4 & -3 \end{pmatrix}
\\[5pt]
&= +(-1)[(6)(-3) – (-1)(4)]
\\[5pt]
&= +(-1)(-14)
\\[5pt]
&= 14.
\end{align*}

Finalmente, el determinante de nuestra matriz original será la suma de los términos calculados; es decir,
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -1
\end{pmatrix}
=
(-12) + (4) + (14) = 6.
\]

Ejemplo con matriz de $4\times 4$

En el siguiente ejemplo veremos cómo el escoger una fila o columna en específico nos puede ayudar a simplificar mucho los cálculos.

Consideremos la matriz
\[
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}.
\]

Observemos que el valor de tres de las entradas de la segunda columna es $0$. Por esta razón, seleccionaremos esta columna para descomponer la matriz:
\[
\begin{pmatrix}
4 & \fbox{0} & 2 & 2 \\
-1 & \fbox{3} & -2 & 5 \\
-2 & \fbox{0} & 2 & -3 \\
1 & \fbox{0} & 4 & -1
\end{pmatrix}.
\]

El siguiente paso será calcular el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
\]
para cada entrada de esta columna. Sin embargo, por la elección de columna que hicimos, podemos ver que el valor de $a_{ij}$ es 0 para tres de las entradas, y por tanto también lo es para el producto que deseamos calcular. De este modo, únicamente nos restaría calcular el producto
\begin{align*}
\operatorname{sign}(2,2) \cdot a_{22} \cdot \operatorname{det}(A_{22})
&=
+(3)\operatorname{det}
\begin{pmatrix}
4 & \blacksquare & 2 & 2 \\
\blacksquare & \blacksquare & \blacksquare & \blacksquare \\
-2 & \blacksquare & 2 & -3 \\
1 & \blacksquare & 4 & -1
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det}
\begin{pmatrix}
4 & 2 & 2 \\
-2 & 2 & -3 \\
1 & 4 & -1
\end{pmatrix}.
\end{align*}
Se queda como ejercicio al lector concluir que el resultado de este último producto es 30.

De este modo, obtenemos que
\[
\operatorname{det}
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}
= 0 + 30 + 0 + 0 = 30.
\]

Aunque esta definición recursiva nos permite calcular el determinante de una matriz cuadrada de cualquier tamaño, rápidamente se vuelve un método muy poco práctico (para obtener el determinante de una matriz de $6 \times 6$ tendríamos que calcular hasta 60 determinantes de matrices de $2 \times 2$). En el curso de Álgebra Lineal I se aprende otra definición de determinante a través de permutaciones, de las cuales se desprenden varios métodos más eficientes para calcular determinante. Hablaremos un poco de estos métodos en la siguiente entrada.

Las propiedades de $2\times 2$ también se valen para $n\times n$

Las propiedades que enunciamos para matrices de $2\times 2$ también se valen para determinantes de matrices más grandes. Todo lo siguiente es cierto, sin embargo, en este curso no contamos con las herramientas para demostrar todo con la formalidad apropiada:

  • El determinante es multiplicativo: Si $A$ y $B$ son matrices de $n\times n$, entonces $\operatorname{det}(AB) = \operatorname{det}(A)\operatorname{det}(B)$.
  • El determinante detecta matrices invertibles: Una matriz $A$ de $n\times n$ es invertible si y sólo si su determinante es distinto de $0$.
  • El determinante tiene que ver con un volumen: Los vectores columna de una matriz $A$ de $n\times n$ hacen un paralelepípedo $n$-dimensional cuyo volumen $n$-dimensional es justo $\det{A}$.

Más adelante…

En esta entrada conocimos el concepto de determinante de matrices, vimos cómo calcularlo para matrices de distintos tamaños y revisamos cómo se interpreta cuando consideramos las matrices como transformaciones de flechas en el plano. En la siguiente entrada enunciaremos y aprenderemos a usar algunas de las propiedades que cumplen los determinantes.

Tarea moral

  1. Calcula los determinantes de las siguientes matrices:
    • $\begin{pmatrix} 5 & 8 \\ 3 & 9 \end{pmatrix}, \begin{pmatrix} 10 & 11 \\ -1 & 9 \end{pmatrix}, \begin{pmatrix} 31 & 38 \\ 13 & -29 \end{pmatrix}$
    • $\begin{pmatrix} 1 & 5 & 2 \\ 3 & -1 & 8 \\ 0 & 2 & 5 \end{pmatrix}, \begin{pmatrix} 1 & 8 & 4 \\ 0 & 5 & -3 \\ 0 & 0 & -1 \end{pmatrix}, \begin{pmatrix} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 3 & 3 & 3 \end{pmatrix}$
    • $\begin{pmatrix} 5 & 7 & -1 & 2 \\ 3 & 0 & 1 & 0 \\ 2 & -2 & 2 & -2 \\ 5 & 1 & 1 & 0 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 9 & 10 & 11 & 12 \\ 13 & 14 & 15 & 16 \end{pmatrix}$
  2. Demuestra que para una matriz $A$ y un entero positivo $n$ se cumple que $\det(A^n)=\det(A)^n$.
  3. Sea $A$ una matriz de $3\times 3$. Muestra que $\det(A)=\det(A^T)$.
  4. Sea $A$ una matriz invertible de $2\times 2$. Demuestra que $\det(A)=\det(A^{-1})^{-1}$.
  5. ¿Qué le sucede al determinante de una matriz $A$ cuando intercambias dos filas? Haz algunos experimentos para hacer una conjetura, y demuéstrala.

Entradas relacionadas

Álgebra Superior I: Sistemas de ecuaciones lineales

Por Eduardo García Caballero

Introducción

Una de las aplicaciones más importantes de los vectores y matrices tiene que ver con un tema que conociste desde la secundaria y preparatoria: los sistemas de ecuaciones.

Más específicamente, los vectores y matrices nos serán de gran utilidad para resolver sistemas de ecuaciones lineales, determinar cuándo un sistema sí tiene soluciones, y cuáles son todas sus soluciones.

Pero antes, repasemos un poco los conceptos de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Recordemos que una ecuación es una expresión en la que hay variables o valores que no conocemos. En el caso de una ecuación lineal, se trata de ecuaciones en las que todas sus variables se encuentran elevadas a la primera potencia y acompañadas únicamente por coeficientes constantes. Por ejemplo, podemos ver que las expresiones
\[
2x + 9y – z = 3,
\qquad
4w + 3000a = y + \tfrac{1}{2}x
\]
son ecuaciones lineales, mientras que las expresiones
\[
ax^2 + bx + c = 0,
\qquad
2xz = 9y
\]
no lo son, pues contienen al menos una variable elevada a exponentes distintos de $1$, o bien hay variables multiplicándose entre sí.

De manera más formal, una ecuación de lineal es una ecuación que se puede escribir de la forma
\[
a_1x_2 + a_2x_2 + \cdots + a_nx_n = b,
\]
donde $x_1, \ldots, x_n$ son variables y $a_1, \ldots, a_n, b$ son coeficientes, todos del mismo tipo (en este curso trabajaremos con coeficientes reales, pero en otros cursos podrás encontrar coeficientes de otros tipos, como son números enteros, racionales, y complejos, entre otros).

Por su parte, un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales. Por ejemplo, los siguientes son sistemas de ecuaciones lineales:
\[
\begin{cases}
2x -\tfrac{3}{2}y + 8z = 1 \\
9z + 2w + 5y = 3,
\end{cases}
\qquad
\begin{cases}
2 + 9a = 46b -5c \\
2d + 8x = \sqrt{3} \\
x + y + z = a + b + c \\
x = -y
\end{cases}
\]
Bajo esta definición, una única ecuación se puede considerar un sistema de ecuaciones lineales (con una ecuación).

Notemos que no es necesario que todas las ecuaciones compartan variables, sin embargo, generalmente esto sí sucederá. De hecho, podemos pensar que todas las variables aparecen en todas las ecuaciones. En caso de que esto no suceda, podemos considerar que las variables que no aparecen en una ecuación tienen coeficiente cero. Además, siempre podemos reordenar las variables en las ecuaciones para que en todas ellas aparezcan en el mimo orden. Por ejemplo, a continuación el sistema de ecuaciones a la izquierda lo podemos escribir como el de la derecha, sin alterarlo.

\[
\begin{cases}
2x -\tfrac{3}{2}z + 8y = 11 \\
9z + 2w + 5k = -3,
\end{cases}
\qquad
\begin{cases}
0k+0w+2x + 8y – \tfrac{3}{2}z = 11 \\
5k+2w+0x+0y+9z = -3.
\end{cases}
\]

¿Qué quiere decir resolver un sistema de ecuaciones lineales?

Como recordarás, encontrar una solución de una ecuación corresponde a encontrar valores que, al sustituirlos en las variables, hagan que la expresión sea verdadera. Por ejemplo, si tenemos la ecuación $2x-3y=0$, una solución está dada por $x=3$ y $y=2$, ya que al sustituir en efecto tenemos $(2)(3)-(3)(2)=0$. En ocasiones, una ecuación puede tener más de una solución. Por ejemplo, en este caso otra posible solución es $x=6$ y $y=4$, ya que al sustituir en efecto tenemos $(2)(6)-(3)(4)=0$. Para esta ecuación hemos encontrado entonces dos posibles soluciones. Pero aún no la hemos resuelto. Como veremos un poco más abajo, para resolverla tenemos que alcanzar una meta más grande.

Para el caso de sistemas de ecuaciones lineales, encontrar una solución consiste en dar una asignación de valores a las variables que hagan que todas las ecuaciones sean ciertas simultáneamente. Por ejemplo, podemos verificar que los valores
\[
x = 3 \quad y =5 \quad z = -2
\]
hacen que cada una de las ecuaciones en el sistema
\[
\begin{cases}
x + 2y – z = 15 \\
4x – y + z = 5
\end{cases}
\]
se cumplan simultáneamente. Otra posible solución está dada por la asignación
\[
x = 1 \quad y =15 \quad z = 16.
\]

Cuando hablamos de resolver una ecuación o un sistema de ecuaciones no nos bastará encontrar unas cuantas soluciones que funcionen. Queremos encontrar todas las posibles soluciones.

Como ejemplo más sencillo, tratemos de encontrar todas las soluciones del sigueinte sistema con una única ecuación
\[
\begin{cases}
2x + 3y – z = 5.
\end{cases}
\]

Si despejamos $x$ en la ecuación, obtenemos
\[
x = \frac{-3y+z+5}{2}.
\]
Esto nos indica que podemos escoger valores arbitrarios de $y$ y $z$, y el valor de $x$ quedará determinado por estos valores.

Entonces, la solución de la ecuación son todas las $(x,y,z)$ tales que $x = \frac{-3y+z+5}{2}$; es decir, todas las soluciones del sistema de ecuaciones son de la forma
\[
\left( \frac{-3y+z+5}{2}, y, z \right).
\]

Otra manera de decir esto es que el conjunto de soluciones para el sistema de ecuaciones es el siguiente:

$$S:=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}.$$

Esto ahora sí resuelve el sistema, pues hemos encontrado una descripción para todas las posibles soluciones del sistema. Si tomas los valores que quieras para $y$ y $z$, podrás dar una solución. Por ejemplo, al tomar $y=1,z=2$ obtenemos la solución $(2,1,2)$, la cual puedes verificar que es una solución al sistema de ecuaciones de una ecuación con el que comenzamos. Toda posible solución está en $S$. Como $y$ y $z$ pueden valer lo que sea, las llamamos variables libres. A $x$, que queda totalmente determinada una vez fijas las variables libres, la llamamos variable pivote.

¿Qué sucede si tenemos más ecuaciones? Tratemos de encontrar todas las soluciones para el sistema de ecuaciones siguiente
\[
\begin{cases}
y+z =1 \\
3x+2y+5z&=1.
\end{cases}
\]

Podemos intentar lo mismo que arriba y fijar algún valor e intentar poner al resto en términos de ese. Pero hay que ser cuidadosos. Por ejemplo, al fijar el valor de $x$, no podremos despejar a $y$ (ni a $z$) en términos únicamente de $x$. Sin embargo, fijamos el valor de $z$, sí podemos determinar todo completamente.

Al fijar $z$, entonces $y$ queda determinado como $y = -z + 1$. Sustituyendo este valor de $y$ en la segunda ecuación, obtendremos $3x + 2(-z+1) + 5z = 1$, que equivale a $3x +3z = -1$, de donde tenemos que $x = -z -1/3 $. Entonces, podemos pensar a $z$ como la variable libre y como $y$ y $x$ dependen completamente de $z$, las pensamos como variables pivote. La descripción de las soluciones quedaría entonces como

$$R=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}.$$

Aunque ahora hemos tenido éxito con describir totalmente las soluciones de dos sistemas de ecuaciones y en ambos casos hemos tenido una infinidad de soluciones, lo cierto es que existen sistemas de ecuaciones sin solución. Por ejemplo, consideremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
4x + 3y = 8.
\end{cases}
\]
Podemos ver que cada una de las ecuaciones, de manera individual, tienen soluciones, y hasta podríamos encontrar todas las posibles soluciones (¿puedes dar un par de ejemplos de cada una?). Sin embargo, no existen valores de $x$ y $y$ que resuelvan ambas ecuaciones al mismo tiempo. Esto lo podemos observar porque, si multiplicamos la segunda ecuación por $3$, obtendremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
12x + 9y = 24.
\end{cases}
\]
Si hubiera alguna solución, podríamos igualar ambas ecuaciones y llegar a que $7=24$, una contradicción.

Interpretación geométrica

El primer conjunto solución que encontramos arriba se puede reescribir en términos de cada variable $y$ y $z$ usando la suma y producto escalar que estudiamos en entradas anteriores de la siguiente manera:

\begin{align*}
S&=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}\\
&=\left\{y(-3/2,1,0) + z(1/2,0,1) + (5/2,0,0):y,z\in \mathbb{R}\right\}.
\end{align*}

Posiblemente hayas visto expresiones en algún curso de geometría analítica. Lo anterior es un plano en $\mathbb{R}^3$ que pasa por el punto $(5/2,0,0)$ y generado a partir de ese punto por los vectores $(-3/2,1,0)$ y $(1/2,0,1)$.

Del mismo modo, en el segundo ejemplo que vimos arriba el sistema de ecuaciones puede reescribirse como:

\begin{align*}
R&=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}\\
&=\{(-1/3,1,0)+z(-1,-1,1):z\in \mathbb{R}\},
\end{align*}

que posiblemente identifiques como la recta en $\mathbb{R}^3$ que parte del punto $(-1/3,1,0)$ y tiene dirección $(-1,-1,1)$.

Forma matricial de un sistema de ecuaciones

Como vimos en una entrada previa, dos vectores del mismo tamaño son iguales si y sólo si sus respectivas entradas son iguales. Una consecuencia de esta definición es que el sistema de ecuaciones
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se cumple si y sólo si
\[
\begin{pmatrix}
a_{11}x_1 + a_{12}x_2 + \cdots a_{1n}x_n \\
a_{21}x_1 + a_{22}x_2 + \cdots a_{2n}x_n \\
\vdots \\
a_{m1}x_1 + a_{m2}x_2 + \cdots a_{mn}x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Más aún, observemos que el lado izquierdo de esta igualdad lo podemos reescribir como un producto de matriz con vector de la siguiente manera
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix},
\]
lo cual podemos denotar como
\[
Ax = b.
\]

Entonces, podemos decir que nuestro sistema tiene solución si existe un vector $x = \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}$ tal que $Ax = b$, donde
\[
A
=
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\quad
\text{y}
\quad
b
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

A la expresión $Ax=b$ le llamamos la forma matricial del sistema de ecuaciones.

Ejemplo de la utilidad de la forma matricial

La forma matricial de un sistema de ecuaciones es sumamente útil, como veremos en las siguientes entradas. Pero veamos un pequeño ejemplo de una de sus aplicaciones. Supongamos que sabemos que la matriz $A$ es invertible con inversa $A^{-1}$. Recordemos que entonces se cumple que$A^{-1}A = \mathcal{I}$. Gracias a esto, podemos comenzar con la forma matricial del sistema de ecuaciones y deducir lo siguiente:
\begin{align*}
&Ax = b \\
\Rightarrow & A^{-1}Ax = A^{-1}b \\
\Rightarrow &x = A^{-1}b.
\end{align*}

Es decir, si conocemos la matriz inversa de $A$, ¡podemos obtener de manera única el vector que resuelve el sistema de ecuaciones mediante una multiplicación de matriz por vector!

Aún cuando no hemos visto el método general para saber si una matriz tiene inversa, ya vimos previamente qué sucede con una matriz de $2\times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]

Así, verifiquemos mediante un ejemplo que el método que mostramos sirve para encontrar soluciones de sistemas de ecuaciones. Consideremos el sistema de ecuaciones
\[
\begin{cases}
2x + 8y &= 9 \\
-3x + 4y &= 2.
\end{cases}
\]

Este sistema puede ser representado en forma matricial como
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix}.
\]

Como recordarás de entradas pasadas, la matriz inversa de $\begin{pmatrix} 2 & 8 \\ -3 & 4 \end{pmatrix}$ es
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}^{-1}
=
\frac{1}{2\cdot4 – 8\cdot(-3)}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\frac{1}{32}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}.
\]

Entonces si multiplicamos esta por matriz por la izquierda a ambos lados de la ecuación
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix},
\]
obtendremos
\begin{align*}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
5/8 \\
31/32
\end{pmatrix},
\end{align*}
lo que equivale a $x = 5/8$, $y = 31/32$; la solución del sistema. ¡Verifica que es solución!

Más adelante…

En esta entrada repasamos los conceptos y definiciones sobre sistemas de ecuaciones lineales, y nos adentramos a ver cómo existe una relación directa entre los sistemas de ecuaciones lineales y el producto de una matriz por un vector, así como que las matrices invertibles guardan relación con la solución del sistema.

Que la matriz asociada a un sistema de ecuaciones sea invertible en realidad no pasa tanto, y se tienen que desarrollar métodos más generales para resolver sistemas de ecuaciones. En la siguiente entrada conoceremos un algoritmo que nos permitirá resolver sistemas de ecuaciones con una cantidad arbitraria de variables y ecuaciones, y determinar exactamente cómo se ven todas las soluciones.

Tarea moral

  1. Usa el método de las variables libres y las variables pivote para describir al conjunto solución del siguiente sistema de ecuaciones y descríbelo geométricamente. Tendrás que elegir apropiadamente el orden en el que vas fijando las variables.
    \begin{cases}
    w+2x + 8y + 3z&= 0 \\
    -3x + 4y + z&= -1\\
    x+z&=2.\\
    \end{cases}
  2. Usa el método de la inversa para resolver los siguientes tres sistemas de ecuaciones:
    \[
    \begin{cases}
    2x + 8y &= 4 \\
    -3x + 4y &= 1,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 3 \\
    -3x + 4y &= -2,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 1 \\
    -3x + 4y &= -1.
    \end{cases}
    \]
  3. Intenta usar el método de las variables libres y pivote en el siguiente sistema de ecuaciones y explica qué dificultad tiene intentar usarlo directamente:
    \[
    \begin{cases}
    x + y &= 4 \\
    y+z &= 1\\
    z+x&=2.
    \end{cases}
    \]
    ¿Cómo describirías a un sistema de ecuaciones en el cuál se puede hacer el método de variables libres y pivote cómodamente?
  4. Considera un sistema de ecuaciones en forma matricial $Ax=b$. Demuestra que si $x$ y $x’$ son soluciones a este sistema, entonces $\frac{x+x’}{2}$ también lo es. Explica cómo puedes usar esto para a partir de dos soluciones $x$ y $x’$ distintas conseguir una infinidad de soluciones. Concluye que cualquier sistema de ecuaciones lineales o bien no tiene solución, o bien tiene una única solución, o bien tiene una infinidad de soluciones.
  5. Encuentra una matriz no invertible $A$ y un vector $b$ tales que el sistema de ecuaciones $Ax=b$ sí tenga solución. En ese sistema que diste, ¿la solución es única o puedes encontrar otra?

Entradas relacionadas

Álgebra Superior I: Producto de matrices con vectores

Por Eduardo García Caballero

Introducción

Anteriormente conocimos dos operaciones que podemos realizar utilizando vectores o matrices: la suma entre vectores/matrices y el producto escalar. Como recordarás, estas operaciones involucran exclusivamente vectores o exclusivamente matrices. En esta entrada veremos una operación que involucra a ambos objetos matemáticos a la vez: el producto de una matriz por un vector.

Definición de producto de matrices con vectores

Una condición indispensable para poder realizar el producto matriz-vector es que la cantidad de columnas de la matriz sea la misma que la cantidad de entradas del vector. Basándonos en esto, podríamos multiplicar
\[
\begin{pmatrix}
3 & \tfrac{1}{2} \\
2 & 5
\end{pmatrix}
\begin{pmatrix}
\pi \\
4
\end{pmatrix}
\qquad
\text{o}
\qquad
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
-3 \\
\tfrac{2}{3} \\
5
\end{pmatrix},
\]
pero no podríamos realizar la operación
\[
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
\pi \\
4
\end{pmatrix}.
\]

Como te habrás podido dar cuenta, en este tipo de producto es usual representar los vectores en su forma de “vector vertical” o “vector columna”.

El resultado de multiplicar una matriz por un vector será un nuevo vector, cuyo tamaño corresponde a la cantidad de filas de la matriz original.

Para obtener este nuevo vector, se sigue un algoritmo especial, el cual conocerás en entradas futuras. Sin embargo, a continuación te presentamos las fórmulas que definen a algunos casos especiales de esta operación, lo cual te permitirá obtener el producto en casos con una cantidad pequeña de entradas.

  • Producto de una matriz de tamaño $2 \times 2$ por un vector de tamaño $2$:

\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 \\
a_{21}u_1 + a_{22}u_2
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $3 \times 2$ por un vector de tamaño $2$:

\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 \\
a_{21}u_1 + a_{22}u_2 \\
a_{31}u_1 + a_{32}u_2
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $2 \times 3$ por un vector de tamaño $3$:

\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $3 \times 3$ por un vector de tamaño $3$:

\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3 \\
a_{31}u_1 + a_{32}u_2 + a_{33}u_3
\end{pmatrix}.
\]

¿Observas algún patrón en estas fórmulas?

Veamos algunos ejemplos numéricos de cómo usar estas fórmulas:

\(
\bullet
\begin{pmatrix}
3 & \tfrac{1}{2} \\
2 & 1
\end{pmatrix}
\begin{pmatrix}
-\tfrac{1}{3} \\
4
\end{pmatrix}
=
\begin{pmatrix}
(3)(-\tfrac{1}{3}) + (\tfrac{1}{2})(4) \\
(2)(-\tfrac{1}{3}) + (1)(4)
\end{pmatrix}
=
\begin{pmatrix}
-1 + 2 \\
-\tfrac{2}{3} + 4
\end{pmatrix}
=
\begin{pmatrix}
1 \\
\tfrac{10}{3}
\end{pmatrix}
\)

\(
\bullet
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
-3 \\
\tfrac{2}{3} \\
5
\end{pmatrix}
=
\begin{pmatrix}
(1)(-3) + (7)(\tfrac{2}{3}) + (\sqrt{2})(5) \\
(9)(-3) + (\tfrac{1}{3})(\tfrac{2}{3}) + (-2)(5)
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{5+15\sqrt{2}}{3} \\
-\tfrac{331}{3}
\end{pmatrix}.
\)

Breve exploración geométrica

Como probablemente hayas visto en tu curso de Geometría Analítica I, el producto de matrices por vectores se puede emplear para representar distintas transformaciones de vectores en el plano y en el espacio.

Si multiplicamos una matriz diagonal por un vector, entonces el resultado corresponderá a “redimensionar” el vector en sus distintas direcciones. Por ejemplo, observamos que el producto
\[
\begin{pmatrix}
3 & 0 \\
0 & 2
\end{pmatrix}
\begin{pmatrix}
3 \\
3
\end{pmatrix}
=
\begin{pmatrix}
9 \\
6
\end{pmatrix}
\]
corresponde a redimensionar el vector original al triple de manera horizontal y al doble de manera vertical.

Por otra parte, multiplicar por una matriz de la forma
\[
\begin{pmatrix}
\cos(\theta) & -\sin(\theta) \\
\sin(\theta) & \cos(\theta)
\end{pmatrix}
\]
ocasiona que el vector rote un ángulo $\theta$ en sentido contrario a las manecillas del reloj; por ejemplo,
\[
\begin{pmatrix}
\cos(30º) & -\sin(30º) \\
\sin(30º) & \cos(30º)
\end{pmatrix}
\begin{pmatrix}
5 \\
4
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{\sqrt{3}}{2} & -\tfrac{1}{2} \\
\tfrac{1}{2} & \tfrac{\sqrt{3}}{2}
\end{pmatrix}
\begin{pmatrix}
5 \\
4
\end{pmatrix}
=
\begin{pmatrix}
(\tfrac{\sqrt{3}}{2})(5) + (-\tfrac{1}{2})(4) \\
(\tfrac{1}{2})(5) + (\tfrac{\sqrt{3}}{2})(4)
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{5\sqrt{3}-4}{2} \\
\tfrac{5+4\sqrt{3}}{2}
\end{pmatrix}.
\]

Propiedades algebraicas del producto de una matriz por un vector

A continuación, exploraremos algunas de las propiedades que cumple el producto matriz-vector. Estas propiedades las deduciremos para matrices de $2 \times 3$ por vectores de tamaño $3$, pero la deducción para otros tamaños de matrices y vectores se realiza de manera análoga.

Primeramente, observemos que para matrices $A$ y $B$ de tamaño $2\times 3$, y para un vector $u$, se cumple que
\begin{align*}
(A+B)u
&=
\left(
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
\right)
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} & a_{13}+b_{13}\\
a_{21}+b_{21} & a_{22}+b_{22} & a_{23}+b_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(a_{11}+b_{11})u_1 + (a_{12}+b_{12})u_2+(a_{13}+b_{13})u_3 \\
(a_{21}+b_{21})u_1 + (a_{22}+b_{22})u_2+(a_{23}+b_{23})u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}u_1+b_{11}u_1 + a_{12}u_2+b_{12}u_2 + a_{13}u_3+b_{13}u_3 \\
a_{21}u_1+b_{21}u_1 + a_{22}u_2+b_{22}u_2 + a_{23}u_3+b_{23}u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}u_1+a_{12}u_2+a_{13}u_3 \\
a_{21}u_1+a_{22}u_2+a_{23}u_3
\end{pmatrix}
+
\begin{pmatrix}
b_{11}u_1+b_{12}u_2+b_{13}u_3 \\
b_{21}u_1+b_{22}u_2+b_{23}u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
Au + Bu,
\end{align*}
es decir, el producto matriz-vector se distribuye sobre la suma de matrices (esto también se conoce como que el producto matriz-vector abre sumas).

Por otra parte, podemos probar que el producto matriz-vector se distribuye sobre la suma de vectores; es decir, si $A$ es una matriz de $2 \times 3$, y $u$ y $v$ son vectores de tamaño $3$, entonces
\[
A(u+v) = Au + Av.
\]

Además, veamos que si $A$ es una matriz de $2 \times 3$, $r$ es un escalar, y $u$ un vector de tamaño $3$, entonces
\begin{align*}
A(ru)
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\left(
r
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
ru_1 \\
ru_2 \\
ru_3 \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}ru_1 + a_{12}ru_2 + a_{13}ru_3 \\
a_{21}ru_1 + a_{22}ru_2 + a_{23}ru_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
r(a_{11}u_1) + r(a_{12}u_2) + r(a_{13}u_3) \\
r(a_{21}u_1) + r(a_{22}u_2) + r(a_{23}u_3)
\end{pmatrix}
\\[5pt]
&=
r
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3
\end{pmatrix}
\\[5pt]
&=
r
\left(
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
r(Au)
\end{align*}
y, más aún,
\begin{align*}
A(ru)
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\left(
r
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
ru_1 \\
ru_2 \\
ru_3 \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}ru_1 + a_{12}ru_2 + a_{13}ru_3 \\
a_{21}ru_1 + a_{22}ru_2 + a_{23}ru_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(ra_{11})u_1 + (ra_{12})u_2 + (ra_{13})u_3 \\
(ra_{21})u_1 + (ra_{22})u_2 + (ra_{23})u_3
\end{pmatrix}
\\[5pt]
&=
\left(
\begin{pmatrix}
ra_{11} & ra_{12} & ra_{13} \\
ra_{21} & ra_{22} & ra_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\left(
r
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\right)
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
(rA)u.
\end{align*}

Por lo tanto $A(ru) = r(Au) = (rA)u$. Esta propiedad se conoce como que el producto matriz-vector saca escalares.

Como el producto de matrices por vectores abre sumas y saca escalares, se dice que es lineal. Un hecho bastante interesante, cuya demostración se dejará hasta los cursos de álgebra lineal, es que el regreso de esta afirmación también se cumple: ¡A cualquier transformación lineal se le puede asociar una matriz $A$ de modo que aplicar la transformación a un vector $v$ es lo mismo que hacer el producto $Av$!

Otras propiedades de este producto

En entradas anteriores definimos algunos vectores y matrices especiales.

Como recordarás, definimos la matriz identidad de tamaño $3 \times 3$ como
\[
\mathcal{I}_3
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}.
\]

Observemos que al multiplicar $\mathcal{I}_3$ por el vector
\[
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\]
obtendremos
\[
\mathcal{I}_3 u
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
1u_1 + 0u_2 + 0u_3 \\
0u_1 + 1u_2 + 0u_3 \\
0u_1 + 0u_2 + 1u_3
\end{pmatrix}
=
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
u.
\]
Como su nombre lo sugiere, la matriz $\mathcal{I}_n$ tiene la propiedad de ser neutro al multiplicarlo por un vector de tamaño $n$ (de hecho, como veremos en la siguiente entrada, ¡la matriz $I_n$ también cumple esta propiedad en otras operaciones!).

Por otra parte, recordemos que definimos el vector canónico $\mathrm{e}_i$ de tamaño $n$ como el vector en el que su $i$-ésima entrada es $1$ y sus demás entradas son $0$. Como ejemplo, veamos que
\begin{align*}
A\mathrm{e}_1
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
1 \\
0 \\
0
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
1a_{11} +0a_{12} +0a_{13} \\
1a_{21} +0a_{22} +0a_{23}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} \\
a_{21}
\end{pmatrix},
\end{align*}
donde este resultado corresponde a al primera columna de la matriz.

De manera análoga, podemos ver que
\[
A\mathrm{e}_2 =
\begin{pmatrix}
a_{12} \\
a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
A\mathrm{e}_3 =
\begin{pmatrix}
a_{13} \\
a_{23}
\end{pmatrix}
\]
corresponden a la segunda y tercera columna de la matriz, respectivamente.

En general, para matrices de tamaño $m \times n$ y el vector $\mathrm{e}_i$ de tamaño $n$, el resultado de $A\mathrm{e}_i$ corresponde al vector cuyas entradas son las que aparecen en la $i$-ésima columna de la matriz.

Más adelante…

En esta entrada conocimos el producto de matrices con vectores, exploramos su interpretación geométrica y revisamos algunas de las propiedades algebraicas que cumple. Esta operación se añade a las que aprendimos en entradas anteriores, ampliando nuestra colección de herramientas.

En la siguiente entrada descubriremos una operación que nos permitirá sacar aún más poder a las operaciones que hemos conocido hasta ahora: el producto de matrices.

Tarea moral

  1. Obtén el resultado de las siguientes multipicaciones:

\(
\begin{pmatrix}
1 & -2 & 3 \\
1 & 0 & -1
\end{pmatrix}
\begin{pmatrix}
4 \\
5 \\
6
\end{pmatrix},
\)

\(
\begin{pmatrix}
2 & 5 \\
3 & \tfrac{1}{2}
\end{pmatrix}
\begin{pmatrix}
4 \\
2
\end{pmatrix}.
\)

  1. Considera la matriz $A=\begin{pmatrix} 3 & -4 \\ 4 & -5 \end{pmatrix}$. Realiza la siguiente operación: $$A\left(A\left(A\left(A\begin{pmatrix} 2 \\ 3 \end{pmatrix}\right)\right)\right).$$
  2. ¿Cuál matriz permite rotar un vector en el plano 45º? ¿Cuál 60º?
  3. Deduce las propiedades del producto matriz-vector para matrices de $3 \times 2$ y vectores de tamaño $2$.
  4. Una matriz desconocida $A$ de $3\times 3$ cumple que $Ae_1=\begin{pmatrix} 2 \\ 0 \\ -1 \end{pmatrix}$, que $Ae_2=\begin{pmatrix} 5 \\ 1 \\ -1 \end{pmatrix}$ y que $Ae_3=\begin{pmatrix} -1 \\ -1 \\ -1 \end{pmatrix}$. ¿Cuánto es $A\begin{pmatrix} 2 \\ 3 \\ 4 \end{pmatrix}$?

Entradas relacionadas