Archivo de la etiqueta: vectores

Investigación de Operaciones: Soluciones básicas, factibles y no degeneradas (10)

Por Aldo Romero

Introducción

Ya hablamos de qué es la forma canónica y la forma estándar de un problema lineal. Como platicamos, esto nos permitirá llevar los problemas que nos interesan a ciertas formas especiales a las que podremos aplicarles algunos métodos más adelante. Lo que haremos ahora es comenzar a pensar en qué quiere decir resolver un problema lineal. Para ello, recordaremos de distintos tipos de soluciones que los problemas lineales pueden tener.

Tipos de soluciones y región de factibilidad

En esta sección recordaremos los conceptos de soluciones factibles, soluciones básicas factibles (degeneradas y no degeneradas) y de región de factibilidad.

Supongamos que tenemos un problema de programación lineal en su forma canónica:

\begin{align*}
Max \quad z &= c\cdot x\\
s.a.&\\
Ax &\leq b\\
x &\geq 0,\\
\end{align*}

donde usamos la misma notación que en la entrada anterior, pero donde tomaremos $l$ variables de decisión. En particular, $x,c$ son vectores en $\mathbb{R}^n$, $b$ es un vector en $\mathbb{R}^m$ y $A$ es una matriz de entradas reales de $m\times n$. Recuerda que en la expresión anterior entendemos $0$ como el vector en $\mathbb{R}^n$ con entradas todas iguales a cero.

Este problema también tiene una forma estándar, en donde transformamos las desigualdades en igualdades introduciendo variables de sobra y de holgura.
\begin{align*}
Max \quad z &= c\cdot x\\
s.a.&\\
A’x’ &=b\\
x’ &\geq 0,\\
\end{align*}

en donde en hemos agregado $n-m$ variables de holgura al vector $x$, para obtener un vector $x’$ en $\mathbb{R}^n$, así como $n-m$ columnas a $A$ para volverla una matriz en de $m\times n$, para agregar los coeficientes de las variables de holgura que hacen que se de la igualdad.

Como recordatorio, tenemos las siguientes definiciones para los tipos de soluciones del problema lineal.

Definición. Una solución factible al problema lineal en forma canónica dado anteriormente es un vector columna $x=\begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}$ que satisface las restricciones $Ax\leq b$ y $x\geq 0$. Esto se corresponde con una solución $x’$ al problema en forma estándar que satisface $A’x’= b$ y $x’\geq 0$.

Definición. La región de factibilidad del problema lineal en forma canónica es el conjunto de todas las soluciones factibles.

De entre las soluciones factibles, hay algunas que son un poco más sencillas, en el sentido de que varias de sus entradas son iguales a cero pensadas como soluciones del problema en forma estándar. En las siguientes definiciones suponemos que el rango de la matriz $A’$ es exactamente igual a $m$.

Definición. Una solución básica factible es una solución factible $x$ correspondiente a una solución $x’$ del problema en forma estándar con no más de $m$ componentes positivas. En otras palabras, $x’$ tiene al menos $n-m$ entradas iguales a cero.

Definición. Una solución básica factible no degenerada es una solución factible $x$ correspondiente a una solución $x’$ del problema en forma estándar con exactamente $m$ componentes positivas. En otras palabras, $x’$ tiene exactamente $n-m$ entradas iguales a cero.

Definición. Una solución básica factible degenerada es una solución factible $x$ correspondiente a uan solución $x’$ del problema en forma estándar con menos de $m$ componentes positivas. En otras palabras, $x’$ tiene más de $n-m$ entradas iguales a cero.

La importancia de las soluciones básicas factibles y no degeneradas es que cumplen las siguientes:

  1. Se puede mostrar que si un problema de programación lineal tiene óptimo, entonces dicho óptimo se alcanza para alguna solución básica factible y no degenerada.
  2. Las soluciones básicas factibles y no degeneradas se pueden encontrar resolviendo sistemas de ecuaciones.
  3. Geométricamente, las soluciones básicas factibles y no degeneradas están en vértices de la región de factibilidad.

A continuación explicaremos algunos de estos puntos con un ejemplo detallado, que te ayudará a entender la intuición detrás de estas definiciones y de su importancia.

Ejemplos de región de factibilidad y tipos de solución

Consideremos el siguiente problema de programación lineal:

\begin{align*}
Max. \quad z &= 2x_1 + 3x_2\\
s.a.&\\
&\begin{matrix}2x_1 &+ x_2 &\leq & 4\\
x_1 &+ 2x_2 &\leq &5\end{matrix}\\
&x_1, x_2 \geq 0.
\end{align*}

Antes de comenzar a estudiar la región de factibilidad, debemos verificar que está en forma canónica. En efecto, todo está en orden: el problema es de maximización, las desigualdades son $\leq$ y a las variables de decisión se les pide ser no negativas.

La región de factibilidad es el conjunto de todos los $(x_1,x_2)$ (en el plano $\mathbb{R}^2$) que cumplen las restricciones del problema, es decir, $2x_1 + x_2 \leq 4$, $x_1 + 2x_2 \leq 5$, $x_1\geq 0$ y $x_2\geq 0$. Para entender esto mejor, lo podemos pensar en cuatro regiones:

Región 1: La región $x_1\geq 0$, que queda a la derecha del eje $y$.

Región 2: La región $x_2\geq 0$, que queda arriba del eje $x$.

Región 3: La región $2x_1 + x_2 \leq 4$, que queda debajo de la recta $2x_1+x_2=4$.

Región 4: La región $x_1+2x_2\leq 5$, que queda por debajo de la recta $x_1+2x_2=5$.

Como queremos que $(x_1,x_2)$ satisfaga todas las restricciones simultáneamente, necesitamos que esté en la intersección de todas las regiones. Así, la región de factibilidad es en la que se intersectan todas estas regiones que acabamos de dibujar. Al sobreponerlas, obtenemos la región encerrada en la siguiente figura:

Si gustas, puedes también explorar el interactivo de GeoGebra en donde se han coloreado los complementos de las regiones para más claridad. Puedes usar el cursor para mover la figura y las herramientas de lupa para hacer acercamientos y alejamientos.

La intuición que debemos tener ahora es que el máximo de la función objetivo $2x_1+3x_2$ se tiene que alcanzar en alguno de los vértices del cuadrilátero que es la región factible. A grandes rasgos, estos vértices serán las soluciones básicas factibles y no degeneradas. Veamos dónde el álgebra nos dice esto.

Para ello, pensemos al problema en su forma estándar, tomando variables de holgura $s_1$ y $s_2$. Las restricciones que tienen las cuatro variables en conjunto son las siguientes.

\begin{align*}
2x_1 + x_2 + s_1 &= 4\\
x_1 + 2x_2 + s_2 &= 5\\
x_1, x_2, s_1, s_2 &\geq 0.
\end{align*}

La matriz $A’$ es $\begin{pmatrix}2 & 1 & 1 & 0 \\ 1 & 2 & 0 & 1 \end{pmatrix}$, que puedes verificar que tiene rango $2$. Las soluciones básicas y no degeneradas corresponden a tener en ese sistema de ecuaciones exactamente $m=2$ variables positivas, de manera que necesitamos hacer exactamente $n-m=4-2=2$ de estas variables iguales a cero. Al hacer esto, podemos resolver para las $m=2$ variables restantes. Por ejemplo, si establecemos $x_1 = 0$ y $x_2 = 0$, las ecuaciones se convierten en

\begin{align*}
s_1 = 4\\
s_2 = 5\\
x_1, x_2, s_1, s_2 \geq 0,
\end{align*}

que tiene solución única $(x_1,x_2,s_1,s_2)=(0,0,4,5)$. Así, la solución básica del problema en forma canónica es $(x_1,x_2)=(0,0)$. Hay que recordar dar la solución básica ya sólo para las variables originales, es decir, las del problema en forma canónica.

Esta solución corresponde al punto $C$ del interactivo de GeoGebra. Se puede determinar otra solución básica fijando $s_1 = 0$ y $s_2 = 0$, donde el sistema sería ahora

\begin{align*}
2x_1 + x_2 = 4\\
x_1 + 2x_2 = 5\\
x_1, x_2, s_1, s_2 \geq 0,
\end{align*}

y tras resolver las dos ecuaciones, la solución básica que se obtiene es $(x_1,x_2)=(1,2)$, que es el punto $A$ del interactivo de GeoGebra.

Podemos seguir haciendo esto. Si consideramos todas las posibilidades en las que dos variables son cero y resolvemos las ecuaciones resultantes, eso nos dará puntos $(x_1,x_2)$ en el plano. La solución óptima es la solución básica factible (punto de esquina) con el mejor valor objetivo.

En este ejemplo tenemos $\binom{4}{2} = \frac{4!}{2!2!} = 6$ formas de volver dos de las $n$ variables iguales a cero. Ya para las variables $x_1$ y $x_2$, los puntos que obtenemos son los puntos $A$, $B$, $C$, $D$ que son vértices de la región de factibilidad. Los puntos $E$ y $F$ del interactivo también son puntos básicos y no degenerados (son las otras dos intersecciones de las rectas que dibujamos), pero como no satisfacen la condición de factibilidad del problema, entonces no los podemos considerar y por lo tanto no son candidatos a dar el valor óptimo.

La siguiente tabla muestra todas las soluciones básicas y no básicas de este ejemplo:

Variables no básicas (cero)Variables básicasSolución para $(x_1,x_2)$Punto de esquina asociado¿Factible?Valor objetivo z
$(x_1, s_1)$$(s_1, s_2)$$(0, 0)$C0
$(x_1, s_1)$$(x_2, s_2)$$(0, 4)$ENo___
$(x_1, s_2)$$(x_2, s_1)$$(0, 2.5)$D7.5
$(x_2, s_1)$$(x_1, s_2)$$(2, 0)$B4
$(x_2, s_2)$$(x_1, s_1)$$(5, 0)$FNo___
$(s_1, s_2)$$(x_1, x_2)$$(1, 2)$A8 (óptimo)

Más adelante…

Notemos que a medida que el tamaño del problema se incrementa, enumerar todos los puntos esquina se volverá una tarea que tomaría mucho tiempo. Por ejemplo, si tuviéramos $20$ variables (ya con las de holgura) y $10$ restricciones, es necesario resolver considerar $\binom{20}{10}=184756$ formas de crear ecuaciones de $10\times 10$, y resolver cada una de ellas. Aunque esto es finito, son demasiadas operaciones. Y este en la práctica incluso es un ejemplo pequeño, ya que en la vida real hay problemas lineales que pueden incluir miles de variables y restricciones.

Por ello, se vuelve cruciar encontrar un método que atenúe esta carga computacional en forma drástica, que permita investigar sólo un subconjunto de todas las posibles soluciones factibles básicas no degeneradas (vértices de la región de factibilidad), pero que garantice encontrar el óptimo. Una idea intuitiva que debería servir es comenzar en un vértice y «avanzar en una dirección que mejore la función objetivo». Esto precisamente es la intuición detrás del método simplex, que repasaremos a continuación.

Tarea moral

  1. Considera el siguiente problema lineal en su forma canónica:

\begin{align*}
Max \quad z &= 2x_1 + 3x_2 \\
s.a.&\\
&\begin{matrix}x_1 &+ 3x_2 &\leq&6\\
3x_1 &+ 2x_2 &\leq &6\end{matrix}\\
&x_1, x_2 \geq 0.
\end{align*}

Sigue los pasos descritos arriba para encontrar todas sus soluciones básicas factibles y no degeneradas. Usa ello para encontrar el óptimo del problema.

  1. Actualiza las restricciones en el interactivo de GeoGebra que se compartió en la entrada para visualizar este problema y confirmar tus cuentas del ejercicio anterior. Para ello, deberás ir al apartado «Álgebra» del interactivo y modificar los objetos $a$ y $b$.
  2. Considera un problema de optimización lineal en dos variables $x$ y $y$, en forma canónica y con $m$ restricciones (desigualdades), además de las restricciones $x\geq 0$ y $y\geq 0$. Explica por qué la región de factibilidad siempre es un polígono con a lo más $m+2$ lados, y por qué entonces basta evaluar la función objetivo en a lo más $m+2$ puntos para encontrar su máximo.
  3. ¿Cómo se vería la región de factibilidad de un problema de optimización lineal de maximización que no tenga máximo? Explica todas las posibilidades y da ejemplos.
  4. Intenta usar las ideas de esta entrada para resolver los problemas de optimización lineal clásicos que hemos descrito en entradas anteriores.

Entradas relacionadas

Álgebra Superior I: El espacio vectorial $\mathbb{R}^n$

Por Eduardo García Caballero

Introducción

En la entrada anterior introdujimos conceptos relacionados a los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$. Hablamos de vectores, combinaciones lineales, espacio generado, independencia lineal y bases. Ahora haremos lo análogo en dimensiones más altas, para lo cual hablaremos de $\mathbb{R}^n$.

La idea es sencilla, queremos extender lo que ya hicimos para vectores con $5$ o $100$ entradas. Sin embargo, visualizar estos espacios y entender su geometría ya no será tan sencillo. Es por esta razón que principalmente nos enfocaremos a generalizar las propiedades algebraicas que hemos discutido. Esta resultará una manera muy poderosa de estudiar los espacios vectoriales, pues nos permitirá generalizar sin mucha dificultad los conceptos aprendidos en la entrada anterior al espacio $\mathbb{R}^n$ para cualquier número natural $n$.

Definición del espacio vectorial $\mathbb{R}^n$

En la entrada anterior vimos cuáles son propiedades que debe cumplir una colección de objetos, en conjunto con una operación de suma y otra de producto escalar, para poder considerarse un espacio vectorial. Como ya vimos, tanto $\mathbb{R}^2$ y $\mathbb{R}^3$ son espacios vectoriales. Podemos definir a $\mathbb{R}^n$ y a sus operaciones como sigue.

Definición. El conjunto $\mathbb{R}^n$ consiste de todas las $n$-adas ordenadas $u=(u_1,u_2,\ldots,u_n)$ en donde cada $u_i$ es un número real, para $i=1,\ldots,n$. A $u_i$ le llamamos la $i$-ésima entrada de $u$. Para dos elementos de $\mathbb{R}^n$, digamos

\begin{align*}
u&=(u_1,u_2,\ldots,u_n)\\
v&=(v_1,v_2,\ldots,v_n),
\end{align*}

definimos la suma $u+v$ como la $n$-áda cuya $i$-ésima entrada es $u_i+v_i$ (decimos que sumamos entrada a entrada). En símbolos, $$u+v=(u_1+v_1,u_2+v_2,\ldots,u_n+v_n).$$

Además, si tomamos un real $r$, definimos el producto escalar de $r$ con $u$ como la $n$-ada cuya $i$-ésima entrada es $r u_i$, es decir, $ru=(ru_1,ru_2,\ldots,ru_n).$

El conjunto $\mathbb{R}^n$ con esta suma y producto escalar cumple ser un espacio vectorial. A continuación probaremos sólo algunas de las propiedades, ¿puedes completar el resto?

1. La suma es asociativa:
\begin{align*}
(u+v)+w
&= ((u_1,u_2,\ldots,u_n) + (v_1,v_2,\ldots,v_n)) + (w_1,w_2,\ldots,w_n) \\
&= (u_1+v_1,u_2+v_2,\ldots,u_n+v_n) + (w_1,w_2,\ldots,w_n) \\
&= ((u_1+v_1)+w_1,(u_2+v_2)+w_2,\ldots,(u_n+v_n)+w_n) \\
&= (u_1+(v_1+w_1),u_2+(v_2+w_2),\ldots,u_n+(v_n+w_n)) \\
&= (u_1,u_2,\ldots,u_n) + (v_1+w_1,v_2+w_2,\ldots,v_n+w_n) \\
&= (u_1,u_2,\ldots,u_n) + ((v_1,v_2,\ldots,v_n) + (w_1,w_2,\ldots,w_n)) \\
&= u + (v+w).
\end{align*}

La cuarta igualdad usa el paso clave de que en $\mathbb{R}$ sí sabemos que la suma es asociativa.

2. La suma es conmutativa:
\[
u+v = v+w.
\]

¡Intenta demostrarlo!

3. Existe un elemento neutro para la suma, que es el elemento de $\mathbb{R}^n$ en donde todas las entradas son iguales al neutro aditivo $0$ de $\mathbb{R}$:
\begin{align*}
u+0
&= (u_1,u_2,\ldots,u_n) + (0,0,\ldots,0) \\
&= (u_1+0,u_2+0,\ldots,u_n+0) \\
&= (u_1,u_2,\ldots,u_n) \\
&= u.
\end{align*}

Para demostrar esta propiedad, necesitaras usar que en $\mathbb{R}$ cada $u_i$ tiene inverso aditivo.

4. Para cada $n$-tupla existe un elemento inverso:
\[
u + (-u) = 0.
\]

5. La suma escalar se distribuye bajo el producto escalar:
\begin{align*}
(r+s)u
&= (r+s)(u_1,u_2,\ldots,u_n) \\
&= ((r+s)u_1,(r+s)u_2,\ldots,(r+s)u_n) \\
&= (ru_1 + su_1, ru_2 + su_2, \ldots, r_n + su_n) \\
&= (ru_1,ru_2,\ldots,ru_n) + (su_1,su_2,\ldots,su_n) \\
&= r(u_1,u_2,\ldots,u_n) + s(u_1,u_2,\ldots,u_n) \\
&= ru + su.
\end{align*}

Una vez más, se está usando una propiedad de $\mathbb{R}$ para concluir una propiedad análoga en $\mathbb{R}^n$. En este caso, se está usando fuertemente que hay una propiedad de distributividad en $\mathbb{R}$.

6. La suma de $n$-tuplas de distribuye bajo el producto de escalares:
\[
r(u+v) = ru + rv.
\]

7. El producto escalar es compatible con el producto de $\mathbb{R}$:
\begin{align*}
(rs)u
&= (rs)(u_1,u_2,\ldots,u_n) \\
&= ((rs)u_1,(rs)u_2,\ldots,(rs)u_n) \\
&= (r(su_1),r(su_2),\ldots,r(su_n)) \\
&= r(su_1, su_2, \ldots, su_n) \\
&= r(s(u_1,u_2,\ldots,u_n)) \\
&= r(su).
\end{align*}

8. El neutro multiplicativo $1$ de $\mathbb{R}$ funciona como neutro para el producto escalar:
\[
1u = u.
\]

De este modo, podemos trabajar con el espacio vectorial $\mathbb{R}^n$ para explorar sus propiedades. La gran ventaja es que lo que demostremos para $\mathbb{R}^n$ en general lo podremos usar para cualquier valor particular de $n$. y poder emplearlas cuando trabajemos con algún número $n$ en particular.

Combinaciones lineales y espacio generado

Al igual que hicimos con $\mathbb{R}^2$ y $\mathbb{R}^3$ podemos definir los conceptos de combinación lineal y espacio generado para el espacio vectorial $\mathbb{R}^n$.

Definición. En $\mathbb{R}^n$, diremos que un vector $u$ es combinación lineal de los vectores $v_1,\ldots,v_k$ si y sólo si existen números reales $r_1,\ldots,r_n$ en $\mathbb{R}$ tales que
\[
u = r_1v_1 + r_2v_2 + \cdots + r_kv_k.
\]

Ejemplo. En $\mathbb{R}^5$, el vector $(3,4,-2,5,5)$ es combinación lineal de los vectores $(2,1,2,0,3)$, $(0,1,-1,3,0)$ y $(1,-1,5,-2,1)$, pues
\[
(3,4,-2,5,5) = 2(2,1,2,0,3) + 1(0,1,-1,3,0) + -1(1,-1,5,-2,1).
\]

$\triangle$

La noción de combinación lineal nos permite hablar de todas las posibles combinaciones lineales, así como en $\mathbb{R}^2$ y $\mathbb{R}^3$.

Definición. Dado un conjunto de vectores $v_1,\ldots,v_n$ en $\mathbb{R}^n$, podemos definir el espacio generado por estos vectores como el conjunto de todas las posibles combinaciones lineales de $v_1,\ldots,v_n$ en $\mathbb{R}^n$.

Es este caso, ya no podremos visualizar geométricamente el espacio generado (aunque con un poco de imaginación, quizás puedas generalizar lo que ya hicimos en dimensiones anteriores: ¿cómo se vería un plano en $\mathbb{R}^4$?, ¿cómo se vería un sub-$\mathbb{R}^3$ de $\mathbb{R}^4$?). De cualquier manera, sí podemos seguir respondiendo preguntas del espacio generado a través de sistemas de ecuaciones.

Ejemplo. ¿El espacio generado por los vectores $(1,1,1,0)$, $(0,3,1,2)$, $(2,3,1,0)$ y $(1,0,2,1)$ es $\mathbb{R}^4$?

Para ver si $\mathbb{R}^4$ es el espacio generado por los vectores propuestos, debemos asegurarnos de que cada vector en $\mathbb{R}^4$ se pueda expresar como combinación lineal de estos. Entonces, seleccionamos un vector $(a,b,c,d)$ arbitrario en $\mathbb{R}^4$, y debemos ver si existen escalares $q$, $r$, $s$ y $t$ tales que
\[
q(1,1,1,0) + r(0,3,1,2) + s(2,3,1,0) + t(1,0,2,1) = (a,b,c,d);
\]
esto es,
\[
(q,q,q,0) + (0,3r,r,2r) + (2s,3s,s,0) + (t,0,2t,t) = (a,b,c,d),
\]
que equivale a
\[
(q+2s+t, q+3r+3s, q+r+s+2t, 2r+t)=(a,b,c,d),
\]
lo cual a su vez equivale al sistema de ecuaciones
\[
\left\{
\begin{alignedat}{4}
q & +{} & & +{} & 2s & +{} & t & = a \\
q & +{} & 3r & +{} & 3s & & & = b \\
q & +{} & r & +{} & s & +{} & 2t & = c \\
& & 2r & & & +{} & t & = d,
\end{alignedat}
\right.
\]
el cual podemos representar como
\[
\begin{pmatrix}
1 & 0 & 2 & 1 \\
1 & 3 & 3 & 0 \\
1 & 1 & 1 & 2 \\
0 & 2 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}.
\]
Además, podemos observar que la matriz en el lado izquierdo tiene determinante distinto de $0$ (para verificar esto, tendrás que calcularlo), lo que nos indica que es invertible, y la igualdad anterior equivale a
\[
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 2 & 1 \\
1 & 3 & 3 & 0 \\
1 & 1 & 1 & 2 \\
0 & 2 & 0 & 1
\end{pmatrix}^{-1}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix},
\]
o bien,
\[
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
-3 & 1 & 3 & -3 \\
-1/2 & 1/4 & 1/4 & 0 \\
3/2 & -1/4 & -5/4 & 1 \\
1 & -1/2 & -1/2 & 1
\end{pmatrix}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix},
\]
de donde tenemos la solución para $q,r,s,t$ siguiente:
\[
\left\{
\begin{alignedat}{4}
q & = & -3a & +{} & b & +{} & 3c & -{} & 3d \\
r & = & -\tfrac{1}{2}a & +{} & \tfrac{1}{4}b & +{} & \tfrac{1}{4}c & & \\
s & = & \tfrac{3}{2}a & -{} & \tfrac{1}{4}b & -{} & \tfrac{5}{4}c & +{} & d \\
t & = & a & -{} & \tfrac{1}{2}b & -{} & \tfrac{1}{2}c & +{} & d.
\end{alignedat}
\right.
\]
Este sistema nos da una fórmula para los escalares $q$, $r$, $s$ y $t$ en función del valor de las entradas del vector $(a,b,c,d)$, y estos escalares satisfacen
\[
q(1,1,1,0) + r(0,3,1,2) + s(2,3,1,0) + t(1,0,2,1) = (a,b,c,d).
\]
Como esto se cumple para un vector arbitrario $(a,b,c,d)$ en $\mathbb{R}^4$, entonces se cumple para todos los vectores de $\mathbb{R}^4$; es decir, ¡$\mathbb{R}^4$ es el espacio generado por los vectores $(1,1,1,0)$, $(0,3,1,2)$, $(2,3,1,0)$, $(1,0,2,1)$!

$\triangle$

Nuestra técnica de resolver sistemas de ecuaciones mediante la inversa de la matriz asociada ha resultado muy útil. Hemos tenido un poco de suerte en que la matriz sea invertible. Si no lo fuera, no podríamos haber hecho el procedimiento descrito en el ejemplo. ¿Será que si la matriz no es invertible, entonces el sistema no se podrá resolver? La respuesta es compleja: a veces sí, a veces no. En ese caso hay que entender el sistema de ecuaciones con otro método, como reducción gaussiana.

Independencia lineal

Cuando exploramos las propiedades de $\mathbb{R}^2$ y $\mathbb{R}^3$, observamos que hay ocasiones en las que el espacio generado por un conjunto de vectores es «más chico» de lo que se esperaría de la cantidad de vectores: por ejemplo, dos vectores en $\mathbb{R}^2$ generan una línea (y no todo $\mathbb{R}^2$) cuando estos dos se encuentran alineados con el origen. Cuando tres vectores en $\mathbb{R}^3$ no están alineados, pero se encuentran sobre el mismo plano por el origen, su espacio generado es dicho plano (y no todo $\mathbb{R}^3$).

Aunque el el espacio vectorial $\mathbb{R}^n$ no podamos visualizarlo de manera inmediata, podemos mantener la intuición de que un conjunto de vectores «genera todo lo que puede generar» o «genera algo más chico». Para identificar en qué situación nos encontramos, recurrimos a la siguiente definición.

Definición. Dado un conjunto de $k$ vectores $v_1, v_2, \ldots, v_k$ en $\mathbb{R}^n$ distintos de 0, diremos son linealmente independientes si la única forma de escribir al vector 0 como combinación lineal de ellos es cuando todos los coeficientes de la combinación lineal son igual al escalar 0; es decir, si tenemos que
\[
r_1v_1 + r_2v_2 + \cdots + r_kv_k = 0,
\]
entonces forzosamente $r_1 = r_2 = \cdots = r_n = 0$.

Teniendo esta definición en consideración, se puede mostrar que si un conjunto de vectores es linealmente independiente, entonces ninguno de los vectores se puede escribir como combinación lineal de los otros. De hecho, es únicamente en este caso cuando cuando el espacio generado por los vectores es «todo lo que se puede generar».

La justificación de por qué sucede esto es similar a la que vimos en la entrada anterior: como el primer vector es no genera una línea. Como el segundo vector no se puede escribir como combinación lineal del primero, entonces queda fuera de esta línea y ambos generan un plano. Como el tercer vector no se puede escribir como combinación lineal de los primeros dos, entonces queda fuera del plano, y entre los tres generan un espacio «más grande» («de dimensión $3$»). A partir de este punto, quizá no podamos visualizar inmediatamente la forma geométrica del espacio generado, pero como sabemos que los vectores son linealmente independientes, entonces el cuarto vector no se puede escribir como combinación lineal de los primeros tres. Por ello, queda fuera del espacio generado por los primeros tres, y el espacio generado por los cuatro es aún «más grande» («de dimensión $4$»); y así sucesivamente, para tantos vectores linealmente independientes como tengamos.

Una herramienta que podemos emplear para determinar cuándo un conjunto de vectores es linealmente independiente son nuevamente los sistemas de ecuaciones. Para esto veamos el siguiente ejemplo.

Ejemplo. ¿Son los vectores $(1,5,1,-2)$, $(3,-3,0,-1)$, $(-2,0,4,1)$ y $(0,1,-1,0)$ linealmente independientes en $\mathbb{R}^4$?

Supongamos que para ciertos escalares $a$, $b$, $c$ y $d$, se cumple que
\[
a(1,5,1,-2) + b(3,-3,0,-1) + c(-2,0,4,1) + d(0,1,-1,0) = (0,0,0,0).
\]
Esto es equivalente a decir que
\[
(a,5a,a,-2a) + (3b,-3b,0,-b) + (-2c,0,4c,c) + (0,d,-d,0) = (0,0,0,0)
\]
que equivale a
\[
(a+3b-2c, 5a-3b+d,a+4c-d,-2a-b+c) = (0,0,0,0),
\]
y a su vez equivale al sistema de ecuaciones
\[
\left\{
\begin{alignedat}{4}
a & +{} & 3b & -{} & 2c & & & = 0 \\
5a & -{} & 3b & & & +{} & d & = 0 \\
a & & & +{} & 4c & -{} & d & = 0 \\
-2a & -{} & b & +{} & c & & & = 0
\end{alignedat}
\right.
\]
el cual podemos representar de la forma
\[
\begin{pmatrix}
1 & 3 & -2 & 0 \\
5 & -3 & 0 & 1 \\
1 & 0 & 4 & -1 \\
-2 & 1 & 1 & 0
\end{pmatrix}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}
=
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix},
\]
y, como notamos que la matriz del lado izquierdo de la ecuación tiene determinante distinto de 0 (¿puedes verificarlo?), entonces es invertible, de modo que
\[
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}
=
\begin{pmatrix}
1 & 3 & -2 & 0 \\
5 & -3 & 0 & 1 \\
1 & 0 & 4 & -1 \\
-2 & 1 & 1 & 0
\end{pmatrix}^{-1}
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}
=
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix},
\]
es decir,
\[
a = b = c = d = 0,
\]
lo que nos indica, basándonos en la definición, que los vectores anteriores son linealmente independientes.

$\triangle$

El ejemplo anterior nos da una idea de lo que debe cumplir un conjunto linealmente independiente de $n$ vectores en $\mathbb{R}^n$. En general, podemos mostrar que un conjunto de $n$ vectores $v_1 = (v_{11}, v_{12}, \ldots, v_{1n})$, $v_2 = (v_{21}, v_{22}, \ldots, v_{2n})$, $\ldots$, $v_n = (v_{n1}, v_{n2}, \ldots, v_{nn})$ es linealmente independiente si y sólo si la matriz
\[
\begin{pmatrix}
v_{11} & v_{21} & \cdots & v_{n1} \\
v_{12} & v_{22} & \cdots & v_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
v_{1n} & v_{2n} & \cdots & v_{nn}
\end{pmatrix},
\]
formada por los vectores escritos como columna, es invertible. Esto ya platicamos que está relacionado con que su determinante sea distinto de 0. Pero no en todas las situaciones tendremos tantos vectores como entradas y entonces tendremos que estudiar el sistema de ecuaciones lineales con otras técnicas, como reducción gaussiana.

Ejemplo. ¿Serán los vectores $(1,2,3,4,5)$, $(6,7,8,9,10)$ y $(11,12,13,14,15)$ de $\mathbb{R}^5$ linealmente independientes? Tal y como lo hemos hecho arriba, podemos preguntarnos si hay reales $a,b,c$ tales que $$a(1,2,3,4,5)+b(6,7,8,9,10)+c(11,12,13,14,15)=(0,0,0,0,0),$$ y que no sean todos ellos cero. Tras plantear el sistema como sistema de ecuaciones y luego en forma matricial, lo que se busca es ver si el sistema $\begin{pmatrix} 1 & 6 & 11 \\ 2 & 7 & 12 \\ 3 & 8 & 13 \\ 4 & 9 & 14 \\ 5 & 10 & 15 \end{pmatrix} \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} $ tiene alguna solución no trivial. Esto puede entenderse aplicando reducción gaussiana a $A$, que muestra que toda solución al sistema anterior es solución al sistema $\begin{pmatrix} 1 & 0 & -1\\0 & 1 & 2\\0 & 0 & 0\\0 & 0 & 0\\0 & 0 & 0\end{pmatrix} \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix},$ lo cual nos lleva a que el sistema original es equivalente al sistema $$\left\{ \begin{array} \,a – c &= 0\\ b + 2c &= 0\end{array}.\right.$$

De aquí, podemos tomar a $c$ como cualquier valor, digamos $1$, de donde $a=1$ y $b=-2$ es solución. En resumen, hemos detectado que $$(1,2,3,4,5)-2(6,7,8,9,10)+(11,12,13,14,15)=(0,0,0,0,0),$$ que es una combinación lineal de los vectores donde no todos los coeficientes son cero. Por ello, no son linealmente intependientes.

Puedes intentar «imaginar» esto como que son vectores en $\mathbb{R}^5$ (un espacio de «dimensión $5$»), pero no generan dentro de él algo de dimensión $3$, sino algo de dimensión menor. Como $(1,2,3,4,5)$ y $(6,7,8,9,10)$ sí son linealmente independientes (¡demuéstralo!), entonces los tres vectores en realidad generan sólo un plano mediante sus combinaciones lineales.

$\square$

Bases

De manera similar a lo que observamos en la entrada anterior, hay ocasiones en las que un conjunto de vectores no tiene como espacio generado a todo $\mathbb{R}^n$. Por otra parte, hay ocasiones en las que el conjunto de vectores sí genera a todo $\mathbb{R}^n$, pero lo hace de manera «redundante», en el sentido de que, aunque su espacio generado sí es todo $\mathbb{R}^n$, podríamos quitar a algún vector del conjunto y el espacio generado sería el mismo. La siguiente definición se enfoca en los conjuntos en los que no pasa mal ninguna de estas cosas. Es decir, los vectores generan exactamente al espacio: cada vector se genera por una y sólo una combinación lineal de ellos.

Definición. Diremos que un conjunto de vectores $v_1, v_2, \ldots, v_k$ es base del esapacio vectorial $\mathbb{R}^n$ si el conjunto de vectores es linealmente independiente y el espacio generado por estos es exactamente $\mathbb{R}^n$.

Ejemplo. Al igual que en $\mathbb{R}^2$ y $\mathbb{R}^3$, la «base canónica» es el primer ejemplo que seguramente se nos viene a la mente. La base canónica en $\mathbb{R}^n$ consiste en los $n$ vectores $\mathrm{e}_1 = (1,0,0,\cdots,0)$, $\mathrm{e}_2 = (0,1,0,\cdots,0)$, $\mathrm{e}_3 = (0,0,1,\ldots,0)$, $\ldots$, $\mathrm{e}_n = (0,0,0,\cdots,1)$. Es claro que cualquier vector $u = (u_1,u_2,\cdots,u_n)$ es combinación lineal de $\mathrm{e}_1,\ldots,\mathrm{e}_n$ pues podemos expresarlo como
\begin{align*}
u
&= (u_1,u_2,\cdots,u_n) \\
&= (u_1,0,\cdots,0) + (0,u_2,\cdots,0) + \cdots (0,0,\cdots,u_n) \\
&= u_1(1,0,\cdots,0) + u_2(0,1,\cdots,0) + \cdots + u_n(0,0,\cdots,1) \\
&= u_1\mathrm{e}_1 + u_2\mathrm{e}_2 + \cdots + u_n\mathrm{e}_n.
\end{align*}
Además, los vectores $\mathrm{e}_1,\ldots,\mathrm{e}_n$ son linealmente independientes (¿puedes ver por qué?). De este modo, verificamos que la «base canónica» es, en efecto, una base.

$\triangle$

Ejemplo. Más arriba verificamos que los vectores $(1,5,1,-2)$, $(3,-3,0,-1)$, $(-2,0,4,1)$ y $(0,1,-1,0)$ son linealmente independientes. Además, vimos que la matriz formada por estos es invertible. De este modo, verificamos que estos vectores forman una base para $\mathbb{R}^4$.

$\triangle$

Más adelante…

A lo largo de esta unidad nos hemos enfocado en estudiar a vectores, matrices, ecuaciones lineales y espacios vectroriales. En las últimas entradas, vimos que hay ocho condiciones que se deben cumplir para que un conjunto de objetos matemáticos (junto con una operación de suma y una de producto escalar) sean considerados espacio vectorial. Todos los ejemplos de espacio vectorial que vimos son de la forma $\mathbb{R}^n$, sin embargo, puede surgir la pregunta, ¿existen espacios vectoriales que no sean de esta forma?

De hecho, si has estado prestando atención en la formalidad de los resultados, hay muchos resultados que han quedado pendientes:

  • ¿Por qué el determinante no depende de la fila o columna en la que se expanda?
  • Si tenemos matrices de $n\times n$, ¿por qué son invertibles si y sólo si el determinate es cero?
  • En matrices de $n\times n$, ¿por qué el determinante es multiplicativo?
  • ¿Cómo se formaliza el proceso de reducción gaussiana y para qué más sirve?
  • ¿Será que podemos tener muchos vectores linealmente independientes en $\mathbb{R}^n$? ¿Será posible tener un conjunto generador de menos de $n$ vectores para $\mathbb{R}^n$? ¿Por qué?

Estas dudas no se resuelven en el curso de Álgebra Superior 2, que sigue a este. Sin embargo, en el curso de Álgebra Lineal I sí se resuelven varias de estas dudas.

Además, podrás ver que hay otros tipos de objetos matemáticos distintos a las listas ordenadas y que también forman un espacio vectorial; algunos con los cuales ya hemos trabajado, como lo son las matrices, y otros que se comportan de manera muy poco usual, como son los espacios con dimensión infinita. Asimismo, con las herramientas que hemos desarrollado hasta ahora, podremos aprender nuevos conceptos como transformaciones lineales, eigenvectores y eigenvalores; estos nos permitirán comprender de manera más íntima los espacios vectoriales, y podremos relacionarlos unos con otros.

Tarea moral

  1. Verifica lo siguiente:
    • $(1,1,1,1)$, $(2,2,2,2)$, $(1,1,2,2)$, $(2,2,1,1)$ no es un conjunto linealmente independiente de $\mathbb{R}^4$.
    • $(1,2,3,4)$, $(2,3,4,1)$, $(3,4,1,2)$, $(4,1,2,3)$ es un conjunto generador de $\mathbb{R}^4$.
    • $(1,1,1,1,1),(1,1,1,1,0),(1,1,1,0,0),(1,1,0,0,0),(1,0,0,0,0)$ es una base de $\mathbb{R}^5$.
  2. Demuestra las siguientes dos cosas:
    • Sea $S$ un conjunto generador de $\mathbb{R}^n$ y $T\supseteq S$. Entonces $T$ es conjunto generador de $\mathbb{R}^n$.
    • Sea $T$ un conjunto linealmente independiente de $\mathbb{R}^n$ y $S\subseteq T$. Entonces $S$ es un conjunto linealmente independiente de $\mathbb{R}^n$.
  3. Sean $v_1,v_2,v_3,\ldots,v_k$ vectores linealmente independientes de $\mathbb{R}^n$. Demuestra que $v_1, v_1+v_2, v_1+v_2+v_3,\ldots,v_1+v_2+v_3+\ldots+v_k$ son también vectores linealmente independientes de $\mathbb{R}^n$. ¿Es esto un si y sólo si?
  4. En vista de lo que hemos platicado para matrices de $2\times 2$, $3\times 3$, $\mathbb{R}^2$ y $\mathbb{R}^3$, ¿cómo definirías el producto matriz-vector $AX$ donde $A$ es una matriz de $m\times n$ y $X$ un vector en $\mathbb{R}^n$?
  5. Demuestra que la definición de base tal y como está en la entrada en efecto permite no sólo escribir a cada vector $v$ del espacio como combinación lineal de los elementos de una base $v_1,\ldots,v_n$, sino que también implica que dicha expresión será única.

Entradas relacionadas

Álgebra Superior I: Reducción de Gauss-Jordan

Por Eduardo García Caballero

Introducción

En la entrada anterior vimos que los sistemas de ecuaciones se encuentran íntimamente relacionados con los vectores y las matrices. Teniendo esto en cuenta, en esta entrada abordaremos una estrategia que nos permitirá encontrar soluciones de los sistemas de ecuaciones lineales.

Operaciones elementales por filas

Antes de pasar a describir el algoritmo con el cual podremos resolver un sistema de ecuaciones lineales, deberemos definir algunas operaciones y conceptos que nos ayudaran a efectuarlo. Empecemos con una lista de operaciones que se pueden aplicar a las matrices, las cuales son con conocidas como operaciones elementales por filas.

Para esto, consideremos una matriz
\[
A=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix},
\]
y veamos cómo la afecta cada una de estas operaciones.

La primera de estas operaciones es el reescalamiento. Esta operación consiste en seleccionar una fila de una matriz, y multiplicar cada una de las entradas de esta fila por un mismo número real distinto de cero. Por ejemplo, si reescalamos la tercera fila de $A$ por el número $-3$, obtendremos la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
(-3)(-1/3) & (-3)(4) & (-3)(0) \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
1& -12 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Otra operación que podemos aplicar a las matrices es la trasposición, la cual consiste en intercambiar el contenido de dos filas distintas. Por ejemplo, si transponemos las filas 2 y 4 de $A$, el resultado será la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
9 & -3 & 2/3 \\
-1/3 & 4 & 0 \\
\sqrt{2} & -1 & 2
\end{pmatrix}.
\]

La última de las operaciones que nos interesa es la transvección. Esta consiste en sumar el múltiplo de una fila (el resultado de multiplicar cada entrada de una fila por un mismo escalar) a otra fila (la suma se realiza entrada por entrada). Por ejemplo, si en $A$ realizamos la transvección que corresponde a “sumar 3/2 de la cuarta fila a la primera fila”, obtendremos la matriz
\[
\begin{pmatrix}
5 + (3/2)(9) & \pi+(3/2)(-3) & 3+(3/2)(2/3) \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
37/2 & -9/2+\pi & 4 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Si recuerdas, todos los sistemas de ecuaciones se pueden escribir como $Ax=b$. Las operaciones elementales son muy importantes por las siguientes dos razones:

  • Si aplicamos la misma operación elemental a $A$ y $b$ para obtener la matriz $A’$ y el vector $b’$, entonces $Ax=b$ y $A’x=b’$ tienen exactamente el mismo conjunto solución. Decimos que «las operaciones elementales no cambian las soluciones del sistema».
  • Usando operaciones elementales se puede llevar el sistema $Ax=b$ a un sistema mucho más sencillo $A_{red}x=b_{red}$ (que discutiremos más abajo). Entonces «las operaciones ayudan a simplificar un sistema de ecuaciones».

Juntando ambas observaciones, con operaciones elementales podemos llevar cualquier sistema de ecuaciones a uno mucho más sencillo y con el mismo conjunto solución.

Puedes intentar convencerte de la primera afirmación pensando en lo siguiente. En un reescalamiento de filas corresponde a multiplicar por una constante no nula ambos lados de una ecuación; la transposición corresponde a cambiar el orden en el que aparecen dos ecuaciones diferentes; mientras que la transvección corresponde a sumar un múltiplo de una ecuación a otra ecuación, y el sistema tiene las mismas soluciones pues, si un conjunto de valores es solución para dos ecuaciones, entonces es solución para cualquier combinación lineal de estas. En un curso de Álgebra Lineal I puedes encontrar las justificaciones con mucho más detalle.

En las siguientes secciones hablamos un poco más de la segunda afirmación.

Forma escalonada y escalonada reducida para una matriz

Además de las operaciones elementales por filas, es importante definir algunos conceptos.

Comencemos con el concepto de pivote: diremos que una entrada de una matriz es un pivote si es el primer elemento distinto de cero en una fila.

Diremos que una matriz se encuentra en forma escalonada si se cumple: 1. Todas las filas nulas se encuentran hasta abajo; 2. Todos los pivotes de filas no-nulas tienen valor 1; 3. El pivote de cada fila se encuentra la derecha del pivote de una fila superior. Es fácil identificar las matrices en forma escalonada porque parecen “estar en escalerita”. Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 9 & 1 & 1 \\
0 & 1 & 2 & 3 \\
0 & 0 & 1 & 1
\end{pmatrix}
\]
se encuentra en forma escalonada, mientras que las matrices
\[
\begin{pmatrix}
1 & 0 & 2 & 4 \\
0 & 0 & 9 & 2 \\
0 & 3 & 0 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 6 & 8 & -5 \\
0 & 0 & 0 & 0 \\
0 & 0 & 9 & 2
\end{pmatrix}
\]
no lo están. ¿Puedes justificar por qué?

Por su parte, diremos que una matriz se encuentra en forma escalonada reducida si está en forma escalonada y, además, si hay un pivote en alguna fila, todas las entradas que no sean pivote en la misma columna del pivote son iguales a $0$ (Ojo. Siempre hablamos de pivotes de renglones).

Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 0 & -1 & 0 \\
0 & 1 & 3 & 0 \\
0 & 0 & 0 & 1
\end{pmatrix}
\]
está en forma escalonada reducida.

Como recordarás de la entrada anterior, un sistema de ecuaciones lineales
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se puede codificar como
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Como podemos cambiar el nombre de las variables, pero el vector de soluciones sigue siendo el mismo, es común codificar el sistema como una única matriz aumentada
\[
\left(
\begin{matrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{matrix}
\
\middle|
\
\begin{matrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{matrix}
\right).
\]

Aquí pusimos una línea vertical, pero sólo es por ayuda visual. Esa matriz la puedes tratar como cualquier matriz que hemos platicado.

Teniendo esto en cuenta, las matrices en forma escalonada reducida nos son de gran utilidad al resolver sistemas de ecuaciones lineales. Por ejemplo, consideremos el sistema
\[
\begin{cases}
x + 3y + 2w &= 8 \\
z + w &= 9,
\end{cases}
\]
el cual tiene como matriz aumentada a
\[
\left(
\begin{matrix}
1 & 3 & 0 & 2 \\
0 & 0 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
8 \\
9
\end{matrix}
\right),
\]
la cual se encuentra en forma escalonada.

Gracias a que la matriz está en forma escalonada, podemos elegir en orden inverso $w$, $z$, $y$, $x$ a las variables libres y pivote como en la entrada anterior. En este caso, podemos elegir como queramos el valor de $w$ ($w$ es variable libre). Usando la segunda ecuación, podemos despejar $z$ en términos de $w$ ($z$ es variable pivote). Estos dos valores los sustituimos en la primera ecuación y notamos que $y$ puede ser lo que queramos ($y$ es variable libre). Finalmente, $x$ queda totalmente determinado por las demás variables ($x$ es pivote). Las variables pivote justo corresponden a columnas de la matriz que tengan pivote de alguna fila.

La ventaja de la forma escalonada es que podremos ir obteniendo fácilmente el valor de cada variable “de abajo hacia arriba”. En el caso de un sistema cuya matriz se encuentre en forma escalonada reducida, será aún más sencillo pues ya no tendremos que sustituir valores y obtenemos el despeje directamente.

Teorema de reducción de Gauss-Jordan

El siguiente teorema relaciona las operaciones elementales por filas con la forma escalonada reducida de una matriz.

Teorema (de reducción de Gauss-Jordan o reducción gaussiana). Cualquier matriz con entradas reales se puede a una forma escalonada reducida aplicando una cantidad finita de pasos.

A continuación presentamos un algoritmo con el cual podemos pasar de una matriz arbitraria a una matriz en su forma escalonada reducida. Para hacer más sencilla su aplicación, nos enfocaremos en comprender la estrategia que sigue el algoritmo. La descripción formal del algoritmo y demostración de que en efecto funciona como esperamos es un tema que abordarás en el curso de Álgebra Lineal I (puedes echarle un ojo a esta entrada).

Primeramente, describiremos los pasos del algoritmo, al que se le conoce como reducción de Gauss-Jordan o reducción gaussiana.

Estrategia: Iremos arreglando la matriz de izquierda a derecha. Para ello, haremos los siguientes pasos repetidamente.

  1. Buscamos la primera columna de la matriz (de izquierda a derecha) que no tenga puros ceros.
  2. Una vez encontrada dicha columna, buscamos la primera entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos la fila que contiene a dicha entrada hasta arriba mediante la operación de transposición.
  4. Multiplicamos cada entrada de la fila que acabamos de mover hasta arriba por el inverso multiplicativo de su primera entrada (aquí usamos la operación de reescalamiento). La primera entrada de esta fila ahora será 1.
  5. Mediante la operación de transvección, sustraemos múltiplos de la primera fila al resto de renglones de la matriz, de modo que el resto de los valores en la columna correspondiente a la primera entrada de la fila en la que estamos trabajando pasen a ser 0 (como puedes observar, la entrada primera entrada no-nula de la fila en la que estamos trabajando ahora será un pivote).
  6. Ignorando la primera fila, buscamos la primera columna (de izquierda a derecha) que no tenga puros ceros.
  7. Repetimos los pasos anteriores (2 a 6), pero ahora, en vez de mover la fila con la que estamos trabajando “hasta arriba”, la moveremos inmediatamente después de la última fila con la que trabajamos.
  8. Hacemos esto hasta haber arreglado todas las columnas.

Ejemplo de reducción de Gauss-Jordan

Ahora, como ejemplo, veamos cómo podemos implementar este algoritmo en la matriz
\[
\begin{pmatrix}
0 & 1 & 2 & 3 & 4 \\
-1 & 0 & 1 & 2 & 3 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
la cual, si la consideramos como la matriz aumentada
\[
\left(
\begin{matrix}
0 & 1 & 2 & 3 \\
-1 & 0 & 1 & 2 \\
3 & 1 & -1 & 0 \\
0 & 1 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
4 \\
3 \\
2 \\
1
\end{matrix}
\right),
\]
corresponde al sistema de ecuaciones
\[
\begin{cases}
y + 2z + 3w &= 4 \\
-x + z + 2w &= 2 \\
3x + y -z &= 0 \\
y + z + w &= 1.
\end{cases}
\]

Buscamos la primera la primera columna no nula, la cual resulta ser la primera columna de la matriz. En esta columna, vemos que la segunda entrada es la primera entrada distinta de cero. Entonces, mediante trasposicón, intercambiamos las filas 1 y 2 (“movemos la segunda columna hasta arriba”):
\[
\begin{pmatrix}
-1 & 0 & 1 & 2 & 3 \\
0 & 1 & 2 & 3& 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, nos fijamos en la primera entrada no nula de la primera fila, que es $-1$, y reescalamos la fila por su inverso multiplicativo, que es $-1$:
\[
\begin{pmatrix}
(-1)(-1) & (-1)(0) & (-1)(1) & (-1)(2) & (-1)(3) \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, observamos el valor de la primera entrada de la tercera fila, el cual es $3$. Entonces, mediante transvección, sumamos $-3$ veces la fila 1 a la fila 3:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3+(-3)(1) & 1+(-3)(0) & -1+(-3)(-1) & 0+(-3)(-2) & 2+(-3)(-3) \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
y realizamos lo mismo, pero ahora considerando la fila 4.
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0+(0)(1) & 1+(0)(0) & 1+(0)(-1) & 1+(0)(-2) & 1+(0)(-3)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
Como puedes observar, ninguna de las transvecciones influye en la otra, de manera que las podemos enlistar en un único paso. Además, al hacer una transvección con escalar $0$ no cambia nada de la fila, así que estas no se necesita hacerlas.

Ahora, ignorando la última fila con la que trabajamos (que es la primera), buscamos la primera columna no-nula, que en este caso será la segunda, posteriormente buscamos el primer elemento no nulo de la columna, el cual se encuentra en la segunda fila, y la “movemos enseguida de la última fila con la que trabajamos” (en este caso no tendríamos que realizar ninguna transposición, o bien, la transposición sería la de la segunda fila consigo misma, ya que ya se encuentra en seguida de la última fila con la que trabajamos). Después, reescalamos por el inverso multiplicativo del primer elemento no nulo de la fila, que es $1$:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
(1)(0) & (1)(1) & (1)(2) & (1)(3) & (1)(4) \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
(observa que reescalar por $1$ deja todas las entradas iguales) y posteriormente realizamos las transvecciones necesarias para que el resto de entradas de la segunda columna sean cero.
\[
\begin{pmatrix}
1 & 0+(0)(1) & -1+(0)(2) & -2+(0)(3) & -3+(0)(4) \\
0 & 1 & 2 & 3 & 4 \\
0 & 1+(-1)(1) & 2+(-1)(2) & 6+(-1)(3) & 11+(-1)(4) \\
0 & 1+(-1)(1) & 1+(-1)(2) & 1+(-1)(3) & 1+(-1)(4)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 0 & 3 & 7 \\
0 & 0 & -1 & -2 & -3
\end{pmatrix}
\]

De manera similar, ignorando ahora las primeras dos filas, buscamos la primera columna no-nula, la cual corresponde ahora a la tercera, y buscamos el primer elemento no-nulo de esta columna, el cual se encuentra en la cuarta fila. Entonces, transponemos las filas 3 y 4 para que el primer elemento no-nulo quede inmediatamente después de la última fila con la que trabajamos:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & -1 & -2 & -3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Seguidamente, reescalamos la tercera fila,
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
(-1)(0) & (-1)(0) & (-1)(-1) & (-1)(-2) & (-1)(-3) \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
\]
y relizamos las transvecciones necesarias:
\[
\begin{pmatrix}
1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(2) & -3+(1)(3) \\
0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(2) & 4+(-2)(3) \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Finalmente, como nuestra última columna no cero es la cuarta y la primera fila no cero (ignorando las filas que ya tienen pivote) tiene un $3$, reescalamos de la siguiente manera:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
(1/3)(0) & (1/3)(0) & (1/3)(0) & (1/3)(3) & (1/3)(7)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix},
\]

Y hacemos las transvecciones necesarias:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0+(1)(0) & 1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(7/3) \\
0+(-2)(0) & 0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(7/3) \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1/3 \\
0 & 0 & 1 & 0 & -5/3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}.
\]

Notemos que si consideramos esta matriz como la matriz aumentada
\[
\left(
\begin{matrix}
1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 0 \\
0 & 0 & 0 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
0 \\
1/3 \\
-5/3 \\
7/3
\end{matrix}
\right),
\]
este corresponde al sistema
\[
\begin{cases}
x = 0 \\
y = 1/3 \\
z = -5/3 \\
w = 7/3,
\end{cases}
\]
del cual sabemos inmediatamente su solución. Como mencionamos anteriormente, los sistemas de ecuaciones asociados a la matriz original y la matriz escalonada reducida resultante de aplicar operaciones elementales por filas, consideradas como matrices aumentadas, tienen las mismas soluciones. Entonces, ¡este último sistema es la solución para nuestro sistema de ecuaciones original!

Como podemos ver, los sistemas de ecuaciones asociados a una matriz en su forma escalonada reducida son fáciles de resolver por que vamos escogiendo valores arbitrarios para las variables en posición que no es pivote, mientras que podemos obtener el valor de las variables que son pivote mediante despejes sencillos.

Recuerda que este algoritmo funciona para cualquier matriz con entradas reales. ¿Podrías proponer otro sistema de ecuaciones e implementar la misma estrategia para resolverlo?

Más adelante…

Ahora vimos una estrategia para resolver sistemas de ecuaciones lineales de distintos tamaños. En las siguientes entradas conoceremos más propiedades sobre las matrices. Estas nuevas propiedades también juegan un rol fundamental en poder determinar de manera más rápida cuándo un sistema de ecuaciones lineales tiene solución, y tener otras alternativas para resolverlo bajo ciertas condiciones.

Tarea moral

  1. Aplica reducción gaussiana a las siguientes matrices:
    $$\begin{pmatrix} 5 & 2 \\ 13 & 5 \end{pmatrix},\quad \begin{pmatrix} 1 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix}.$$
  2. Resuelve el siguiente sistema de ecuaciones llevándolo a forma escalonada reducida, y luego aplicando a técnica de variables libres y pivote:
    $$\begin{cases} a + b + c + d + e &= -5\\2a+2b-3c-3d+e&=5 \\ a – b + c – d + e &= 0. \end{cases}$$
  3. Sea $I$ la matriz identidad de $n\times n$ y $A$ otra matriz de $n\times n$. Sea $E$ la matriz obtenida de aplicar una transvección a $I$. Sea $B$ la matriz de aplicar esa misma transvección a $A$. Demuestra que $EA=B$.
  4. Demuestra que una matriz $A$ de $2\times 2$ es invertible si y sólo si al aplicar reducción de Gauss-Jordan al final se obtiene la matriz identidad $I$. ¿Puedes hacerlo para matrices de $3\times 3$? ¿De $n\times n$?
  5. Sea $A$ una matriz de $2\times 2$ invertible. A $A$ le «pegamos» una identidad del mismo tamaño a la derecha para llegar a $(A|I)$, por ejemplo $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ se convertiría en $\begin{pmatrix} a & b & 1 & 0 \\ c & d & 0 & 1 \end{pmatrix}$. Muestra que si aplicamos reducción de Gauss-Jordan a $(A|I)$, se llega a $(I|A^{-1})$. Intenta extender tu demostración a matrices de $3\times 3$ ó $n\times n$.

Entradas relacionadas

Álgebra Superior I: Determinante de matrices y propiedades

Por Eduardo García Caballero

Introducción

Uno de los conceptos más importantes en el álgebra lineal es la operación conocida como determinante. Si bien este concepto se extiende a distintos objetos, en esta entrada lo revisaremos como una operación que se puede aplicar a matrices cuadradas. Como veremos, el determinante está muy conectado con otros conceptos que hemos platicado sobre matrices

Definición para matrices de $2\times 2$

A modo de introducción, comenzaremos hablando de determinantes para matrices de $2\times 2$. Aunque este caso es sencillo, podremos explorar algunas de las propiedades que tienen los determinantes, las cuales se cumplirán de manera más genera. Así, comencemos con la siguiente definición.

Definición. Para una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, definimos su determinante como
\[
\operatorname{det}(A) = ad – bc.
\]

Basándonos en esta definición, podemos calcular los determinantes
\[
\operatorname{det}
\begin{pmatrix} 9 & 3 \\ 5 & 2 \end{pmatrix}=9\cdot 2 – 3\cdot 5 = 3
\]
y
\[
\operatorname{det}
\begin{pmatrix} 4 & -3 \\ 12 & -9 \end{pmatrix}
=
4\cdot (-9)-(-3)\cdot 12= 0.
\]

Otra notación que podemos encontrar para determinantes es la notación de barras. Lo que se hace es que la matriz se encierra en barras verticales, en vez de paréntesis. Así, los determinantes anteriores también se pueden escribir como
\[
\begin{vmatrix} 9 & 3 \\ 5 & 2 \end{vmatrix} = 3
\qquad
\text{y}
\qquad
\begin{vmatrix} 4 & -3 \\ 12 & -9 \end{vmatrix} = 0.
\]

Primeras propiedades del determinante

El determinante de una matriz de $2\times 2$ ayuda a detectar cuándo una matriz es invertible. De hecho, esto es algo que vimos previamente, en la entrada de matrices invertibles. En ella, dijimos que una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si se cumple que $ad – bc \ne 0$. ¡Aquí aparece el determinante! Podemos reescribir el resultado de la siguiente manera.

Teorema. Una matriz de la forma $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si $\det(A) \ne 0$. Cuando el determinante es distinto de cero, la inversa es $A^{-1} = \frac{1}{\det(A)}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$.

Otra propiedad muy importante que cumple el determinante para matrices de $2\times 2$ es la de ser multiplicativo; es decir, para matrices $A$ y $B$ se cumple que $\operatorname{det}(AB) = \operatorname{det}(A) \operatorname{det}(B)$. La demostración de esto se basa directamente en las definiciones de determinante y de producto de matrices. Hagamos las cuentas a continuación para matrices $A=\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}$ y $B=\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.$

Tenemos que:
\begin{align*}
\operatorname{det}(AB)
&=
\operatorname{det}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21})(a_{21}b_{12} + a_{22}b_{22})-(a_{11}b_{12} + a_{12}b_{22})(a_{21}b_{11} + a_{22}b_{21})
\\[5pt]
&=
a_{11}a_{22}b_{11}b_{22} – a_{12}a_{21}b_{11}b_{22} – a_{11}a_{22}b_{12}b_{21} + a_{12}a_{21}b_{12}b_{21}
\\[5pt]
&=
(a_{11}a_{22} – a_{12}a_{21})(b_{11}b_{22} – b_{12}b_{21})
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\operatorname{det}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{det}(A)\operatorname{det}(B).
\end{align*}

Interpretación geométrica del determinante de $2\times 2$

El determinante también tiene una interpretación geométrica muy interesante. Si tenemos una matriz de $2\times 2$, entonces podemos pensar a cada una de las columnas de esta matriz como un vector en el plano. Resulta que el determinante es igual al área del paralelogramo formado por estos vectores.

Por ejemplo, si consideramos la matriz
\[
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix},
\]
podemos ver que el vector asociado a su primera columna es el vector $(4,1)$, mientras que el vector asociado a su segunda columna es $(2,3)$:

Así, el paralelogramo $ABDC$ de la figura anterior formado por estos dos vectores tiene área igual a
\[
\operatorname{det}
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix}
= 4\cdot 3 – 2\cdot 1 = 10.
\]

No daremos la demostración de este hecho, pues se necesita hablar más sobre la geometría del plano. Sin embargo, las ideas necesarias para este resultado pueden consultarse en un curso de Geometría Analítica I.

Definición recursiva

También nos interesa hablar de determinantes de matrices más grandes. De hecho, nos interesa hablar del determinante de cualquier matriz cuadrada. La definición formal requiere de varios conocimientos de Álgebra Lineal I. Sin embargo, por el momento podemos platicar de cómo se obtienen los determinantes de matrices recursivamente. Con esto queremos decir que para calcular el determinante de matrices de $3\times 3$, necesitaremos calcular varios de matrices de $2\times 2$. Así mismo, para calcular el de matrices de $4\times 4$ requeriremos calcular varios de matrices de $3\times 3$ (que a su vez requieren varios de $2\times 2$).

Para explicar cómo es esta relación de poner determinantes de matrices grandes en términos de matrices más pequeñas, primeramente definiremos la función $\operatorname{sign}$, la cual asigna a cada pareja de enteros positivos $(i,j)$ el valor
\[
\operatorname{sign}(i,j) = (-1)^{i+j}.
\]
A partir de la función $\operatorname{sign}$ podemos hacer una matriz cuya entrada $a_{ij}$ es $\operatorname{sign}(i,j)$. Para visualizarla más fácilmente, podemos pensar que a la entrada $a_{11}$ (la cual se encuentra en la esquina superior izquierda) le asigna el signo “$+$”, y posteriormente va alternando los signos del resto de entradas. Por ejemplo, los signos correspondientes a las entradas de la matriz de $3 \times 3$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + \\
– & + & – \\
+ & – & +
\end{pmatrix},
\]
mientras que los signos correspondientes a las entradas de la matriz de $4 \times 4$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} & a_{14} \\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34} \\
a_{41} & a_{42} & a_{43} & a_{44}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + & – \\
– & + & – & + \\
+ & – & + & – \\
– & + & – & +
\end{pmatrix}.
\]

Ya que entendimos cómo se construyen estas matrices, el cálculo de determinantes se realiza como sigue.

Estrategia. Realizaremos el cálculo de determinante de una matriz de $n \times n$ descomponiéndola para realizar el cálculo de determinantes de matrices de $(n-1) \times (n-1)$. Eventualmente llegaremos al calcular únicamente determinantes de matrices de $2 \times 2$, para las cuales ya tenemos una fórmula. Para esto, haremos los siguientes pasos repetidamente.

  1. Seleccionaremos una fila o columna arbitraria de la matriz original (como en este paso no importa cuál fila o columna seleccionemos, buscaremos una que simplifique las operaciones que realizaremos; generalmente nos convendrá seleccionar una fila o columna que cuente en su mayoría con ceros).
  2. Para cada entrada $a_{ij}$ en la fila o columna seleccionada, calculamos el valor de
    \[
    \operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
    \]
    donde $A_{ij}$ es el la matriz que resulta de quitar la fila $i$ y la columna $j$ a la matriz original.
  3. El determinante de la matriz será la suma de todos los términos calculados en el paso anterior.

Veamos algunos ejemplos de cómo se utiliza la estrategia recién descrita.

Ejemplo con matriz de $3\times 3$

Consideremos la matriz de $3 \times 3$
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

A primera vista no hay alguna fila o columna que parezca simplificar los cálculos, por lo cual podemos proceder con cualquiera de estas; nosotros seleccionaremos la primera fila.
\[
\begin{pmatrix}
\fbox{3} & \fbox{1} & \fbox{-1} \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

Para cada término de la primera fila, calculamos el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{i,j}),
\]
obteniendo
\begin{align*}
\operatorname{sign}(1,1) \cdot (a_{11}) \cdot \operatorname{det}(A_{11})
&= +(3)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
\blacksquare & -1 & -2 \\
\blacksquare & -3 & -2
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det} \begin{pmatrix} -1 & -2 \\ -3 & -2 \end{pmatrix}
\\[5pt]
&= +(3)[(-1)(-2) – (-2)(-3)]
\\[5pt]
&= +(3)(-4)
\\[5pt]
&= -12,
\\[10pt]
\operatorname{sign}(1,2) \cdot (a_{12}) \cdot \operatorname{det}(A_{12})
&= -(1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & \blacksquare & -2 \\
4 & \blacksquare & -2
\end{pmatrix}
\\[5pt]
&= -(1)\operatorname{det}
\begin{pmatrix} 6 & -2 \\ 4 & -2 \end{pmatrix}
\\[5pt]
&=-(1)[(6)(-2) – (-2)(4)]
\\[5pt]
&=-(1)(-4)
\\[5pt]
&=4,
\\[10pt]
\operatorname{sign}(1,3) \cdot (a_{13}) \cdot \operatorname{det}(A_{13})
&= +(-1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & -1 & \blacksquare \\
4 & -3 & \blacksquare
\end{pmatrix}
\\[5pt]
&= +(-1)\operatorname{det} \begin{pmatrix} 6 & -1 \\ 4 & -3 \end{pmatrix}
\\[5pt]
&= +(-1)[(6)(-3) – (-1)(4)]
\\[5pt]
&= +(-1)(-14)
\\[5pt]
&= 14.
\end{align*}

Finalmente, el determinante de nuestra matriz original será la suma de los términos calculados; es decir,
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -1
\end{pmatrix}
=
(-12) + (4) + (14) = 6.
\]

Ejemplo con matriz de $4\times 4$

En el siguiente ejemplo veremos cómo el escoger una fila o columna en específico nos puede ayudar a simplificar mucho los cálculos.

Consideremos la matriz
\[
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}.
\]

Observemos que el valor de tres de las entradas de la segunda columna es $0$. Por esta razón, seleccionaremos esta columna para descomponer la matriz:
\[
\begin{pmatrix}
4 & \fbox{0} & 2 & 2 \\
-1 & \fbox{3} & -2 & 5 \\
-2 & \fbox{0} & 2 & -3 \\
1 & \fbox{0} & 4 & -1
\end{pmatrix}.
\]

El siguiente paso será calcular el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
\]
para cada entrada de esta columna. Sin embargo, por la elección de columna que hicimos, podemos ver que el valor de $a_{ij}$ es 0 para tres de las entradas, y por tanto también lo es para el producto que deseamos calcular. De este modo, únicamente nos restaría calcular el producto
\begin{align*}
\operatorname{sign}(2,2) \cdot a_{22} \cdot \operatorname{det}(A_{22})
&=
+(3)\operatorname{det}
\begin{pmatrix}
4 & \blacksquare & 2 & 2 \\
\blacksquare & \blacksquare & \blacksquare & \blacksquare \\
-2 & \blacksquare & 2 & -3 \\
1 & \blacksquare & 4 & -1
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det}
\begin{pmatrix}
4 & 2 & 2 \\
-2 & 2 & -3 \\
1 & 4 & -1
\end{pmatrix}.
\end{align*}
Se queda como ejercicio al lector concluir que el resultado de este último producto es 30.

De este modo, obtenemos que
\[
\operatorname{det}
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}
= 0 + 30 + 0 + 0 = 30.
\]

Aunque esta definición recursiva nos permite calcular el determinante de una matriz cuadrada de cualquier tamaño, rápidamente se vuelve un método muy poco práctico (para obtener el determinante de una matriz de $6 \times 6$ tendríamos que calcular hasta 60 determinantes de matrices de $2 \times 2$). En el curso de Álgebra Lineal I se aprende otra definición de determinante a través de permutaciones, de las cuales se desprenden varios métodos más eficientes para calcular determinante. Hablaremos un poco de estos métodos en la siguiente entrada.

Las propiedades de $2\times 2$ también se valen para $n\times n$

Las propiedades que enunciamos para matrices de $2\times 2$ también se valen para determinantes de matrices más grandes. Todo lo siguiente es cierto, sin embargo, en este curso no contamos con las herramientas para demostrar todo con la formalidad apropiada:

  • El determinante es multiplicativo: Si $A$ y $B$ son matrices de $n\times n$, entonces $\operatorname{det}(AB) = \operatorname{det}(A)\operatorname{det}(B)$.
  • El determinante detecta matrices invertibles: Una matriz $A$ de $n\times n$ es invertible si y sólo si su determinante es distinto de $0$.
  • El determinante tiene que ver con un volumen: Los vectores columna de una matriz $A$ de $n\times n$ hacen un paralelepípedo $n$-dimensional cuyo volumen $n$-dimensional es justo $\det{A}$.

Más adelante…

En esta entrada conocimos el concepto de determinante de matrices, vimos cómo calcularlo para matrices de distintos tamaños y revisamos cómo se interpreta cuando consideramos las matrices como transformaciones de flechas en el plano. En la siguiente entrada enunciaremos y aprenderemos a usar algunas de las propiedades que cumplen los determinantes.

Tarea moral

  1. Calcula los determinantes de las siguientes matrices:
    • $\begin{pmatrix} 5 & 8 \\ 3 & 9 \end{pmatrix}, \begin{pmatrix} 10 & 11 \\ -1 & 9 \end{pmatrix}, \begin{pmatrix} 31 & 38 \\ 13 & -29 \end{pmatrix}$
    • $\begin{pmatrix} 1 & 5 & 2 \\ 3 & -1 & 8 \\ 0 & 2 & 5 \end{pmatrix}, \begin{pmatrix} 1 & 8 & 4 \\ 0 & 5 & -3 \\ 0 & 0 & -1 \end{pmatrix}, \begin{pmatrix} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 3 & 3 & 3 \end{pmatrix}$
    • $\begin{pmatrix} 5 & 7 & -1 & 2 \\ 3 & 0 & 1 & 0 \\ 2 & -2 & 2 & -2 \\ 5 & 1 & 1 & 0 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 9 & 10 & 11 & 12 \\ 13 & 14 & 15 & 16 \end{pmatrix}$
  2. Demuestra que para una matriz $A$ y un entero positivo $n$ se cumple que $\det(A^n)=\det(A)^n$.
  3. Sea $A$ una matriz de $3\times 3$. Muestra que $\det(A)=\det(A^T)$.
  4. Sea $A$ una matriz invertible de $2\times 2$. Demuestra que $\det(A)=\det(A^{-1})^{-1}$.
  5. ¿Qué le sucede al determinante de una matriz $A$ cuando intercambias dos filas? Haz algunos experimentos para hacer una conjetura, y demuéstrala.

Entradas relacionadas

Álgebra Superior I: Producto de matrices con matrices

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido varias operaciones que involucran escalares, vectores y matrices. En esta entrada aprenderemos sobre una de las operaciones más importantes en el álgebra lineal: el producto de matrices con matrices.

Definición de producto de matrices

Para poder efectuar el producto de dos matrices, hay que asegurarnos de que el número de columnas de la primera matriz sea igual al número de filas de la segunda matriz.

El resultado de una matriz $A$ de tamaño $m \times n$ por una matriz $B$ de tamaño $n \times \ell$ será la matriz $C = AB$ de tamaño $m \times \ell$, donde la entrada $c_{ij}$ de $C$ está dada por la fórmula
\[
c_{ij} = a_{i1}b_{1j} + a_{i2}b_{2j} + \cdots + a_{in}b_{nj}.
\]

A primera vista esta fórmula puede parecer complicada, sin embargo, practicando con algunos ejemplos verás que es muy fácil de implementar.

  • Producto de matrices de tamaño $2 \times 2$:

Sean
\[
A
=
\begin{pmatrix}
1 & 3 \\
5 & 7
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
2 & 4 \\
6 & 8
\end{pmatrix}.
\]

Como estamos multiplicando una matriz de tamaño $2 \times 2$ por una matriz de tamaño $2 \times 2$, sabemos que el resultado será otra matriz de tamaño $2 \times 2$. Ahora, iremos calculando una por una sus entradas.

Sea $C = AB$. Para calcular la entrada $c_{11}$ observamos la primera fila de $A$ y la primera columna de $B$, las cuales son
\[
A
=
\begin{pmatrix}
1 & 3\\
\phantom{5} & \phantom{7}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
2 & \phantom{4} \\
6 & \phantom{8}
\end{pmatrix},
\]
de modo que $c_{11} = (1)(2)+(3)(6) = 20$:
\[
AB
=
\begin{pmatrix}
20 & \phantom{28} \\
\phantom{52} & \phantom{76}
\end{pmatrix}.
\]

Para la entrada $c_{12}$, nos fijamos en la primera columna de $A$ y en la segunda columna de $B$, que son
\[
A
=
\begin{pmatrix}
1 & 3\\
\phantom{5} & \phantom{7}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
\phantom{2} & 4 \\
\phantom{6} & 8
\end{pmatrix},
\]
obteniendo $c_{12} = (1)(4) + (3)(8) = 28$:
\[
AB
=
\begin{pmatrix}
20 & 28 \\
\phantom{52} & \phantom{76}
\end{pmatrix}.
\]

De manera similar, observemos la segunda fila de $A$ y la primera columna de $B$,
\[
A
=
\begin{pmatrix}
\phantom{1} & \phantom{3} \\
5 &7
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
2 & \phantom{4} \\
6 & \phantom{8}
\end{pmatrix},
\]
obteniendo $c_{21} = (5)(2) + (7)(6) = 52$, mientras que la segunda fila de $A$ y la segunda columna de $B$ son
\[
A
=
\begin{pmatrix}
\phantom{1} & \phantom{3} \\
5 &7
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
\phantom{2} & 4 \\
\phantom{6} & 8
\end{pmatrix},
\]
obteniendo $c_{22} = (5)(4) + (7)(8) = 76$.

Por lo tanto,
\[
AB
=
\begin{pmatrix}
20 & 28 \\
52 & 76
\end{pmatrix}.
\]

En general, el resultado del producto de las matrices
\[
A
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
es
\[
AB
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}.
\]

  • Producto de matriz de $3 \times 2$ por matriz de $2 \times 2$:

Supongamos que
\[
A
=
\begin{pmatrix}
3 & 5 \\
1 & 0 \\
4 & 3
\end{pmatrix}
\qquad
\text{y}
\qquad
B
=
\begin{pmatrix}
7 & 8 \\
5 & 2
\end{pmatrix}.
\]

En este caso, como estamos multiplicando una matriz de tamaño $3 \times 2$ por una matriz de tamaño $2 \times 2$, la matriz resultante tendrá tamaño $3 \times 2$.

Podemos obtener sus entradas de manera similar al caso anterior. Si $C = AB$, entonces la entrada $c_{12}$ la podemos encontrar revisando la primera fila de $A$ y la segunda columna de $B$,
\[
A
=
\begin{pmatrix}
3 & 5 \\
\phantom{1} & \phantom{0} \\
\phantom{4} & \phantom{3}
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
\phantom{7} & 8 \\
\phantom{5} & 2
\end{pmatrix}.
\]
de modo que $c_{12} = (3)(8) + (5)(2) = 34$. Por su parte, para obtener la entrada $c_{31}$ nos fijamos en la tercera fila de $A$ y la primera columna de $B$,
\[
A
=
\begin{pmatrix}
\phantom{3} & \phantom{5} \\
\phantom{1} & \phantom{0} \\
4 & 3
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
7 & \phantom{8} \\
5 & \phantom{2}
\end{pmatrix}.
\]
obteniendo $c_{31} = (4)(7) + (3)(5) = 43$.

¿Podrías comprobar que
\[
AB
=
\begin{pmatrix}
46 & 34 \\
7 & 8 \\
43 & 38
\end{pmatrix}?
\]

Así, para el caso general de matrices de $3 \times 2$ por $2 \times 2$, obtendremos
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]

  • Producto de matriz de $4 \times 2$ por matriz de $2 \times 3$:

¿Podrías verificar que la siguiente fórmula es correcta?
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32} \\
a_{41} & a_{42}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} & a_{11}b_{13} + a_{12}b_{23} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} & a_{21}b_{13} + a_{22}b_{23} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22} & a_{31}b_{13} + a_{32}b_{23} \\
a_{41}b_{11} + a_{42}b_{21} & a_{41}b_{12} + a_{42}b_{22} & a_{41}b_{13} + a_{42}b_{23}
\end{pmatrix}.
\]

Propiedades del producto de matrices

A continuación revisaremos algunas de las propiedades que cumple la multiplicación de matrices. Para demostrar las siguientes propiedades, consideraremos la matriz $A$ de tamaño $3 \times 2$ y las matrices $B$ y $C$ de tamaño $2 \times 2$, aunque se pueden probar para matrices de cualesquier otro tamaño entre las cuales se puedan efectuar las operaciones.

Veamos que si efectuamos la multiplicación de una matriz de tamaño $m \times n$ por una matriz de tamaño $n \times 1$ siguiendo el algoritmo descrito anteriormente, el resultado coincide con el de multiplicar la matriz de tamaño $m \times n$ por un vector de tamaño $n$. Por ejemplo, si multiplicamos $A$ por una matriz $U$ de tamaño $2 \times 1$, obtendremos
\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
u_{11} \\
u_{12}
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_{11} + a_{12}u_{21} \\
a_{21}u_{11} + a_{22}u_{21} \\
a_{31}u_{11} + a_{32}u_{21}
\end{pmatrix}.
\]

Esta es una observación importante pues todo lo que demostremos para el producto de matrices también lo tendremos para el producto de matriz por vector.

Veamos que la multiplicación de matrices es asociativa:

\begin{align*}
(AB)C
&=
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22} \\
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(a_{11}b_{11} + a_{12}b_{21})c_{11} + (a_{11}b_{12} + a_{12}b_{22})c_{21}
& (a_{11}b_{11} + a_{12}b_{21})c_{12} + (a_{11}b_{12} + a_{12}b_{22})c_{22} \\
(a_{21}b_{11} + a_{22}b_{21})c_{11} + (a_{21}b_{12} + a_{22}b_{22})c_{21}
& (a_{21}b_{11} + a_{22}b_{21})c_{12} + (a_{21}b_{12} + a_{22}b_{22})c_{22} \\
(a_{31}b_{11} + a_{32}b_{21})c_{11} + (a_{31}b_{12} + a_{32}b_{22})c_{21}
& (a_{31}b_{11} + a_{32}b_{21})c_{12} + (a_{31}b_{12} + a_{32}b_{22})c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}(b_{11}c_{11} + b_{12}c_{21}) + a_{12}(b_{21}c_{11} + b_{22}c_{21})
& a_{11}(b_{11}c_{12} + b_{12}c_{22}) + a_{12}(b_{21}c_{12} + b_{22}c_{22}) \\
a_{21}(b_{11}c_{11} + b_{12}c_{21}) + a_{22}(b_{21}c_{11} + b_{22}c_{21})
& a_{21}(b_{11}c_{12} + b_{12}c_{22}) + a_{22}(b_{21}c_{12} + b_{22}c_{22}) \\
a_{31}(b_{11}c_{11} + b_{12}c_{21}) + a_{32}(b_{21}c_{11} + b_{22}c_{21})
& a_{31}(b_{11}c_{12} + b_{12}c_{22}) + a_{32}(b_{21}c_{12} + b_{22}c_{22})
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11}c_{11} + b_{12}c_{21} & b_{11}c_{12} + b_{12}c_{22} \\
b_{21}c_{11} + b_{22}c_{21} & b_{21}c_{12} + b_{22}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\left(
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
A(BC).
\end{align*}

De manera muy similar, si $u$ es un vector de tamaño 2, podemos ver que se cumple que $A(Bu) = (AB)u$. ¿Puedes demostrarlo? Hazlo por lo menos para matrices $A$ y $B$ ambas de $2\times 2$.

Quizás tengas la impresión de que hay que hacer demasiadas cuentas y que sería sumamente difícil demostrar estas propiedades para matrices más grandes. Sin embargo, en cursos posteriores verás cómo trabajar apropiadamente con la notación para poder hacer estas demostraciones más fácilmente.

El producto de matrices es asociativo. Sin embargo, no es conmutativo. Por ejemplo, consideremos las matrices
\[
E=
\begin{pmatrix}
5 & 7 \\
-3 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
F=
\begin{pmatrix}
1 & 2 \\
9 & -1
\end{pmatrix}.
\]


Veamos que
\[
EF =
\begin{pmatrix}
68 & 3 \\
-3 & -6
\end{pmatrix}
\ne
\begin{pmatrix}
-1 & 7 \\
48 & 63
\end{pmatrix}
=
FE.
\]

En términos de combinar el producto de matrices con otras operaciones, tenemos que el producto de matrices por la izquierda se distribuye sobre la suma de matrices:
\begin{align*}
A(B+C)
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\left(
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
+
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11}+c_{11} & b_{12}+c_{12} \\
b_{21}+c_{21} & b_{22}+c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}(b_{11}+c_{11}) + a_{12}(b_{21}+c_{21})
& a_{11}(b_{12}+c_{21}) + a_{12}(b_{22}+c_{22}) \\
a_{21}(b_{11}+c_{11}) + a_{22}(b_{21}+c_{21})
& a_{21}(b_{12}+c_{21}) + a_{22}(b_{22}+c_{22}) \\
a_{31}(b_{11}+c_{11}) + a_{32}(b_{21}+c_{21})
& a_{31}(b_{12}+c_{21}) + a_{32}(b_{22}+c_{22}) \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11}+a_{11}c_{11} + a_{12}b_{21}+a_{12}c_{21}
& a_{11}b_{12}+a_{11}c_{11} + a_{12}b_{22}+a_{12}c_{22} \\
a_{21}b_{11}+a_{21}c_{11}+ a_{22}b_{21}+a_{22}c_{21}
& a_{21}b_{12}+a_{21}c_{12}+ a_{22}b_{22}+a_{22}c_{22} \\
a_{31}b_{11}+a_{31}c_{11} + a_{32}b_{21}+a_{32}c_{21}
& a_{31}b_{12}+a_{31}c_{12} + a_{32}b_{22}+a_{32}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}
+
\begin{pmatrix}
a_{11}c_{11} + a_{12}c_{21} & a_{11}c_{12} + a_{12}c_{22} \\
a_{21}c_{11} + a_{22}c_{21} & a_{21}c_{12} + a_{22}c_{22} \\
a_{31}c_{11} + a_{32}c_{21} & a_{31}c_{12} + a_{32}c_{22}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
+
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{pmatrix}
\\[5pt]
&=
AB + AC.
\end{align*}

El producto también se distribuye sobre la suma cuando la suma aparece a la izquierda. ¿Podrías probar que si $D$ es una matriz de tamaño $3 \times 2$, entonces se cumple $(A+D)B = AB + DB$?

En entradas anteriores vimos que $\mathcal{I}_n$ tiene la propiedad de ser neutro al multiplicarla por un vector de tamaño $n$. Resulta que $\mathcal{I}_n$ también tiene esta propiedad al multiplicarla por la izquierda por una matriz de tamaño $n\times m$. Por ejemplo, veamos que al multiplicar $\mathcal{I}_3$ por la izquierda por $A$, obtenemos
\begin{align*}
\mathcal{I}_3 A
&=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
1a_{11} + 0a_{21} + 0a_{31} & 1a_{12} + 0a_{22} + 0a_{32} \\
0a_{11} + 1a_{21} + 0a_{31} & 0a_{12} + 1a_{22} + 0a_{32} \\
0a_{11} + 0a_{21} + 1a_{31} & 0a_{12} + 0a_{22} + 1a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\\[5pt]
&=
A.
\end{align*}

¿Podrías probar que $A\mathcal{I}_2 = A$ (es decir, que $\mathcal{I}_2$ es neutro por la derecha para $A$)?

Habiendo visto que el producto de matrices es asociativo, conmutativo y tiene neutros, probablemente te estarás preguntando si existen inversos en la multiplicación de matrices. Este cuestionamiento lo dejaremos para la siguiente entrada.

Relación con la composición de transformaciones

Como vimos en la entrada anterior, una forma de visualzar el producto de una matriz $A$ por un vector $u$ es como una transformación que envía el vector $u$ a un único vector $Au$.

Teniendo en mente esto, veamos que la propiedad de que $A(Bu) = (AB)u$ resulta aún más interesante. Para esto, veamos que el siguiente ejemplo: sean
\[
A
=
\begin{pmatrix}
0 & 2 \\
1 & 1
\end{pmatrix},
\qquad
B
=
\begin{pmatrix}
1 & 2 \\
3 & 0
\end{pmatrix},
\qquad
\text{y}
\qquad
u
=
\begin{pmatrix}
1 \\
2
\end{pmatrix}.
\]

Si multiplicamos $B$ por $u$, vemos que corresponde a la transformación que envía $u = \begin{pmatrix} 1 \\ 2 \end{pmatrix}$ al vector $Bu = \begin{pmatrix} 5 \\ 3 \end{pmatrix}$.

Ahora, si multiplicamos $A$ por el vector $Bu$, vemos que corresponde a la transformación que envía $Bu$ al vector $A(Bu) = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$ (Acabamos de obtener el resultado de aplicar a $u$ la composición de las transformaciones $B$ y $A$).

Por otra parte, si realizamos la multiplicación
\[
AB
=
\begin{pmatrix}
0 & 2 \\
1 & 1
\end{pmatrix}
\begin{pmatrix}
1 & 2 \\
3 & 0
\end{pmatrix}
=
\begin{pmatrix}
6 & 0 \\
4 & 2
\end{pmatrix},
\]
la transformación asociada a $AB$ envía $u$ al vector $(AB)u = \begin{pmatrix} 6 \\ 8 \end{pmatrix}$.

¡La composición de las transformaciones asociadas a $B$ y $A$ aplicada al vector $u$ coincide con la transformación asociada a la matriz $AB$ aplicada al mismo vector!

Si probamos esto para un vector arbitrario, nos daremos cuenta de que en todos los casos se cumple lo mismo. En realidad, esto no es una coincidencia: como aprenderás en tus cursos de álgebra lineal, la composición de transformaciones lineales está directamente asociada al producto de matrices.

Potencias de matrices

Podemos ver que si una matriz $A$ es cuadrada, al tener el mismo número de filas que de columnas, entonces podemos realizar la multiplicaciones $AA$, $AAA$, $AAAA$, etc., que por asociatividad no importa en qué orden multipliquemos. Esto nos sugiere que podemos cacular potencias de matrices.

Para una matriz cuadrada $A$, definiremos de manera recursiva la potencia $A^n$:

  • Definimos $A^0 = \mathcal{I}$.
  • Dada $A^n$, con $n$ un número natural, definimos $A^{n+1} = A^n A$.

Por ejemplo, si
\[
A
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix},
\]
calculemos $A^3$ empleando la definición recursiva. Para esto, iremos calculando una por una las potencias de $A$, hasta llegar a $A^3$:
\begin{align*}
A^0
&=
\mathcal{I}
=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix},
\\[5pt]
A^1
&=
A^0A
=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix},
\\[5pt]
A^2
&=
A^1 A
=
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
(2)(2) + (1)(3) & (2)(1) + (1)(4) \\
(3)(2) + (4)(3) & (3)(1) + (4)(4)
\end{pmatrix}
=
\begin{pmatrix}
7 & 6 \\
18 & 19
\end{pmatrix},
\\[5pt]
A^3
&=
A^2A
=
\begin{pmatrix}
7 & 6 \\
18 & 19
\end{pmatrix}
\begin{pmatrix}
2 & 1 \\
3 & 4
\end{pmatrix}
=
\begin{pmatrix}
(7)(2) + (6)(3) & (7)(1) + (6)(4) \\
(18)(2) + (19)(3) & (18)(1) + (19)(4)
\end{pmatrix}
=
\begin{pmatrix}
32 & 31 \\
93 & 94
\end{pmatrix}.
\end{align*}

Prueba calcular algunas potencias de la matriz \(
\begin{pmatrix}
2 & 0 \\
0 & 3
\end{pmatrix}.
\) ¿Notas algún patrón especial?

Más adelante…

En esta entrada aprendimos sobre el producto de matrices con matrices y conocimos algunas de sus propiedades. En la siguiente entrada abordaremos la pregunta sobre si existen los inversos en la multiplicación de matrices.

Tarea moral

  1. Realiza el producto de matrices $$\begin{pmatrix} -1 & -2 & -3 \\ 0 & 1 & 2 \\ 1 & -1 & 3 \end{pmatrix}\begin{pmatrix} 1 & -1 & 1 \\ -1 & 1 & -1 \\ 1 & -1 & 1 \end{pmatrix}.$$
  2. Considera la matriz $A=\begin{pmatrix} 3 & -4 \\ 4 & -5 \end{pmatrix}$. Realiza las siguientes operaciones por separado, sin usar la asociatividad del producto de matrices. ¿Cuál de las dos operaciones te resultó más fácil de hacer?
    • $$A\left(A\left(A\left(A\begin{pmatrix} 2 \\ 3 \end{pmatrix}\right)\right)\right).$$
    • $$(((AA)A)A)\begin{pmatrix} 2 \\ 3 \end{pmatrix}.$$
  3. Completa las pruebas faltantes de las propiedades de la multiplicación de matrices.
  4. Demuestra la siguiente ley de exponentes para matrices: $A^mA^n=A^{m+n}$.
  5. Prueba que si
    \[
    A =
    \begin{pmatrix}
    a_{11} & 0 \\
    0 & a_{22}
    \end{pmatrix},
    \]
    y $k$ es un entero mayor o igual que $0$, entonces
    \[
    A^k
    =
    \begin{pmatrix}
    {a_{11}}^k & 0 \\
    0 & {a_{22}}^k
    \end{pmatrix}
    \]
    (Sugerencia: realizarlo por inducción sobre $k$, utilizando la definición recursiva).
  6. Encuentra matrices $A$ y $B$ de $2\times 2$ para las cuales $A^2-B^2\neq (A+B)(A-B)$.

Entradas relacionadas