Geometría Moderna II: Unidad 3 Polos y Polares

Por Armando Arzola Pérez

3.1 Definiciones

Introducción

Se tiene una correspondencia geométrica fundamental, la cual implica la transformación de cada punto del plano en una línea recta única y viceversa, mediante el uso de una circunferencia. La línea recta vinculada a un punto se denomina la polar de dicho punto, mientras que el punto mismo recibe el nombre de polo de la línea, es por ello que estudiaremos el tema de Polos y Polares.

Definición (Polos y Polares)

Dada una circunferencia $C(O,r)$, dos puntos inversos $P$ y $Q$ respecto a $C(O,r)$. Sea $p$ la perpendicular a $OQ$ y que pasa por $Q$, y sea $q$ la perpendicular a $OP$ y pasa por $P$.

Entonces se dirá que «$p$ es la recta polar de $P$» y «$q$ es la recta polar de $Q$» ambas respecto a $C$. De igual forma se dirá que «$Q$ es el polo de $q$» y «$P$ es el polo de $p$» ambos respecto a $C$.

Polos y Polares definición.

Se cumplen varias propiedades:

1.- Si $P$ es un punto exterior a la circunferencia, entonces $p$ es secante a la circunferencia $C$.

Polos y Polares propiedad 1.

2.- Si $P$ es un punto de $C$, entonces $p$ es tangente a la circunferencia $C$.

Polos y Polares propiedad 2.

3.- Si $P$ es un punto interior a $C$, entonces $p$ es ajena a la circunferencia $C$.

Polos y Polares propiedad 3.

4.- La polar del centro de la circunferencia es la línea al infinito, y el polo de un diámetro de circunferencia $C$ es un punto al infinito.

Teorema (Fundamental de Polos y Polares)

Si respecto a una circunferencia dada $C(O,r)$, la polar de $P$ pasa por $Q$ entonces la polar de $Q$ pasa por $P$. A las rectas $p$ y $q$, se les llama conjugadas polares y, a los puntos $P$ y $Q$ se les denomina conjugados polares.

Polos y Polares teorema Fundamental

Demostración

Se tiene que $p$ es la polar de $P$ y $Q$ pertenece a $p$, ahora se tiene que $Q’$ es el inverso de $Q$ entonces $OP \times OP’ = r^2 = OQ \times OQ’$, por lo cual se tiene un cuadrilátero cíclico $PP’QQ’$, entonces $Q’P$ es perpendicular a $OQ$.

Por lo tanto, $Q’P=q$ es polar de $Q$. $_\blacksquare$

Corolario (Polos y Polares)

Sean $p$ y $q$ líneas tales que, con respecto a una circunferencia $C$ dada, se dice que el polo de $p$ está en $q$, entonces el polo de $q$ está en $p$.

Demostración

Dadas $p$ y $q$ dos rectas y $P$ el polo de $p$, supongamos que $P$ está en $q$.

Polos y Polares Corolario

Sea $P’$ el inverso de $P$ y $P’$ perteneciente a $p$. Sean $OQ’$ perpendicular a $q$ y $Q$ es $OQ’$ intersección con $p$, pero $PQ’QP$ es un cuadrilatero ciclico, la circunferencia que lo contiene es ortogonal a $C$ y su inversa respecto a $C$ es ella misma, también $OP \times OP’ = OQ \times OQ’ = r^2$

Entonces $Q$ y $Q’$ son inversas, por lo tanto, $Q$ es polo de $q$. $_\blacksquare$

«Se puede decir que las polares de una hilera son las líneas de un haz y que los polos de las líneas de un haz son los puntos de una hilera.»

Definición (Puntos Conjugados)

Dados dos puntos $P$ y $Q$ con respecto a una circunferencia, tales que la polar de uno pasa por el otro, diremos que $P$ y $Q$ son puntos conjugados respecto a la circunferencia $C$.

Definición (Líneas Conjugadas)

Respecto a una circunferencia $C$, se tienen dos líneas $p$ y $q$ tales que el polo de una está en el otro, se dirá que $p$ y $q$ son rectas conjugadas respecto a la circunferencia $C$.

Se tienen las siguientes propiedades:

1.- De dos puntos conjugados distintos en una línea que interseque la circunferencia, uno está dentro y el otro fuera de la circunferencia.

Demostración

Sea $r$ la línea que contiene a $P$ y $Q$, sea $R$ el polo de $r$ por lo cual la polar de $R$ es $r$ y pasa por $P$, entonces la polar de $P$ pasa por $R$, ahora como $P$ y $Q$ son conjugados entonces la polar de $P$ pasa por $Q$, por lo cual la polar de $P$ es la línea $RQ$ !

Polos y Polares propiedad.

Por lo tanto, uno de los dos puntos conjugados está dentro y el otro afuera de la circunferencia. $_\blacksquare$

2.- Dadas dos líneas distintas conjugadas que se intersecan fuera de la circunferencia, una corta la circunferencia y la otra no.

3.- Cualquier punto en la circunferencia es conjugado a todos los puntos de la tangente en ese punto.

4.- Cualquier tangente a la circunferencia es conjugada a todas las líneas por su punto de contacto.

Más adelante…

La relación armónica está relacionada con respecto a lo hablado de polos y polares, por lo cual más adelante se hablara sobre teoremas relacionados con ambos temas.

Entradas relacionadas

Álgebra Superior I: Determinante de matrices y propiedades

Por Eduardo García Caballero

Introducción

Uno de los conceptos más importantes en el álgebra lineal es la operación conocida como determinante. Si bien este concepto se extiende a distintos objetos, en esta entrada lo revisaremos como una operación que se puede aplicar a matrices cuadradas. Como veremos, el determinante está muy conectado con otros conceptos que hemos platicado sobre matrices

Definición para matrices de $2\times 2$

A modo de introducción, comenzaremos hablando de determinantes para matrices de $2\times 2$. Aunque este caso es sencillo, podremos explorar algunas de las propiedades que tienen los determinantes, las cuales se cumplirán de manera más genera. Así, comencemos con la siguiente definición.

Definición. Para una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, definimos su determinante como
\[
\operatorname{det}(A) = ad – bc.
\]

Basándonos en esta definición, podemos calcular los determinantes
\[
\operatorname{det}
\begin{pmatrix} 9 & 3 \\ 5 & 2 \end{pmatrix}=9\cdot 2 – 3\cdot 5 = 3
\]
y
\[
\operatorname{det}
\begin{pmatrix} 4 & -3 \\ 12 & -9 \end{pmatrix}
=
4\cdot (-9)-(-3)\cdot 12= 0.
\]

Otra notación que podemos encontrar para determinantes es la notación de barras. Lo que se hace es que la matriz se encierra en barras verticales, en vez de paréntesis. Así, los determinantes anteriores también se pueden escribir como
\[
\begin{vmatrix} 9 & 3 \\ 5 & 2 \end{vmatrix} = 3
\qquad
\text{y}
\qquad
\begin{vmatrix} 4 & -3 \\ 12 & -9 \end{vmatrix} = 0.
\]

Primeras propiedades del determinante

El determinante de una matriz de $2\times 2$ ayuda a detectar cuándo una matriz es invertible. De hecho, esto es algo que vimos previamente, en la entrada de matrices invertibles. En ella, dijimos que una matriz $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si se cumple que $ad – bc \ne 0$. ¡Aquí aparece el determinante! Podemos reescribir el resultado de la siguiente manera.

Teorema. Una matriz de la forma $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible si y sólo si $\det(A) \ne 0$. Cuando el determinante es distinto de cero, la inversa es $A^{-1} = \frac{1}{\det(A)}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$.

Otra propiedad muy importante que cumple el determinante para matrices de $2\times 2$ es la de ser multiplicativo; es decir, para matrices $A$ y $B$ se cumple que $\operatorname{det}(AB) = \operatorname{det}(A) \operatorname{det}(B)$. La demostración de esto se basa directamente en las definiciones de determinante y de producto de matrices. Hagamos las cuentas a continuación para matrices $A=\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}$ y $B=\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.$

Tenemos que:
\begin{align*}
\operatorname{det}(AB)
&=
\operatorname{det}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21})(a_{21}b_{12} + a_{22}b_{22})-(a_{11}b_{12} + a_{12}b_{22})(a_{21}b_{11} + a_{22}b_{21})
\\[5pt]
&=
a_{11}a_{22}b_{11}b_{22} – a_{12}a_{21}b_{11}b_{22} – a_{11}a_{22}b_{12}b_{21} + a_{12}a_{21}b_{12}b_{21}
\\[5pt]
&=
(a_{11}a_{22} – a_{12}a_{21})(b_{11}b_{22} – b_{12}b_{21})
\\[5pt]
&=
\operatorname{det}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\operatorname{det}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{det}(A)\operatorname{det}(B).
\end{align*}

Interpretación geométrica del determinante de $2\times 2$

El determinante también tiene una interpretación geométrica muy interesante. Si tenemos una matriz de $2\times 2$, entonces podemos pensar a cada una de las columnas de esta matriz como un vector en el plano. Resulta que el determinante es igual al área del paralelogramo formado por estos vectores.

Por ejemplo, si consideramos la matriz
\[
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix},
\]
podemos ver que el vector asociado a su primera columna es el vector $(4,1)$, mientras que el vector asociado a su segunda columna es $(2,3)$:

Así, el paralelogramo $ABDC$ de la figura anterior formado por estos dos vectores tiene área igual a
\[
\operatorname{det}
\begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix}
= 4\cdot 3 – 2\cdot 1 = 10.
\]

No daremos la demostración de este hecho, pues se necesita hablar más sobre la geometría del plano. Sin embargo, las ideas necesarias para este resultado pueden consultarse en un curso de Geometría Analítica I.

Definición recursiva

También nos interesa hablar de determinantes de matrices más grandes. De hecho, nos interesa hablar del determinante de cualquier matriz cuadrada. La definición formal requiere de varios conocimientos de Álgebra Lineal I. Sin embargo, por el momento podemos platicar de cómo se obtienen los determinantes de matrices recursivamente. Con esto queremos decir que para calcular el determinante de matrices de $3\times 3$, necesitaremos calcular varios de matrices de $2\times 2$. Así mismo, para calcular el de matrices de $4\times 4$ requeriremos calcular varios de matrices de $3\times 3$ (que a su vez requieren varios de $2\times 2$).

Para explicar cómo es esta relación de poner determinantes de matrices grandes en términos de matrices más pequeñas, primeramente definiremos la función $\operatorname{sign}$, la cual asigna a cada pareja de enteros positivos $(i,j)$ el valor
\[
\operatorname{sign}(i,j) = (-1)^{i+j}.
\]
A partir de la función $\operatorname{sign}$ podemos hacer una matriz cuya entrada $a_{ij}$ es $\operatorname{sign}(i,j)$. Para visualizarla más fácilmente, podemos pensar que a la entrada $a_{11}$ (la cual se encuentra en la esquina superior izquierda) le asigna el signo “$+$”, y posteriormente va alternando los signos del resto de entradas. Por ejemplo, los signos correspondientes a las entradas de la matriz de $3 \times 3$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + \\
– & + & – \\
+ & – & +
\end{pmatrix},
\]
mientras que los signos correspondientes a las entradas de la matriz de $4 \times 4$
\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} & a_{14} \\
a_{21} & a_{22} & a_{23} & a_{24} \\
a_{31} & a_{32} & a_{33} & a_{34} \\
a_{41} & a_{42} & a_{43} & a_{44}
\end{pmatrix}
\]
serían
\[
\begin{pmatrix}
+ & – & + & – \\
– & + & – & + \\
+ & – & + & – \\
– & + & – & +
\end{pmatrix}.
\]

Ya que entendimos cómo se construyen estas matrices, el cálculo de determinantes se realiza como sigue.

Estrategia. Realizaremos el cálculo de determinante de una matriz de $n \times n$ descomponiéndola para realizar el cálculo de determinantes de matrices de $(n-1) \times (n-1)$. Eventualmente llegaremos al calcular únicamente determinantes de matrices de $2 \times 2$, para las cuales ya tenemos una fórmula. Para esto, haremos los siguientes pasos repetidamente.

  1. Seleccionaremos una fila o columna arbitraria de la matriz original (como en este paso no importa cuál fila o columna seleccionemos, buscaremos una que simplifique las operaciones que realizaremos; generalmente nos convendrá seleccionar una fila o columna que cuente en su mayoría con ceros).
  2. Para cada entrada $a_{ij}$ en la fila o columna seleccionada, calculamos el valor de
    \[
    \operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
    \]
    donde $A_{ij}$ es el la matriz que resulta de quitar la fila $i$ y la columna $j$ a la matriz original.
  3. El determinante de la matriz será la suma de todos los términos calculados en el paso anterior.

Veamos algunos ejemplos de cómo se utiliza la estrategia recién descrita.

Ejemplo con matriz de $3\times 3$

Consideremos la matriz de $3 \times 3$
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

A primera vista no hay alguna fila o columna que parezca simplificar los cálculos, por lo cual podemos proceder con cualquiera de estas; nosotros seleccionaremos la primera fila.
\[
\begin{pmatrix}
\fbox{3} & \fbox{1} & \fbox{-1} \\
6 & -1 & -2 \\
4 & -3 & -2
\end{pmatrix}.
\]

Para cada término de la primera fila, calculamos el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{i,j}),
\]
obteniendo
\begin{align*}
\operatorname{sign}(1,1) \cdot (a_{11}) \cdot \operatorname{det}(A_{11})
&= +(3)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
\blacksquare & -1 & -2 \\
\blacksquare & -3 & -2
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det} \begin{pmatrix} -1 & -2 \\ -3 & -2 \end{pmatrix}
\\[5pt]
&= +(3)[(-1)(-2) – (-2)(-3)]
\\[5pt]
&= +(3)(-4)
\\[5pt]
&= -12,
\\[10pt]
\operatorname{sign}(1,2) \cdot (a_{12}) \cdot \operatorname{det}(A_{12})
&= -(1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & \blacksquare & -2 \\
4 & \blacksquare & -2
\end{pmatrix}
\\[5pt]
&= -(1)\operatorname{det}
\begin{pmatrix} 6 & -2 \\ 4 & -2 \end{pmatrix}
\\[5pt]
&=-(1)[(6)(-2) – (-2)(4)]
\\[5pt]
&=-(1)(-4)
\\[5pt]
&=4,
\\[10pt]
\operatorname{sign}(1,3) \cdot (a_{13}) \cdot \operatorname{det}(A_{13})
&= +(-1)\operatorname{det}
\begin{pmatrix}
\blacksquare & \blacksquare & \blacksquare \\
6 & -1 & \blacksquare \\
4 & -3 & \blacksquare
\end{pmatrix}
\\[5pt]
&= +(-1)\operatorname{det} \begin{pmatrix} 6 & -1 \\ 4 & -3 \end{pmatrix}
\\[5pt]
&= +(-1)[(6)(-3) – (-1)(4)]
\\[5pt]
&= +(-1)(-14)
\\[5pt]
&= 14.
\end{align*}

Finalmente, el determinante de nuestra matriz original será la suma de los términos calculados; es decir,
\[
\begin{pmatrix}
3 & 1 & -1 \\
6 & -1 & -2 \\
4 & -3 & -1
\end{pmatrix}
=
(-12) + (4) + (14) = 6.
\]

Ejemplo con matriz de $4\times 4$

En el siguiente ejemplo veremos cómo el escoger una fila o columna en específico nos puede ayudar a simplificar mucho los cálculos.

Consideremos la matriz
\[
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}.
\]

Observemos que el valor de tres de las entradas de la segunda columna es $0$. Por esta razón, seleccionaremos esta columna para descomponer la matriz:
\[
\begin{pmatrix}
4 & \fbox{0} & 2 & 2 \\
-1 & \fbox{3} & -2 & 5 \\
-2 & \fbox{0} & 2 & -3 \\
1 & \fbox{0} & 4 & -1
\end{pmatrix}.
\]

El siguiente paso será calcular el producto
\[
\operatorname{sign}(i,j) \cdot a_{ij} \cdot \operatorname{det}(A_{ij}),
\]
para cada entrada de esta columna. Sin embargo, por la elección de columna que hicimos, podemos ver que el valor de $a_{ij}$ es 0 para tres de las entradas, y por tanto también lo es para el producto que deseamos calcular. De este modo, únicamente nos restaría calcular el producto
\begin{align*}
\operatorname{sign}(2,2) \cdot a_{22} \cdot \operatorname{det}(A_{22})
&=
+(3)\operatorname{det}
\begin{pmatrix}
4 & \blacksquare & 2 & 2 \\
\blacksquare & \blacksquare & \blacksquare & \blacksquare \\
-2 & \blacksquare & 2 & -3 \\
1 & \blacksquare & 4 & -1
\end{pmatrix}
\\[5pt]
&= +(3)\operatorname{det}
\begin{pmatrix}
4 & 2 & 2 \\
-2 & 2 & -3 \\
1 & 4 & -1
\end{pmatrix}.
\end{align*}
Se queda como ejercicio al lector concluir que el resultado de este último producto es 30.

De este modo, obtenemos que
\[
\operatorname{det}
\begin{pmatrix}
4 & 0 & 2 & 2 \\
-1 & 3 & -2 & 5 \\
-2 & 0 & 2 & -3 \\
1 & 0 & 4 & -1
\end{pmatrix}
= 0 + 30 + 0 + 0 = 30.
\]

Aunque esta definición recursiva nos permite calcular el determinante de una matriz cuadrada de cualquier tamaño, rápidamente se vuelve un método muy poco práctico (para obtener el determinante de una matriz de $6 \times 6$ tendríamos que calcular hasta 60 determinantes de matrices de $2 \times 2$). En el curso de Álgebra Lineal I se aprende otra definición de determinante a través de permutaciones, de las cuales se desprenden varios métodos más eficientes para calcular determinante. Hablaremos un poco de estos métodos en la siguiente entrada.

Las propiedades de $2\times 2$ también se valen para $n\times n$

Las propiedades que enunciamos para matrices de $2\times 2$ también se valen para determinantes de matrices más grandes. Todo lo siguiente es cierto, sin embargo, en este curso no contamos con las herramientas para demostrar todo con la formalidad apropiada:

  • El determinante es multiplicativo: Si $A$ y $B$ son matrices de $n\times n$, entonces $\operatorname{det}(AB) = \operatorname{det}(A)\operatorname{det}(B)$.
  • El determinante detecta matrices invertibles: Una matriz $A$ de $n\times n$ es invertible si y sólo si su determinante es distinto de $0$.
  • El determinante tiene que ver con un volumen: Los vectores columna de una matriz $A$ de $n\times n$ hacen un paralelepípedo $n$-dimensional cuyo volumen $n$-dimensional es justo $\det{A}$.

Más adelante…

En esta entrada conocimos el concepto de determinante de matrices, vimos cómo calcularlo para matrices de distintos tamaños y revisamos cómo se interpreta cuando consideramos las matrices como transformaciones de flechas en el plano. En la siguiente entrada enunciaremos y aprenderemos a usar algunas de las propiedades que cumplen los determinantes.

Tarea moral

  1. Calcula los determinantes de las siguientes matrices:
    • $\begin{pmatrix} 5 & 8 \\ 3 & 9 \end{pmatrix}, \begin{pmatrix} 10 & 11 \\ -1 & 9 \end{pmatrix}, \begin{pmatrix} 31 & 38 \\ 13 & -29 \end{pmatrix}$
    • $\begin{pmatrix} 1 & 5 & 2 \\ 3 & -1 & 8 \\ 0 & 2 & 5 \end{pmatrix}, \begin{pmatrix} 1 & 8 & 4 \\ 0 & 5 & -3 \\ 0 & 0 & -1 \end{pmatrix}, \begin{pmatrix} 1 & 1 & 1 \\ 2 & 2 & 2 \\ 3 & 3 & 3 \end{pmatrix}$
    • $\begin{pmatrix} 5 & 7 & -1 & 2 \\ 3 & 0 & 1 & 0 \\ 2 & -2 & 2 & -2 \\ 5 & 1 & 1 & 0 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 & 4 \\ 5 & 6 & 7 & 8 \\ 9 & 10 & 11 & 12 \\ 13 & 14 & 15 & 16 \end{pmatrix}$
  2. Demuestra que para una matriz $A$ y un entero positivo $n$ se cumple que $\det(A^n)=\det(A)^n$.
  3. Sea $A$ una matriz de $3\times 3$. Muestra que $\det(A)=\det(A^T)$.
  4. Sea $A$ una matriz invertible de $2\times 2$. Demuestra que $\det(A)=\det(A^{-1})^{-1}$.
  5. ¿Qué le sucede al determinante de una matriz $A$ cuando intercambias dos filas? Haz algunos experimentos para hacer una conjetura, y demuéstrala.

Entradas relacionadas

Álgebra Superior I: Sistemas de ecuaciones lineales

Por Eduardo García Caballero

Introducción

Una de las aplicaciones más importantes de los vectores y matrices tiene que ver con un tema que conociste desde la secundaria y preparatoria: los sistemas de ecuaciones.

Más específicamente, los vectores y matrices nos serán de gran utilidad para resolver sistemas de ecuaciones lineales, determinar cuándo un sistema sí tiene soluciones, y cuáles son todas sus soluciones.

Pero antes, repasemos un poco los conceptos de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Recordemos que una ecuación es una expresión en la que hay variables o valores que no conocemos. En el caso de una ecuación lineal, se trata de ecuaciones en las que todas sus variables se encuentran elevadas a la primera potencia y acompañadas únicamente por coeficientes constantes. Por ejemplo, podemos ver que las expresiones
\[
2x + 9y – z = 3,
\qquad
4w + 3000a = y + \tfrac{1}{2}x
\]
son ecuaciones lineales, mientras que las expresiones
\[
ax^2 + bx + c = 0,
\qquad
2xz = 9y
\]
no lo son, pues contienen al menos una variable elevada a exponentes distintos de $1$, o bien hay variables multiplicándose entre sí.

De manera más formal, una ecuación de lineal es una ecuación que se puede escribir de la forma
\[
a_1x_2 + a_2x_2 + \cdots + a_nx_n = b,
\]
donde $x_1, \ldots, x_n$ son variables y $a_1, \ldots, a_n, b$ son coeficientes, todos del mismo tipo (en este curso trabajaremos con coeficientes reales, pero en otros cursos podrás encontrar coeficientes de otros tipos, como son números enteros, racionales, y complejos, entre otros).

Por su parte, un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales. Por ejemplo, los siguientes son sistemas de ecuaciones lineales:
\[
\begin{cases}
2x -\tfrac{3}{2}y + 8z = 1 \\
9z + 2w + 5y = 3,
\end{cases}
\qquad
\begin{cases}
2 + 9a = 46b -5c \\
2d + 8x = \sqrt{3} \\
x + y + z = a + b + c \\
x = -y
\end{cases}
\]
Bajo esta definición, una única ecuación se puede considerar un sistema de ecuaciones lineales (con una ecuación).

Notemos que no es necesario que todas las ecuaciones compartan variables, sin embargo, generalmente esto sí sucederá. De hecho, podemos pensar que todas las variables aparecen en todas las ecuaciones. En caso de que esto no suceda, podemos considerar que las variables que no aparecen en una ecuación tienen coeficiente cero. Además, siempre podemos reordenar las variables en las ecuaciones para que en todas ellas aparezcan en el mimo orden. Por ejemplo, a continuación el sistema de ecuaciones a la izquierda lo podemos escribir como el de la derecha, sin alterarlo.

\[
\begin{cases}
2x -\tfrac{3}{2}z + 8y = 11 \\
9z + 2w + 5k = -3,
\end{cases}
\qquad
\begin{cases}
0k+0w+2x + 8y – \tfrac{3}{2}z = 11 \\
5k+2w+0x+0y+9z = -3.
\end{cases}
\]

¿Qué quiere decir resolver un sistema de ecuaciones lineales?

Como recordarás, encontrar una solución de una ecuación corresponde a encontrar valores que, al sustituirlos en las variables, hagan que la expresión sea verdadera. Por ejemplo, si tenemos la ecuación $2x-3y=0$, una solución está dada por $x=3$ y $y=2$, ya que al sustituir en efecto tenemos $(2)(3)-(3)(2)=0$. En ocasiones, una ecuación puede tener más de una solución. Por ejemplo, en este caso otra posible solución es $x=6$ y $y=4$, ya que al sustituir en efecto tenemos $(2)(6)-(3)(4)=0$. Para esta ecuación hemos encontrado entonces dos posibles soluciones. Pero aún no la hemos resuelto. Como veremos un poco más abajo, para resolverla tenemos que alcanzar una meta más grande.

Para el caso de sistemas de ecuaciones lineales, encontrar una solución consiste en dar una asignación de valores a las variables que hagan que todas las ecuaciones sean ciertas simultáneamente. Por ejemplo, podemos verificar que los valores
\[
x = 3 \quad y =5 \quad z = -2
\]
hacen que cada una de las ecuaciones en el sistema
\[
\begin{cases}
x + 2y – z = 15 \\
4x – y + z = 5
\end{cases}
\]
se cumplan simultáneamente. Otra posible solución está dada por la asignación
\[
x = 1 \quad y =15 \quad z = 16.
\]

Cuando hablamos de resolver una ecuación o un sistema de ecuaciones no nos bastará encontrar unas cuantas soluciones que funcionen. Queremos encontrar todas las posibles soluciones.

Como ejemplo más sencillo, tratemos de encontrar todas las soluciones del sigueinte sistema con una única ecuación
\[
\begin{cases}
2x + 3y – z = 5.
\end{cases}
\]

Si despejamos $x$ en la ecuación, obtenemos
\[
x = \frac{-3y+z+5}{2}.
\]
Esto nos indica que podemos escoger valores arbitrarios de $y$ y $z$, y el valor de $x$ quedará determinado por estos valores.

Entonces, la solución de la ecuación son todas las $(x,y,z)$ tales que $x = \frac{-3y+z+5}{2}$; es decir, todas las soluciones del sistema de ecuaciones son de la forma
\[
\left( \frac{-3y+z+5}{2}, y, z \right).
\]

Otra manera de decir esto es que el conjunto de soluciones para el sistema de ecuaciones es el siguiente:

$$S:=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}.$$

Esto ahora sí resuelve el sistema, pues hemos encontrado una descripción para todas las posibles soluciones del sistema. Si tomas los valores que quieras para $y$ y $z$, podrás dar una solución. Por ejemplo, al tomar $y=1,z=2$ obtenemos la solución $(2,1,2)$, la cual puedes verificar que es una solución al sistema de ecuaciones de una ecuación con el que comenzamos. Toda posible solución está en $S$. Como $y$ y $z$ pueden valer lo que sea, las llamamos variables libres. A $x$, que queda totalmente determinada una vez fijas las variables libres, la llamamos variable pivote.

¿Qué sucede si tenemos más ecuaciones? Tratemos de encontrar todas las soluciones para el sistema de ecuaciones siguiente
\[
\begin{cases}
y+z =1 \\
3x+2y+5z&=1.
\end{cases}
\]

Podemos intentar lo mismo que arriba y fijar algún valor e intentar poner al resto en términos de ese. Pero hay que ser cuidadosos. Por ejemplo, al fijar el valor de $x$, no podremos despejar a $y$ (ni a $z$) en términos únicamente de $x$. Sin embargo, fijamos el valor de $z$, sí podemos determinar todo completamente.

Al fijar $z$, entonces $y$ queda determinado como $y = -z + 1$. Sustituyendo este valor de $y$ en la segunda ecuación, obtendremos $3x + 2(-z+1) + 5z = 1$, que equivale a $3x +3z = -1$, de donde tenemos que $x = -z -1/3 $. Entonces, podemos pensar a $z$ como la variable libre y como $y$ y $x$ dependen completamente de $z$, las pensamos como variables pivote. La descripción de las soluciones quedaría entonces como

$$R=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}.$$

Aunque ahora hemos tenido éxito con describir totalmente las soluciones de dos sistemas de ecuaciones y en ambos casos hemos tenido una infinidad de soluciones, lo cierto es que existen sistemas de ecuaciones sin solución. Por ejemplo, consideremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
4x + 3y = 8.
\end{cases}
\]
Podemos ver que cada una de las ecuaciones, de manera individual, tienen soluciones, y hasta podríamos encontrar todas las posibles soluciones (¿puedes dar un par de ejemplos de cada una?). Sin embargo, no existen valores de $x$ y $y$ que resuelvan ambas ecuaciones al mismo tiempo. Esto lo podemos observar porque, si multiplicamos la segunda ecuación por $3$, obtendremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
12x + 9y = 24.
\end{cases}
\]
Si hubiera alguna solución, podríamos igualar ambas ecuaciones y llegar a que $7=24$, una contradicción.

Interpretación geométrica

El primer conjunto solución que encontramos arriba se puede reescribir en términos de cada variable $y$ y $z$ usando la suma y producto escalar que estudiamos en entradas anteriores de la siguiente manera:

\begin{align*}
S&=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}\\
&=\left\{y(-3/2,1,0) + z(1/2,0,1) + (5/2,0,0):y,z\in \mathbb{R}\right\}.
\end{align*}

Posiblemente hayas visto expresiones en algún curso de geometría analítica. Lo anterior es un plano en $\mathbb{R}^3$ que pasa por el punto $(5/2,0,0)$ y generado a partir de ese punto por los vectores $(-3/2,1,0)$ y $(1/2,0,1)$.

Del mismo modo, en el segundo ejemplo que vimos arriba el sistema de ecuaciones puede reescribirse como:

\begin{align*}
R&=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}\\
&=\{(-1/3,1,0)+z(-1,-1,1):z\in \mathbb{R}\},
\end{align*}

que posiblemente identifiques como la recta en $\mathbb{R}^3$ que parte del punto $(-1/3,1,0)$ y tiene dirección $(-1,-1,1)$.

Forma matricial de un sistema de ecuaciones

Como vimos en una entrada previa, dos vectores del mismo tamaño son iguales si y sólo si sus respectivas entradas son iguales. Una consecuencia de esta definición es que el sistema de ecuaciones
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se cumple si y sólo si
\[
\begin{pmatrix}
a_{11}x_1 + a_{12}x_2 + \cdots a_{1n}x_n \\
a_{21}x_1 + a_{22}x_2 + \cdots a_{2n}x_n \\
\vdots \\
a_{m1}x_1 + a_{m2}x_2 + \cdots a_{mn}x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Más aún, observemos que el lado izquierdo de esta igualdad lo podemos reescribir como un producto de matriz con vector de la siguiente manera
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix},
\]
lo cual podemos denotar como
\[
Ax = b.
\]

Entonces, podemos decir que nuestro sistema tiene solución si existe un vector $x = \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}$ tal que $Ax = b$, donde
\[
A
=
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\quad
\text{y}
\quad
b
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

A la expresión $Ax=b$ le llamamos la forma matricial del sistema de ecuaciones.

Ejemplo de la utilidad de la forma matricial

La forma matricial de un sistema de ecuaciones es sumamente útil, como veremos en las siguientes entradas. Pero veamos un pequeño ejemplo de una de sus aplicaciones. Supongamos que sabemos que la matriz $A$ es invertible con inversa $A^{-1}$. Recordemos que entonces se cumple que$A^{-1}A = \mathcal{I}$. Gracias a esto, podemos comenzar con la forma matricial del sistema de ecuaciones y deducir lo siguiente:
\begin{align*}
&Ax = b \\
\Rightarrow & A^{-1}Ax = A^{-1}b \\
\Rightarrow &x = A^{-1}b.
\end{align*}

Es decir, si conocemos la matriz inversa de $A$, ¡podemos obtener de manera única el vector que resuelve el sistema de ecuaciones mediante una multiplicación de matriz por vector!

Aún cuando no hemos visto el método general para saber si una matriz tiene inversa, ya vimos previamente qué sucede con una matriz de $2\times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]

Así, verifiquemos mediante un ejemplo que el método que mostramos sirve para encontrar soluciones de sistemas de ecuaciones. Consideremos el sistema de ecuaciones
\[
\begin{cases}
2x + 8y &= 9 \\
-3x + 4y &= 2.
\end{cases}
\]

Este sistema puede ser representado en forma matricial como
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix}.
\]

Como recordarás de entradas pasadas, la matriz inversa de $\begin{pmatrix} 2 & 8 \\ -3 & 4 \end{pmatrix}$ es
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}^{-1}
=
\frac{1}{2\cdot4 – 8\cdot(-3)}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\frac{1}{32}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}.
\]

Entonces si multiplicamos esta por matriz por la izquierda a ambos lados de la ecuación
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix},
\]
obtendremos
\begin{align*}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
5/8 \\
31/32
\end{pmatrix},
\end{align*}
lo que equivale a $x = 5/8$, $y = 31/32$; la solución del sistema. ¡Verifica que es solución!

Más adelante…

En esta entrada repasamos los conceptos y definiciones sobre sistemas de ecuaciones lineales, y nos adentramos a ver cómo existe una relación directa entre los sistemas de ecuaciones lineales y el producto de una matriz por un vector, así como que las matrices invertibles guardan relación con la solución del sistema.

Que la matriz asociada a un sistema de ecuaciones sea invertible en realidad no pasa tanto, y se tienen que desarrollar métodos más generales para resolver sistemas de ecuaciones. En la siguiente entrada conoceremos un algoritmo que nos permitirá resolver sistemas de ecuaciones con una cantidad arbitraria de variables y ecuaciones, y determinar exactamente cómo se ven todas las soluciones.

Tarea moral

  1. Usa el método de las variables libres y las variables pivote para describir al conjunto solución del siguiente sistema de ecuaciones y descríbelo geométricamente. Tendrás que elegir apropiadamente el orden en el que vas fijando las variables.
    \begin{cases}
    w+2x + 8y + 3z&= 0 \\
    -3x + 4y + z&= -1\\
    x+z&=2.\\
    \end{cases}
  2. Usa el método de la inversa para resolver los siguientes tres sistemas de ecuaciones:
    \[
    \begin{cases}
    2x + 8y &= 4 \\
    -3x + 4y &= 1,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 3 \\
    -3x + 4y &= -2,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 1 \\
    -3x + 4y &= -1.
    \end{cases}
    \]
  3. Intenta usar el método de las variables libres y pivote en el siguiente sistema de ecuaciones y explica qué dificultad tiene intentar usarlo directamente:
    \[
    \begin{cases}
    x + y &= 4 \\
    y+z &= 1\\
    z+x&=2.
    \end{cases}
    \]
    ¿Cómo describirías a un sistema de ecuaciones en el cuál se puede hacer el método de variables libres y pivote cómodamente?
  4. Considera un sistema de ecuaciones en forma matricial $Ax=b$. Demuestra que si $x$ y $x’$ son soluciones a este sistema, entonces $\frac{x+x’}{2}$ también lo es. Explica cómo puedes usar esto para a partir de dos soluciones $x$ y $x’$ distintas conseguir una infinidad de soluciones. Concluye que cualquier sistema de ecuaciones lineales o bien no tiene solución, o bien tiene una única solución, o bien tiene una infinidad de soluciones.
  5. Encuentra una matriz no invertible $A$ y un vector $b$ tales que el sistema de ecuaciones $Ax=b$ sí tenga solución. En ese sistema que diste, ¿la solución es única o puedes encontrar otra?

Entradas relacionadas

Álgebra Superior I: Transposición de matrices, matrices simétricas y antisimétricas

Por Eduardo García Caballero

Introducción

Hasta ahora hemos conocido operaciones involucran a dos objetos a la vez, entre los que pueden estar escalares, vectores, o matrices. En esta entrada, exploraremos una operación que se aplica a una matriz a la vez: la transposición de matrices. Esta operación preserva el contenido de la matriz, pero modifica sus dimensiones y el orden de sus entradas de una manera particular. Además, exploraremos algunas matrices que cumplen propiedades especiales bajo esta operación.

Definición de transposición de matrices

Una forma intuitiva de comprender en concepto de transposición de una matriz es como aquella operación que refleja a una matriz por su diagonal. Por ejemplo, consideremos la matriz
\[
A=
\begin{pmatrix}
\fbox{7} & \sqrt{2} \\
-\tfrac{1}{2} & \fbox{3}
\end{pmatrix}
\]
en la cual hemos destacado los elementos de su diagonal. Su matriz transpuesta, la cual denotaremos como $A^T$, será
\[
A^T =
\begin{pmatrix}
\fbox{7} & -\tfrac{1}{2} \\
\sqrt{2} & \fbox{3}
\end{pmatrix}.
\]

En el caso de una matriz que no sea cuadrada, la transposición también intercambia el número de filas y el de columnas. Por ejemplo,
\[
B=
\begin{pmatrix}
\fbox{3} & 4 & \pi \\
0 & \fbox{-1} & 6
\end{pmatrix}
\]
es una matriz de $2 \times 3$, mientras que su matriz transpuesta
\[
B^T=
\begin{pmatrix}
\fbox{3} & 0 \\
4 & \fbox{-1} \\
\pi & 6
\end{pmatrix}
\]
es de tamaño $3 \times 2$.

Para dar una definición formal de la propiedad de transposición, consideremos a la matriz $A$ de tamaño $m \times n$. Diremos que la matriz traspuesta de $A$ es la matriz $A^T$ de tamaño $n \times m$, donde la entrada de $A^T$ en la posición $(i,j)$ es
\[
(A^T)_{ij} = a_{ji},
\]
para todo $1 \le i \le n$ y $1 \le j \le m$.

Por ejemplo, para el caso de
\[
C =
\begin{pmatrix}
\fbox{$c_{11}$} & c_{12} \\
c_{21} & \fbox{$c_{22}$} \\
c_{31} & c_{32}
\end{pmatrix},
\]
su matriz traspuesta es
\[
C^T =
\begin{pmatrix}
(C^T)_{11} & (C^T)_{12} & (C^T)_{13} \\
(C^T)_{21} & (C^T)_{22} & (C^T)_{23} \\
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$c_{11}$} & c_{21} & c_{31} \\
c_{12} & \fbox{$c_{22}$} & c_{32}
\end{pmatrix},
\]
mientras que la matriz transpuesta de
\[
D =
\begin{pmatrix}
\fbox{$d_{11}$} & d_{12} & d_{13} \\
d_{21} & \fbox{$d_{22}$} & d_{23} \\
d_{31} & d_{32} & \fbox{$d_{33}$}
\end{pmatrix}
\]
es
\[
D^T =
\begin{pmatrix}
(D^T)_{11} & (D^T)_{12} & (D^T)_{13} \\
(D^T)_{21} & (D^T)_{22} & (D^T)_{23} \\
(D^T)_{31} & (D^T)_{32} & (D^T)_{33}
\end{pmatrix}
=
\begin{pmatrix}
\fbox{$d_{11}$} & d_{21} & d_{31} \\
d_{12} & \fbox{$d_{22}$} & d_{32} \\
d_{13} & d_{23} & \fbox{$d_{33}$}
\end{pmatrix}.
\]

Como puedes observar, empleando la definición de matriz traspuesta, se sigue cumpliendo que la transposición se puede ver como la operación de reflejar una matriz con respecto a su diagonal.

Propiedades de transposición de matrices

A continuación, demostraremos algunas propiedades que cumplen las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\]
(Las demostraciones para cualesquiera otros tamaños de matrices se desarrollan de manera análoga).

Veamos qué sucede al realizar dos veces seguidas la trasposición de $A$. Observamos que
\[
A^T =
\begin{pmatrix}
(A^T)_{11} & (A^T)_{12} & (A^T)_{13} \\
(A^T)_{11} & (A^T)_{22} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix},
\]
y, entonces,
\[
(A^T)^T
=
\begin{pmatrix}
((A^T)^T)_{11} & ((A^T)^T)_{12} \\
((A^T)^T)_{21} & ((A^T)^T)_{22} \\
((A^T)^T)_{31} & ((A^T)^T)_{32}
\end{pmatrix}
=
\begin{pmatrix}
(A^T)_{11} & (A^T)_{21} \\
(A^T)_{12} & (A^T)_{22} \\
(A^T)_{13} & (A^T)_{23}
\end{pmatrix}
=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
=
A.
\]

En general, al transponer dos veces seguidas una matriz obtendremos como resultado la matriz original: $(A^T)^T = A$.

Por otra parte, observemos que
\[
AB
=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22} \\
a_{31}b_{11} + a_{32}b_{21} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix},
\]
de modo que
\[
(AB)^T =
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\]
Por su parte, veamos que
\begin{align*}
B^T A^T
&=
\begin{pmatrix}
b_{11} & b_{21} \\
b_{12} & b_{22}
\end{pmatrix}
\begin{pmatrix}
a_{11} & a_{21} & a_{31} \\
a_{12} & a_{22} & a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
b_{11}a_{11} + b_{21}a_{12} & b_{11}a_{21} + b_{21}a_{22} & b_{11}a_{31} + b_{21}a_{32} \\
b_{12}a_{11} + b_{22}a_{12} & b_{12}a_{21} + b_{22}a_{22} & b_{12}a_{31} + b_{22}a_{32}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{21}b_{11} + a_{22}b_{21} & a_{31}b_{11} + a_{32}b_{21} \\
a_{11}b_{12} + a_{12}b_{22} & a_{21}b_{12} + a_{22}b_{22} & a_{31}b_{12} + a_{32}b_{22}
\end{pmatrix}.
\end{align*}
Por lo tanto,
\[
(AB)^T = B^T A^T.
\]

Finalmente, supongamos que $C = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ es invertible. Entonces se cumple que $ad – bc \ne 0$, y $C$ tiene como inversa a
\[
C^{-1} =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-b}{ad – bc} \\
\tfrac{-c}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix},
\]
Por lo tanto,
\[
(C^{-1})^T =
\begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\]

Por su parte, observemos que $C^T = \begin{pmatrix} a & c \\ b & d \end{pmatrix}$ cumple que $ad – cb = ad – bc \ne 0$, con lo cual garantizamos que es también invertible —la transpuesta de una matriz invertible es también invertible—. Más aún, veamos que
\begin{align*}
(C^T)^{-1}&= \frac{1}{ad-bc} \begin{pmatrix} d & -c \\ -b & a \end{pmatrix} \\[5pt]
&= \begin{pmatrix}
\tfrac{d}{ad – bc} & \tfrac{-c}{ad – bc} \\
\tfrac{-b}{ad – bc} & \tfrac{a}{ad – bc}
\end{pmatrix}.
\end{align*}
Por lo tanto, $(C^{-1})^T = (C^T)^{-1}$ —la inversa de una matriz traspuesta corresponde a la traspuesta de la inversa de la orginal—.

Matrices simétricas y antisimétricas

Ahora que conocemos la definición de matriz transpuesta y algunas de sus propiedades, observemos que existen matrices que se comportan de manera especial bajo esta operación.

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix},
\]
entonces,
\[
A^T=
\begin{pmatrix}
4 & 9 & 0 \\
9 & \frac{1}{2} & -1 \\
0 & -1 & \sqrt{2}
\end{pmatrix}
= A.
\]

A una matriz $A$ que cumple que $A^T = A$ se le denomina matriz simétrica. Otros ejemplos de matrices simétricas son
\[
\begin{pmatrix}
4 & 0 \\
0 & -5
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
-8 & 1 & 2 \\
1 & 0 & 3 \\
2 & 3 & -\pi
\end{pmatrix}.
\]
Una observación importante es que las matrices simétricas únicamente pueden ser cuadradas.

Por otra parte, veamos que la matriz
\[
B=
\begin{pmatrix}
0 & 5 & 5 \\
-5 & 0 & 5 \\
-5 & -5 & 0
\end{pmatrix}
\]
tiene como transpuesta a
\[
B^T =
\begin{pmatrix}
0 & -5 & -5 \\
5 & 0 & -5 \\
5 & 5 & 0
\end{pmatrix}
=
-B.
\]

A una matriz $A$ que cumple que $A^T = -A$ se le denomina matriz antisimétrica. Otros ejemplos de matrices antisimétricas son
\[
\begin{pmatrix}
0 & -2 \\
2 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 1 & -2 \\
-1 & 0 & 3 \\
2 & -3 & 0
\end{pmatrix}.
\]
Al igual que sucede con las matrices simétricas, las matrices antisimétricas sólo pueden ser cuadradas.

Otra propiedad importante de las matrices antisimétricas es que todos los elementos de su diagonal tienen valor 0. ¿Puedes probar por qué sucede esto?

Más adelante…

Con las operaciones entre vectores y matrices que hemos visto hasta ahora podemos obtener varios resultados aplicables a distintas áreas de las matemáticas. En la siguiente entrada abordaremos un tema que, a primera vista, parece no relacionarse mucho con los conceptos que hemos aprendido hasta ahora, pero que, en realidad, resulta ser uno de los temas con mayor aplicación de los conceptos de vectores y matrices: los sistemas de ecuaciones lineales.

Tarea moral

  1. Sea $A$ una matriz de $2\times 2$ con entradas reales. Muestra $AA^T$ siempre es una matriz simétrica y que las entradas en la diagonal de $AA^T$ siempre son números mayores o iguales a cero.
  2. Prueba que los elementos de la diagonal de una matriz antisimétrica tienen valor 0.
  3. Muestra que si una matriz es simétrica e invertible, entonces su inversa también es simétrica. ¿Es cierto lo mismo para las antisimétricas?
  4. ¿Existe alguna matriz que sea al mismo tiempo simétrica y antisimétrica?
  5. Prueba que cualquier matriz $A$ se puede escribir como $A = B+C$, con $B$ simétrica y $C$ antisimétrica.

Entradas relacionadas

Álgebra Superior I: Matrices invertibles

Por Eduardo García Caballero

Introducción

En la entrada anterior definimos el producto de matrices con matrices y exploramos algunas de sus propiedades, siendo varias de estas familiares: el producto de matrices es asociativo, conmutativo y tiene elemento neutro. En esta entrada exploraremos una pregunta que quedó abierta: ¿el producto de matrices cumple con tener inversos?

Definición de matrices invertibles

Diremos que una matriz cuadrada $A$ es invertible si y sólo si tiene inverso multiplicativo; es decir, si existe una matriz $B$ tal que $AB = BA = \mathcal{I}$.

Observemos para que la definción anterior tenga sentido, es indispensable que $A$ sea cuadrada, pues veamos que si $A$ es de tamaño $m \times n$, entonces para que los productos $AB$ y $BA$ estén definidos, $B$ tendrá que ser de tamaño $n \times m$. Así, $AB$ será de tamaño $m\times n$ y $BA$ de tamaño $n\times n$, y como $AB = BA$, entonces $m = n$, y, por tanto, $AB = BA = \mathcal{I}_n$ (y con ello también observamos que $B$ tiene que ser cuadrada de tamaño $n \times n$).

Un ejemplo de una matriz de $2 \times 2$ que es invertible es
\[
A
=
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}
\]
que tiene como inversa a la matriz
\[
B
=
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix},
\]
pues
\begin{align*}
AB
&=
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix}\\
&=
\begin{pmatrix}
(1)(-5) + (-2)(-3) & (1)(-2) + (-2)(-1) \\
(-3)(-5) + (5)(-3) & (-3)(-2) + (5)(-1)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2
\end{align*}
y
\begin{align*}
BA
&=
\begin{pmatrix}
-5 & -2 \\
-3 & -1
\end{pmatrix}
\begin{pmatrix}
1 & -2 \\
-3 & 5
\end{pmatrix}\\
&=
\begin{pmatrix}
(-5)(1) + (-2)(-3) & (-5)(-2) + (-2)(5) \\
(-3)(1) + (-1)(-3) & (-3)(-2) + (-1)(5)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2.
\end{align*}
Por lo tanto,
\[
AB = BA = \mathcal{I}_2.
\]

Algo que seguramente te preguntarás es si cualquier matriz cuadrada tiene un inverso multiplicativo. A diferencia de otros tipos de operaciones con inversos, el producto de matrices no siempre cumple con tenerlos: un ejemplo de esto es la matriz
\[
A=
\begin{pmatrix}
2 & 1 \\
0 & 0
\end{pmatrix}
\]
la cual, al multiplicarla por cualquier matriz
\[
B
=
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]
por la derecha, nos da como resultado
\[
AB
=
\begin{pmatrix}
2 & 1 \\
0 & 0
\end{pmatrix}
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
=
\begin{pmatrix}
2a + c & 2b + ,d \\
0 & 0
\end{pmatrix},
\]
y como en cualquier caso obtenemos que su entrada en la posición $(2,2)$ es $0$, tenemos que $AB$ es distinta a $\mathcal{I}_2$, pues la entrada en la posición $(2,2)$ de esta última es $1$.

Propiedades de matrices invertibles

A continuación exploraremos algunas de las propiedades que cumplen las matrices invertibles.

Primeramente, veamos que si una matriz $A$ de $n \times n$ es invertible, entonces su inversa será única. Para demostrar esto, supongamos que $B$ y $C$ son ambas inversas multiplicativas de $A$; es decir, $AB = BA = \mathcal{I}_n$ y $AC = CA = \mathcal{I}_n$. Entonces,
\begin{align*}
AB &= AC \\[5pt]
B(AB) &= B(AC) \\[5pt]
(BA)B &= (BA)C \\[5pt]
\mathcal{I}_n B &= \mathcal{I}_n C \\[5pt]
B &= C.
\end{align*}

Como la matriz inversa de $A$ es única, usualmente la denotamos como $A^{-1}$.

Por otra parte, veamos que si $A$ y $B$ son matrices invertibles, con inversas $A^{-1}$ y $B^{-1}$, respectivamente, entonces, si podemos multiplicar $A$ y $B$ (es decir, si $A$ y $B$ son del mismo tamaño), entonces $AB$ es invertible, pues se cumple que
\[
(AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = A\mathcal{I}_nA^{-1} = AA^{-1} = \mathcal{I}_n,
\]
y también que
\[
(B^{-1}A^{-1})(AB) = B^{-1}(A^{-1}A)B = B^{-1}\mathcal{I}_nB = B^{-1}B = \mathcal{I}_n,
\]
es decir, $B^{-1}A^{-1}$ es la matriz inversa de $AB$, lo cual denotamos como $(AB)^{-1} = B^{-1}A^{-1}$.

Finalmente, recordando la interpretación geométrica que dimos a la multiplicación de matrices por vectores, y la propiedad de que $A(Bu) = (AB)u$, entonces notamos que
\[
A^{-1}(Au) = (A^{-1}A)u = \mathcal{I}u = u.
\]

Como la transformación correspondiente a $A$ envía el vector $u$ al vector $Au$, y como el resultado de aplicar $(A^{-1}A)u$ deja al vector $u$ en su lugar, esto nos dice que la transformación correspondiente a $A^{-1}$ es aquella que regresa el vector $Au$ a su posición original.

En la siguiente imagen se visualiza esta propiedad para el caso en el que
\[
A
=
\begin{pmatrix}
3 & 1 \\
4 & 2
\end{pmatrix}
\qquad
\text{y}
\qquad
u
=
\begin{pmatrix}
1 \\
2
\end{pmatrix}.
\]

Formula para inversa de matrices de $2 \times 2$

Más arriba vimos que hay matrices que sí tienen inversa, mientras que otras no tienen. Para el caso de matrices de $2 \times 2$, tendremos que
\[
A
=
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]
es invertible si y sólo si se cumple que $ad-bc \ne 0$.

En dado caso, la inversa de $A$ será la matriz
\[
A^{-1}
=
\frac{1}{ad-bc}
\begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}
=
\begin{pmatrix}
\frac{d}{ad-bc} & \frac{-b}{ad-bc} \\
\frac{-c}{ad-bc} & \frac{a}{ad-bc}
\end{pmatrix}.
\]

Por ejemplo, veamos que si
\[
A =
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
=
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix},
\]
entonces $ad – bc = (1)(3) – (2)(-2) = 3 – (-4) = 7 \ne 0$, por lo que podemos garantizar que $A$ tiene matriz inversa, la cual es
\[
A^{-1}
=
\frac{1}{ad-bc}
\begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}
=
\frac{1}{7}
\begin{pmatrix}
3 & -2 \\
2 & 1
\end{pmatrix}
=
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}.
\]

Verificamos que
\begin{align*}
AA^{-1}
&=
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix}
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}\\
&=
\begin{pmatrix}
(1)(3/7) + (2)(2/7) & (1)(-2/7) + (2)(1/7) \\
(-2)(3/7) + (3)(2/7) & (-2)(-2/7) + (3)(1/7)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2
\end{align*}
y
\begin{align*}
A^{-1}A
&=
\begin{pmatrix}
3/7 & -2/7 \\
2/7 & 1/7
\end{pmatrix}
\begin{pmatrix}
1 & 2 \\
-2 & 3
\end{pmatrix}\\
&=
\begin{pmatrix}
(3/7)(1) + (-2/7)(-2) & (3/7)(2) + (-2/7)(3) \\
(2/7)(1) + (1/7)(-2) & (2/7)(2) + (1/7)(3)
\end{pmatrix}\\
&=
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}\\
&=
\mathcal{I}_2.
\end{align*}

De manera similar, veamos que la matriz
\[
\begin{pmatrix}
3 & 4 \\
1 & 2
\end{pmatrix}
\]
es invertible pues $(3)(2) – (4)(1) = 2 \ne 0$. ¿Puedes calcular su inversa?

Por el contrario, veamos que en la matriz
\[
\begin{pmatrix}
6 & 4 \\
3 & 2
\end{pmatrix}
\]
tenemos que $(6)(2) – (4)(3) = 12 -12 = 0$, y, por tanto, no es invertible.

Para el caso de matrices de mayor tamaño, también existen condiciones y fórmulas para calcular sus inversas, sin embargo, estas no resultan tan sencillas. Será necesario que comprendamos más propiedades de las matrices para poder obtenerlas.

Más adelante…

En esta entrada conocimos una propiedad más que cumplen las matrices respecto a su producto, que es la de tener inverso multiplicativas; también vimos las condiciones bajo las cuales una matriz de $2 \times 2$ puede tener inverso, y revisamos su fórmula.

En la siguiente entrada, conoceremos una nueva operación, la cual se distinguirá de todas las que hemos visto hasta ahora, pues esta operación involucra a una única matriz a la vez.

Tarea moral

  1. ¿Para qué valores de $a$ se cumple que
    \[
    \begin{pmatrix}
    5 & a \\
    2 & 2-a
    \end{pmatrix}
    \]
    es invertible?
  2. Muestra que si $A$, $B$ y $C$ son matrices invertibles del mismo tamaño, entonces
    \[
    (ABC)^{-1} = C^{-1}B^{-1}A^{-1}.
    \]
  3. Muestra que si $A$ es una matriz invertible y $k$ es un entero positivo, entonces $A^k$ también es invertible y $(A^k)^{-1}=(A^{-1})^k$.
  4. ¿Por qué la matriz
    \[
    \begin{pmatrix}
    3 & 4 & 0 \\
    7 & 2 & 0 \\
    0 & 0 & 0
    \end{pmatrix}
    \]
    no es invertible?
  5. Muestra que en efecto el criterio que dimos para que una matriz $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tenga inversa es suficiente y necesario. Para la parte de que es suficiente, tendrás que ver que si $ad-bc\neq 0$, la matriz propuesta en la entrada siempre funciona como inversa. Para ver que es necesario, supón que $ad-bc=0$. En este caso, $ad=bc$ y podrás encontrar a partir de $a,b,c,d$ a dos vectores distintos $u$ y $v$ tales que $Au=Av$. Esto mostrará que la transformación asociada a $A$ no es inyectiva y por tanto no podrá tener inversa, así que $A$ tampoco tendrá inversa.

Entradas relacionadas