Archivo de la etiqueta: matrices

1.10. BASE DE ESPACIOS VECTORIALES: obtención a partir de un conjunto linealmente independiente o generador

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

De cualquier subconjunto finito de nuestro espacio, podemos obtener un generador o un l.i. y cuando lo obtengamos, bastará con centrarnos en la cardinalidad para reducir, o bien, completar, y obtener una base.

Teorema: Sea $V$ un $K$ – espacio vectorial de dimensión finita.
a) Todo conjunto generador finito se puede reducir a una base.
b) Todo conjunto linealmente independiente se puede completar a una base.

Demostración:

a) En la demostración de la proposición que se encuentra en la entrada anterior tomamos un conjunto generador finito $S$ de un espacio vectorial arbitrario y recursivamente tomamos subconjuntos propios de $S$ hasta que uno de esos subconjuntos fuera base. Usando el mismo método, reducimos cualquier conjunto generador de $V$ para obtener una base.

b) Sea $S\subseteq V$ un conjunto l.i.
Ya sabemos que $S$ es finito por ser un subconjunto l.i. de $V$ de dimensión finita (observación en la entrada anterior).

Caso 1. Si $\langle S \rangle = V$, entonces $S$ es base de $V$ por definición.

Caso 2. Si $\langle S \rangle \subsetneq V$, entonces existe $v_1\in V$ tal que $v_1\notin \langle S \rangle$. Por lo tanto, $\langle S \rangle \cup \{ v_1 \}$ es l.i.

Subaso 1. Si $\langle \langle S \rangle \cup \{ v_1 \} \rangle = V$, entonces $S$ es base de $V$ por deifinición.

Subcaso 2. Si $\langle \langle S \rangle \cup \{ v_1 \} \rangle \subseteq V$, entonces existe $v_2\in V$ tal que $v_2\notin \langle \langle S \rangle \cup \{ v_1 \} \rangle$ Por lo tanto, $\langle \langle S \rangle \cup \{ v_1 \} \cup \{ v_2 \} \rangle$ es l.i.

Este proceso no es infinito porque los suconjuntos l.i de $V$ deben ser finitos.

Sea $m$ el número de elementos de $V$ que tuvimos que «aumentar» a $\langle S \rangle$ en los subcasos del caso 2, entonces $\langle \langle S \rangle \cup \{ v_1 \} \cup \{ v_2 \} \cup … \{ v_m \} \rangle$ es base de $V$.

Corolario: Sea $V$ un $K$ – espacio vectorial tal que $dim_K(V)=n$.
a) Cualquier conjunto generador con $n$ elementos es una base de $V$.
b) Cualquier conjunto linealmente independiente con $n$ elementos es una base de $V$.

Demostración: Por definición de base tenemos que toda base $B$ de $V$ cumple que $|B|=dim_K(V)=n$. Es decir, toda base de $V$ tiene $n$ elementos.

a) Sea $S\subseteq V$ generador con $n$ elementos.
Por el teorema anterior podemos reducir $S$ a una base.
Pero reducir $S$ a un conjunto de $n$ elementos implica que se conserva íntegro.
Por lo tanto $S$ es base.

b) Sea $S\subseteq V$ linealmente independiente.
Por el teorema anterior podemos completarlo a una base.
Pero completar $S$ a un conjunto de $n$ elementos implica que se conserva íntegro.
Por lo tanto $S$ es base.

Ejemplo

Sea $K=\mathbb{R}, V=\mathcal{M}_{2\times 2}(\mathbb{R})$.
Sea $W=\left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right\rangle$

Por construcción, $W$ es el subespacio generado por $X=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$
Encontremos un subconjunto de $X$ que sea base de $W$.

Observemos que $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}-\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $X$ es l.d. y como $\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}$, entonces $W=\langle X\rangle = \left\langle \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\rangle$

Veamos que $B=\left\{\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}-\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}\right\}$ es l.i.

Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix}+\lambda_2\begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

De donde $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\lambda_1, \lambda_1+\lambda_2, \lambda_3, \lambda_2+\lambda_3=0$.
Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0$.

Como $\langle B\rangle=W$ y $B$ es l.i., entonces $B$ es base y obtenemos que $dim_\mathbb{R}W=|B|=3$

Teorema: Sean $V$ un $K$ – espacio vectorial de dimensión finita y $W$ un subespacio de $V$. Entonces se cumple lo siguiente:

a) $W$ es de dimensión finita
b) Toda base de $W$ se puede completar a una base de $V$
c) $dim_KW\leq dim_KV$
d) Si $dim_KW=dim_KV$, entonces $W=V$

Demostración: Analicemos cada inciso por separado:

a) Sup. por reducción al absurdo que $W$ no es de dimensión finita.
Entonces existe $B$ base de $W$ de cardinalidad infinita.
Así, $B$ es un subconjunto de $V$ que es l.i.
Por el teorema anterior tenemos que podemos completar a $B$ para obtener una base de $V$, lo cual es una contradicción, pues existiría un abse de $V$ de cardinalidad infinita (pero por hipótesis, $V$ es de cardinalidad finita).
Por lo tanto, $W$ es de dimensión finita.

b) Sea $B$ una base de $W$.
Entonces $B$ es un subconjunto l.i. en $V$ y por el teorema anterior podemos completar $B$ a una base de $V$.

c) Sea $B$ una base de $W$.
Por el inciso anterior tenemos que podemos completar $B$ para obtener una base de $V$, es decir, $B\cup A$ es base de $V$ con $A\subseteq V$
Si $B\cup A=B$, entonces $dim_KW=|B|=dim_KV$.
Si $B\cup A\not= B$, $dim_KW=|B|\lneq|B\cup A|=dim_KV$
Por lo tanto, $dim_KW\leq\dim_KV$

d) Sup. $dim_KW=\dim_KV=n$
Sea $B$ una base de $W$.
Entonces $B$ es un l.i. en $V$ con $n$ elementos.
Por el corolario anterior tenemos que $B$ es base de $V$.
De donde $B$ es base de $V$.
Y así, $W=\langle B\rangle =V$.
Por lo tanto, $W=V$

Tarea Moral

Más adelante…

Veremos un nuevo concepto: Suma y suma directa de subespacios vectoriales.
¿Qué es? ¿Qué estructura tiene? ¿Dónde vive? ¿Qué relación tiene la suma de dos subespacios con sus uniones?

Entradas relacionadas

Álgebra Superior I: El espacio vectorial $\mathbb{R}^n$

Por Eduardo García Caballero

Introducción

En la entrada anterior introdujimos conceptos relacionados a los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$. Hablamos de vectores, combinaciones lineales, espacio generado, independencia lineal y bases. Ahora haremos lo análogo en dimensiones más altas, para lo cual hablaremos de $\mathbb{R}^n$.

La idea es sencilla, queremos extender lo que ya hicimos para vectores con $5$ o $100$ entradas. Sin embargo, visualizar estos espacios y entender su geometría ya no será tan sencillo. Es por esta razón que principalmente nos enfocaremos a generalizar las propiedades algebraicas que hemos discutido. Esta resultará una manera muy poderosa de estudiar los espacios vectoriales, pues nos permitirá generalizar sin mucha dificultad los conceptos aprendidos en la entrada anterior al espacio $\mathbb{R}^n$ para cualquier número natural $n$.

Definición del espacio vectorial $\mathbb{R}^n$

En la entrada anterior vimos cuáles son propiedades que debe cumplir una colección de objetos, en conjunto con una operación de suma y otra de producto escalar, para poder considerarse un espacio vectorial. Como ya vimos, tanto $\mathbb{R}^2$ y $\mathbb{R}^3$ son espacios vectoriales. Podemos definir a $\mathbb{R}^n$ y a sus operaciones como sigue.

Definición. El conjunto $\mathbb{R}^n$ consiste de todas las $n$-adas ordenadas $u=(u_1,u_2,\ldots,u_n)$ en donde cada $u_i$ es un número real, para $i=1,\ldots,n$. A $u_i$ le llamamos la $i$-ésima entrada de $u$. Para dos elementos de $\mathbb{R}^n$, digamos

\begin{align*}
u&=(u_1,u_2,\ldots,u_n)\\
v&=(v_1,v_2,\ldots,v_n),
\end{align*}

definimos la suma $u+v$ como la $n$-áda cuya $i$-ésima entrada es $u_i+v_i$ (decimos que sumamos entrada a entrada). En símbolos, $$u+v=(u_1+v_1,u_2+v_2,\ldots,u_n+v_n).$$

Además, si tomamos un real $r$, definimos el producto escalar de $r$ con $u$ como la $n$-ada cuya $i$-ésima entrada es $r u_i$, es decir, $ru=(ru_1,ru_2,\ldots,ru_n).$

El conjunto $\mathbb{R}^n$ con esta suma y producto escalar cumple ser un espacio vectorial. A continuación probaremos sólo algunas de las propiedades, ¿puedes completar el resto?

1. La suma es asociativa:
\begin{align*}
(u+v)+w
&= ((u_1,u_2,\ldots,u_n) + (v_1,v_2,\ldots,v_n)) + (w_1,w_2,\ldots,w_n) \\
&= (u_1+v_1,u_2+v_2,\ldots,u_n+v_n) + (w_1,w_2,\ldots,w_n) \\
&= ((u_1+v_1)+w_1,(u_2+v_2)+w_2,\ldots,(u_n+v_n)+w_n) \\
&= (u_1+(v_1+w_1),u_2+(v_2+w_2),\ldots,u_n+(v_n+w_n)) \\
&= (u_1,u_2,\ldots,u_n) + (v_1+w_1,v_2+w_2,\ldots,v_n+w_n) \\
&= (u_1,u_2,\ldots,u_n) + ((v_1,v_2,\ldots,v_n) + (w_1,w_2,\ldots,w_n)) \\
&= u + (v+w).
\end{align*}

La cuarta igualdad usa el paso clave de que en $\mathbb{R}$ sí sabemos que la suma es asociativa.

2. La suma es conmutativa:
\[
u+v = v+w.
\]

¡Intenta demostrarlo!

3. Existe un elemento neutro para la suma, que es el elemento de $\mathbb{R}^n$ en donde todas las entradas son iguales al neutro aditivo $0$ de $\mathbb{R}$:
\begin{align*}
u+0
&= (u_1,u_2,\ldots,u_n) + (0,0,\ldots,0) \\
&= (u_1+0,u_2+0,\ldots,u_n+0) \\
&= (u_1,u_2,\ldots,u_n) \\
&= u.
\end{align*}

Para demostrar esta propiedad, necesitaras usar que en $\mathbb{R}$ cada $u_i$ tiene inverso aditivo.

4. Para cada $n$-tupla existe un elemento inverso:
\[
u + (-u) = 0.
\]

5. La suma escalar se distribuye bajo el producto escalar:
\begin{align*}
(r+s)u
&= (r+s)(u_1,u_2,\ldots,u_n) \\
&= ((r+s)u_1,(r+s)u_2,\ldots,(r+s)u_n) \\
&= (ru_1 + su_1, ru_2 + su_2, \ldots, r_n + su_n) \\
&= (ru_1,ru_2,\ldots,ru_n) + (su_1,su_2,\ldots,su_n) \\
&= r(u_1,u_2,\ldots,u_n) + s(u_1,u_2,\ldots,u_n) \\
&= ru + su.
\end{align*}

Una vez más, se está usando una propiedad de $\mathbb{R}$ para concluir una propiedad análoga en $\mathbb{R}^n$. En este caso, se está usando fuertemente que hay una propiedad de distributividad en $\mathbb{R}$.

6. La suma de $n$-tuplas de distribuye bajo el producto de escalares:
\[
r(u+v) = ru + rv.
\]

7. El producto escalar es compatible con el producto de $\mathbb{R}$:
\begin{align*}
(rs)u
&= (rs)(u_1,u_2,\ldots,u_n) \\
&= ((rs)u_1,(rs)u_2,\ldots,(rs)u_n) \\
&= (r(su_1),r(su_2),\ldots,r(su_n)) \\
&= r(su_1, su_2, \ldots, su_n) \\
&= r(s(u_1,u_2,\ldots,u_n)) \\
&= r(su).
\end{align*}

8. El neutro multiplicativo $1$ de $\mathbb{R}$ funciona como neutro para el producto escalar:
\[
1u = u.
\]

De este modo, podemos trabajar con el espacio vectorial $\mathbb{R}^n$ para explorar sus propiedades. La gran ventaja es que lo que demostremos para $\mathbb{R}^n$ en general lo podremos usar para cualquier valor particular de $n$. y poder emplearlas cuando trabajemos con algún número $n$ en particular.

Combinaciones lineales y espacio generado

Al igual que hicimos con $\mathbb{R}^2$ y $\mathbb{R}^3$ podemos definir los conceptos de combinación lineal y espacio generado para el espacio vectorial $\mathbb{R}^n$.

Definición. En $\mathbb{R}^n$, diremos que un vector $u$ es combinación lineal de los vectores $v_1,\ldots,v_k$ si y sólo si existen números reales $r_1,\ldots,r_n$ en $\mathbb{R}$ tales que
\[
u = r_1v_1 + r_2v_2 + \cdots + r_kv_k.
\]

Ejemplo. En $\mathbb{R}^5$, el vector $(3,4,-2,5,5)$ es combinación lineal de los vectores $(2,1,2,0,3)$, $(0,1,-1,3,0)$ y $(1,-1,5,-2,1)$, pues
\[
(3,4,-2,5,5) = 2(2,1,2,0,3) + 1(0,1,-1,3,0) + -1(1,-1,5,-2,1).
\]

$\triangle$

La noción de combinación lineal nos permite hablar de todas las posibles combinaciones lineales, así como en $\mathbb{R}^2$ y $\mathbb{R}^3$.

Definición. Dado un conjunto de vectores $v_1,\ldots,v_n$ en $\mathbb{R}^n$, podemos definir el espacio generado por estos vectores como el conjunto de todas las posibles combinaciones lineales de $v_1,\ldots,v_n$ en $\mathbb{R}^n$.

Es este caso, ya no podremos visualizar geométricamente el espacio generado (aunque con un poco de imaginación, quizás puedas generalizar lo que ya hicimos en dimensiones anteriores: ¿cómo se vería un plano en $\mathbb{R}^4$?, ¿cómo se vería un sub-$\mathbb{R}^3$ de $\mathbb{R}^4$?). De cualquier manera, sí podemos seguir respondiendo preguntas del espacio generado a través de sistemas de ecuaciones.

Ejemplo. ¿El espacio generado por los vectores $(1,1,1,0)$, $(0,3,1,2)$, $(2,3,1,0)$ y $(1,0,2,1)$ es $\mathbb{R}^4$?

Para ver si $\mathbb{R}^4$ es el espacio generado por los vectores propuestos, debemos asegurarnos de que cada vector en $\mathbb{R}^4$ se pueda expresar como combinación lineal de estos. Entonces, seleccionamos un vector $(a,b,c,d)$ arbitrario en $\mathbb{R}^4$, y debemos ver si existen escalares $q$, $r$, $s$ y $t$ tales que
\[
q(1,1,1,0) + r(0,3,1,2) + s(2,3,1,0) + t(1,0,2,1) = (a,b,c,d);
\]
esto es,
\[
(q,q,q,0) + (0,3r,r,2r) + (2s,3s,s,0) + (t,0,2t,t) = (a,b,c,d),
\]
que equivale a
\[
(q+2s+t, q+3r+3s, q+r+s+2t, 2r+t)=(a,b,c,d),
\]
lo cual a su vez equivale al sistema de ecuaciones
\[
\left\{
\begin{alignedat}{4}
q & +{} & & +{} & 2s & +{} & t & = a \\
q & +{} & 3r & +{} & 3s & & & = b \\
q & +{} & r & +{} & s & +{} & 2t & = c \\
& & 2r & & & +{} & t & = d,
\end{alignedat}
\right.
\]
el cual podemos representar como
\[
\begin{pmatrix}
1 & 0 & 2 & 1 \\
1 & 3 & 3 & 0 \\
1 & 1 & 1 & 2 \\
0 & 2 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}.
\]
Además, podemos observar que la matriz en el lado izquierdo tiene determinante distinto de $0$ (para verificar esto, tendrás que calcularlo), lo que nos indica que es invertible, y la igualdad anterior equivale a
\[
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 2 & 1 \\
1 & 3 & 3 & 0 \\
1 & 1 & 1 & 2 \\
0 & 2 & 0 & 1
\end{pmatrix}^{-1}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix},
\]
o bien,
\[
\begin{pmatrix}
q \\ r \\ s \\ t
\end{pmatrix}
=
\begin{pmatrix}
-3 & 1 & 3 & -3 \\
-1/2 & 1/4 & 1/4 & 0 \\
3/2 & -1/4 & -5/4 & 1 \\
1 & -1/2 & -1/2 & 1
\end{pmatrix}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix},
\]
de donde tenemos la solución para $q,r,s,t$ siguiente:
\[
\left\{
\begin{alignedat}{4}
q & = & -3a & +{} & b & +{} & 3c & -{} & 3d \\
r & = & -\tfrac{1}{2}a & +{} & \tfrac{1}{4}b & +{} & \tfrac{1}{4}c & & \\
s & = & \tfrac{3}{2}a & -{} & \tfrac{1}{4}b & -{} & \tfrac{5}{4}c & +{} & d \\
t & = & a & -{} & \tfrac{1}{2}b & -{} & \tfrac{1}{2}c & +{} & d.
\end{alignedat}
\right.
\]
Este sistema nos da una fórmula para los escalares $q$, $r$, $s$ y $t$ en función del valor de las entradas del vector $(a,b,c,d)$, y estos escalares satisfacen
\[
q(1,1,1,0) + r(0,3,1,2) + s(2,3,1,0) + t(1,0,2,1) = (a,b,c,d).
\]
Como esto se cumple para un vector arbitrario $(a,b,c,d)$ en $\mathbb{R}^4$, entonces se cumple para todos los vectores de $\mathbb{R}^4$; es decir, ¡$\mathbb{R}^4$ es el espacio generado por los vectores $(1,1,1,0)$, $(0,3,1,2)$, $(2,3,1,0)$, $(1,0,2,1)$!

$\triangle$

Nuestra técnica de resolver sistemas de ecuaciones mediante la inversa de la matriz asociada ha resultado muy útil. Hemos tenido un poco de suerte en que la matriz sea invertible. Si no lo fuera, no podríamos haber hecho el procedimiento descrito en el ejemplo. ¿Será que si la matriz no es invertible, entonces el sistema no se podrá resolver? La respuesta es compleja: a veces sí, a veces no. En ese caso hay que entender el sistema de ecuaciones con otro método, como reducción gaussiana.

Independencia lineal

Cuando exploramos las propiedades de $\mathbb{R}^2$ y $\mathbb{R}^3$, observamos que hay ocasiones en las que el espacio generado por un conjunto de vectores es «más chico» de lo que se esperaría de la cantidad de vectores: por ejemplo, dos vectores en $\mathbb{R}^2$ generan una línea (y no todo $\mathbb{R}^2$) cuando estos dos se encuentran alineados con el origen. Cuando tres vectores en $\mathbb{R}^3$ no están alineados, pero se encuentran sobre el mismo plano por el origen, su espacio generado es dicho plano (y no todo $\mathbb{R}^3$).

Aunque el el espacio vectorial $\mathbb{R}^n$ no podamos visualizarlo de manera inmediata, podemos mantener la intuición de que un conjunto de vectores «genera todo lo que puede generar» o «genera algo más chico». Para identificar en qué situación nos encontramos, recurrimos a la siguiente definición.

Definición. Dado un conjunto de $k$ vectores $v_1, v_2, \ldots, v_k$ en $\mathbb{R}^n$ distintos de 0, diremos son linealmente independientes si la única forma de escribir al vector 0 como combinación lineal de ellos es cuando todos los coeficientes de la combinación lineal son igual al escalar 0; es decir, si tenemos que
\[
r_1v_1 + r_2v_2 + \cdots + r_kv_k = 0,
\]
entonces forzosamente $r_1 = r_2 = \cdots = r_n = 0$.

Teniendo esta definición en consideración, se puede mostrar que si un conjunto de vectores es linealmente independiente, entonces ninguno de los vectores se puede escribir como combinación lineal de los otros. De hecho, es únicamente en este caso cuando cuando el espacio generado por los vectores es «todo lo que se puede generar».

La justificación de por qué sucede esto es similar a la que vimos en la entrada anterior: como el primer vector es no genera una línea. Como el segundo vector no se puede escribir como combinación lineal del primero, entonces queda fuera de esta línea y ambos generan un plano. Como el tercer vector no se puede escribir como combinación lineal de los primeros dos, entonces queda fuera del plano, y entre los tres generan un espacio «más grande» («de dimensión $3$»). A partir de este punto, quizá no podamos visualizar inmediatamente la forma geométrica del espacio generado, pero como sabemos que los vectores son linealmente independientes, entonces el cuarto vector no se puede escribir como combinación lineal de los primeros tres. Por ello, queda fuera del espacio generado por los primeros tres, y el espacio generado por los cuatro es aún «más grande» («de dimensión $4$»); y así sucesivamente, para tantos vectores linealmente independientes como tengamos.

Una herramienta que podemos emplear para determinar cuándo un conjunto de vectores es linealmente independiente son nuevamente los sistemas de ecuaciones. Para esto veamos el siguiente ejemplo.

Ejemplo. ¿Son los vectores $(1,5,1,-2)$, $(3,-3,0,-1)$, $(-2,0,4,1)$ y $(0,1,-1,0)$ linealmente independientes en $\mathbb{R}^4$?

Supongamos que para ciertos escalares $a$, $b$, $c$ y $d$, se cumple que
\[
a(1,5,1,-2) + b(3,-3,0,-1) + c(-2,0,4,1) + d(0,1,-1,0) = (0,0,0,0).
\]
Esto es equivalente a decir que
\[
(a,5a,a,-2a) + (3b,-3b,0,-b) + (-2c,0,4c,c) + (0,d,-d,0) = (0,0,0,0)
\]
que equivale a
\[
(a+3b-2c, 5a-3b+d,a+4c-d,-2a-b+c) = (0,0,0,0),
\]
y a su vez equivale al sistema de ecuaciones
\[
\left\{
\begin{alignedat}{4}
a & +{} & 3b & -{} & 2c & & & = 0 \\
5a & -{} & 3b & & & +{} & d & = 0 \\
a & & & +{} & 4c & -{} & d & = 0 \\
-2a & -{} & b & +{} & c & & & = 0
\end{alignedat}
\right.
\]
el cual podemos representar de la forma
\[
\begin{pmatrix}
1 & 3 & -2 & 0 \\
5 & -3 & 0 & 1 \\
1 & 0 & 4 & -1 \\
-2 & 1 & 1 & 0
\end{pmatrix}
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}
=
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix},
\]
y, como notamos que la matriz del lado izquierdo de la ecuación tiene determinante distinto de 0 (¿puedes verificarlo?), entonces es invertible, de modo que
\[
\begin{pmatrix}
a \\ b \\ c \\ d
\end{pmatrix}
=
\begin{pmatrix}
1 & 3 & -2 & 0 \\
5 & -3 & 0 & 1 \\
1 & 0 & 4 & -1 \\
-2 & 1 & 1 & 0
\end{pmatrix}^{-1}
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}
=
\begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix},
\]
es decir,
\[
a = b = c = d = 0,
\]
lo que nos indica, basándonos en la definición, que los vectores anteriores son linealmente independientes.

$\triangle$

El ejemplo anterior nos da una idea de lo que debe cumplir un conjunto linealmente independiente de $n$ vectores en $\mathbb{R}^n$. En general, podemos mostrar que un conjunto de $n$ vectores $v_1 = (v_{11}, v_{12}, \ldots, v_{1n})$, $v_2 = (v_{21}, v_{22}, \ldots, v_{2n})$, $\ldots$, $v_n = (v_{n1}, v_{n2}, \ldots, v_{nn})$ es linealmente independiente si y sólo si la matriz
\[
\begin{pmatrix}
v_{11} & v_{21} & \cdots & v_{n1} \\
v_{12} & v_{22} & \cdots & v_{n2} \\
\vdots & \vdots & \ddots & \vdots \\
v_{1n} & v_{2n} & \cdots & v_{nn}
\end{pmatrix},
\]
formada por los vectores escritos como columna, es invertible. Esto ya platicamos que está relacionado con que su determinante sea distinto de 0. Pero no en todas las situaciones tendremos tantos vectores como entradas y entonces tendremos que estudiar el sistema de ecuaciones lineales con otras técnicas, como reducción gaussiana.

Ejemplo. ¿Serán los vectores $(1,2,3,4,5)$, $(6,7,8,9,10)$ y $(11,12,13,14,15)$ de $\mathbb{R}^5$ linealmente independientes? Tal y como lo hemos hecho arriba, podemos preguntarnos si hay reales $a,b,c$ tales que $$a(1,2,3,4,5)+b(6,7,8,9,10)+c(11,12,13,14,15)=(0,0,0,0,0),$$ y que no sean todos ellos cero. Tras plantear el sistema como sistema de ecuaciones y luego en forma matricial, lo que se busca es ver si el sistema $\begin{pmatrix} 1 & 6 & 11 \\ 2 & 7 & 12 \\ 3 & 8 & 13 \\ 4 & 9 & 14 \\ 5 & 10 & 15 \end{pmatrix} \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} $ tiene alguna solución no trivial. Esto puede entenderse aplicando reducción gaussiana a $A$, que muestra que toda solución al sistema anterior es solución al sistema $\begin{pmatrix} 1 & 0 & -1\\0 & 1 & 2\\0 & 0 & 0\\0 & 0 & 0\\0 & 0 & 0\end{pmatrix} \begin{pmatrix} a \\ b \\ c \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix},$ lo cual nos lleva a que el sistema original es equivalente al sistema $$\left\{ \begin{array} \,a – c &= 0\\ b + 2c &= 0\end{array}.\right.$$

De aquí, podemos tomar a $c$ como cualquier valor, digamos $1$, de donde $a=1$ y $b=-2$ es solución. En resumen, hemos detectado que $$(1,2,3,4,5)-2(6,7,8,9,10)+(11,12,13,14,15)=(0,0,0,0,0),$$ que es una combinación lineal de los vectores donde no todos los coeficientes son cero. Por ello, no son linealmente intependientes.

Puedes intentar «imaginar» esto como que son vectores en $\mathbb{R}^5$ (un espacio de «dimensión $5$»), pero no generan dentro de él algo de dimensión $3$, sino algo de dimensión menor. Como $(1,2,3,4,5)$ y $(6,7,8,9,10)$ sí son linealmente independientes (¡demuéstralo!), entonces los tres vectores en realidad generan sólo un plano mediante sus combinaciones lineales.

$\square$

Bases

De manera similar a lo que observamos en la entrada anterior, hay ocasiones en las que un conjunto de vectores no tiene como espacio generado a todo $\mathbb{R}^n$. Por otra parte, hay ocasiones en las que el conjunto de vectores sí genera a todo $\mathbb{R}^n$, pero lo hace de manera «redundante», en el sentido de que, aunque su espacio generado sí es todo $\mathbb{R}^n$, podríamos quitar a algún vector del conjunto y el espacio generado sería el mismo. La siguiente definición se enfoca en los conjuntos en los que no pasa mal ninguna de estas cosas. Es decir, los vectores generan exactamente al espacio: cada vector se genera por una y sólo una combinación lineal de ellos.

Definición. Diremos que un conjunto de vectores $v_1, v_2, \ldots, v_k$ es base del esapacio vectorial $\mathbb{R}^n$ si el conjunto de vectores es linealmente independiente y el espacio generado por estos es exactamente $\mathbb{R}^n$.

Ejemplo. Al igual que en $\mathbb{R}^2$ y $\mathbb{R}^3$, la «base canónica» es el primer ejemplo que seguramente se nos viene a la mente. La base canónica en $\mathbb{R}^n$ consiste en los $n$ vectores $\mathrm{e}_1 = (1,0,0,\cdots,0)$, $\mathrm{e}_2 = (0,1,0,\cdots,0)$, $\mathrm{e}_3 = (0,0,1,\ldots,0)$, $\ldots$, $\mathrm{e}_n = (0,0,0,\cdots,1)$. Es claro que cualquier vector $u = (u_1,u_2,\cdots,u_n)$ es combinación lineal de $\mathrm{e}_1,\ldots,\mathrm{e}_n$ pues podemos expresarlo como
\begin{align*}
u
&= (u_1,u_2,\cdots,u_n) \\
&= (u_1,0,\cdots,0) + (0,u_2,\cdots,0) + \cdots (0,0,\cdots,u_n) \\
&= u_1(1,0,\cdots,0) + u_2(0,1,\cdots,0) + \cdots + u_n(0,0,\cdots,1) \\
&= u_1\mathrm{e}_1 + u_2\mathrm{e}_2 + \cdots + u_n\mathrm{e}_n.
\end{align*}
Además, los vectores $\mathrm{e}_1,\ldots,\mathrm{e}_n$ son linealmente independientes (¿puedes ver por qué?). De este modo, verificamos que la «base canónica» es, en efecto, una base.

$\triangle$

Ejemplo. Más arriba verificamos que los vectores $(1,5,1,-2)$, $(3,-3,0,-1)$, $(-2,0,4,1)$ y $(0,1,-1,0)$ son linealmente independientes. Además, vimos que la matriz formada por estos es invertible. De este modo, verificamos que estos vectores forman una base para $\mathbb{R}^4$.

$\triangle$

Más adelante…

A lo largo de esta unidad nos hemos enfocado en estudiar a vectores, matrices, ecuaciones lineales y espacios vectroriales. En las últimas entradas, vimos que hay ocho condiciones que se deben cumplir para que un conjunto de objetos matemáticos (junto con una operación de suma y una de producto escalar) sean considerados espacio vectorial. Todos los ejemplos de espacio vectorial que vimos son de la forma $\mathbb{R}^n$, sin embargo, puede surgir la pregunta, ¿existen espacios vectoriales que no sean de esta forma?

De hecho, si has estado prestando atención en la formalidad de los resultados, hay muchos resultados que han quedado pendientes:

  • ¿Por qué el determinante no depende de la fila o columna en la que se expanda?
  • Si tenemos matrices de $n\times n$, ¿por qué son invertibles si y sólo si el determinate es cero?
  • En matrices de $n\times n$, ¿por qué el determinante es multiplicativo?
  • ¿Cómo se formaliza el proceso de reducción gaussiana y para qué más sirve?
  • ¿Será que podemos tener muchos vectores linealmente independientes en $\mathbb{R}^n$? ¿Será posible tener un conjunto generador de menos de $n$ vectores para $\mathbb{R}^n$? ¿Por qué?

Estas dudas no se resuelven en el curso de Álgebra Superior 2, que sigue a este. Sin embargo, en el curso de Álgebra Lineal I sí se resuelven varias de estas dudas.

Además, podrás ver que hay otros tipos de objetos matemáticos distintos a las listas ordenadas y que también forman un espacio vectorial; algunos con los cuales ya hemos trabajado, como lo son las matrices, y otros que se comportan de manera muy poco usual, como son los espacios con dimensión infinita. Asimismo, con las herramientas que hemos desarrollado hasta ahora, podremos aprender nuevos conceptos como transformaciones lineales, eigenvectores y eigenvalores; estos nos permitirán comprender de manera más íntima los espacios vectoriales, y podremos relacionarlos unos con otros.

Tarea moral

  1. Verifica lo siguiente:
    • $(1,1,1,1)$, $(2,2,2,2)$, $(1,1,2,2)$, $(2,2,1,1)$ no es un conjunto linealmente independiente de $\mathbb{R}^4$.
    • $(1,2,3,4)$, $(2,3,4,1)$, $(3,4,1,2)$, $(4,1,2,3)$ es un conjunto generador de $\mathbb{R}^4$.
    • $(1,1,1,1,1),(1,1,1,1,0),(1,1,1,0,0),(1,1,0,0,0),(1,0,0,0,0)$ es una base de $\mathbb{R}^5$.
  2. Demuestra las siguientes dos cosas:
    • Sea $S$ un conjunto generador de $\mathbb{R}^n$ y $T\supseteq S$. Entonces $T$ es conjunto generador de $\mathbb{R}^n$.
    • Sea $T$ un conjunto linealmente independiente de $\mathbb{R}^n$ y $S\subseteq T$. Entonces $S$ es un conjunto linealmente independiente de $\mathbb{R}^n$.
  3. Sean $v_1,v_2,v_3,\ldots,v_k$ vectores linealmente independientes de $\mathbb{R}^n$. Demuestra que $v_1, v_1+v_2, v_1+v_2+v_3,\ldots,v_1+v_2+v_3+\ldots+v_k$ son también vectores linealmente independientes de $\mathbb{R}^n$. ¿Es esto un si y sólo si?
  4. En vista de lo que hemos platicado para matrices de $2\times 2$, $3\times 3$, $\mathbb{R}^2$ y $\mathbb{R}^3$, ¿cómo definirías el producto matriz-vector $AX$ donde $A$ es una matriz de $m\times n$ y $X$ un vector en $\mathbb{R}^n$?
  5. Demuestra que la definición de base tal y como está en la entrada en efecto permite no sólo escribir a cada vector $v$ del espacio como combinación lineal de los elementos de una base $v_1,\ldots,v_n$, sino que también implica que dicha expresión será única.

Entradas relacionadas

Álgebra Superior I: Traza de matrices y propiedades

Por Eduardo García Caballero

Introducción

En esta entrada conoceremos una nueva operación que se puede aplicar a matrices: la traza. Esta operación a primera vista parece bastante sencilla, pero no por eso es menos importante; en futuros cursos conocerás cómo se relaciona estrechamente con otros conceptos matemáticos y sus aplicaciones.

Traza

Definimos la traza de una matriz cuadrada como la suma de los elementos de su diagonal. Es importante destacar que únicament ele aplicaremos la operación de traza a matrices cuadradas pues más adelante las propiedades que nos interesarán requieren de esta condición.

Por ejemplo, las trazas de las matrices
\[
A=
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
\]
son, respectivamente,
\[
\operatorname{tr}(A)
=
\operatorname{tr}
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
=
4+ (-6)
=
-2
\]
y
\[
\operatorname{tr}(B)
=
\operatorname{tr}
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
=
1 + 5 + (-5) = 1.
\]

Propiedades de la traza

La traza cumple un par de propiedades importantes con respecto a otras operaciones que definimos anteriormente. Para la prueba de estas propiedades consideraremos matrices de tamaño $2 \times 2$, pero fácilmente podrás probarlo para cualquier otro tamaño de matrices cuadradas.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que la traza se distribuye con respecto a la suma; es decir,
\begin{align*}
\operatorname{tr}(A+B)
&=
\operatorname{tr}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} \\
a_{21}+b_{21} & a_{22}+b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}+b_{11}) + (a_{22}+b_{22})
\\[5pt]
&=
(a_{11} + a_{22}) + (b_{11}+b_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\operatorname{tr}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(A) + \operatorname{tr}(B).
\end{align*}

Además, la traza saca escalares; es decir, para cualquier escalar $r$ se cumple que
\begin{align*}
\operatorname{tr}(rA)
&=
\operatorname{tr}
\left(
r
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
ra_{11} & ra_{12} \\
ra_{21} & ra_{22}
\end{pmatrix}
\\[5pt]
&=
ra_{11} + ra_{22}
\\[5pt]
&=
r(a_{11} + a_{22})
\\[5pt]
&=
r
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\\[5pt]
&=
r\operatorname{tr}(A).
\end{align*}

Problemas

Trabajemos con algunos problemas en los cuales aparece la traza:

Problema. Demuestra que para matrices $A$ y $B$ de $2 \times 2$ se cumple que $\operatorname{tr}(AB) = \operatorname{tr}(BA)$.

Solución. Lo demostraremos directamente por la definición de traza.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que
\begin{align*}
\operatorname{tr}(AB)
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21}) + (a_{21}b_{12} + a_{22}b_{22})
\\[5pt]
&=
(b_{11}a_{11} + b_{12}a_{21}) + (b_{21}a_{12} + b_{22}a_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
b_{11}a_{11} + b_{12}a_{21} & b_{11}a_{12} + b_{12}a_{22} \\
b_{21}a_{11} + b_{22}a_{21} & b_{21}a_{12} + b_{22}a_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(BA).
\end{align*}

$\square$

Problema. ¿Para qué matrices de $2 \times 2$ se tiene que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$?

Solución. Consideremos la matriz de $2 \times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}.
\]

Calculamos
\[
\operatorname{tr}(A^2)
=
\operatorname{tr}
\begin{pmatrix}
a^2 + bc & ab + bd \\
ac + cd & bc + d^2
\end{pmatrix}
=
(a^2+bc)+(bc+d^2) = a^2 + 2bc + d^2
\]
y
\[
(\operatorname{tr}(A))^2
=
(a + d)^2
=
a^2 + 2ad + d^2.
\]

Entonces, notamos que
\[
\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2
\]
si y sólo si
\[
a^2 + 2bc + d^2 = a^2 + 2ad + d^2,
\]
lo cual se cumple si y sólo si
\[
bc = ad.
\]

Entonces, las matrices de $2\times 2$ que cumplen que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$ son aquellas de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tales que $bc = ad$. ¿Podrías dar un ejemplo de una matriz que cumpla esto?

$\square$

Nota. El hecho de que la matriz $A$ anterior cumpla que $bc = ad$ equivale a que $ac – bd = 0$, y esto equivale, como verás en la siguiente entrada, a que “el determinante de $A$ sea cero”.

Más adelante…

En esta entrada aprendimos la definición de traza y vimos algunas de sus propiedades.

Además, en el problema 2, mencionamos un concepto que hasta ahora no hemos visto. En la siguiente entrada conoceremos una de las operaciones más importantes que se pueden aplicar a matrices cuadradas: el determinante.

Tarea moral

  1. Encuenta la traza de las siguientes matrices:
    \[
    \begin{pmatrix}
    3 & 4 \\
    5 & 6
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    \sqrt{2} & 3/\sqrt{2} \\
    \sqrt{3} & \sqrt{6}
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    2x & 9y \\
    4y & -5x
    \end{pmatrix},
    \]
    \[
    \begin{pmatrix}
    1 & 2 & 1 \\
    1 & -3 & 4 \\
    -1 & 0 & 4
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    -3 & 2 & 4 \\
    -4 & 2 & 4 \\
    1 & -1 & 1
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    a & b & c \\
    d & e & f \\
    1 & 2 & 3
    \end{pmatrix}.
    \]
  2. Demuestra que $\text{tr}(AB)=\text{tr}(BA)$ para matrices $A$ y $B$ de $3\times 3$. Intenta también hacerlo para matrices de $n\times n$.
  3. Determina si el siguiente enunciado es verdadero o falso. Si $A$ y $B$ son matrices de $2\times 2$ tales que $\text{tr}(A)=\text{tr}(B)$ y $\text{tr}(A^2)=\text{tr}(B^2)$, entonces $A=B$.
  4. ¿Será cierto que la traza es multiplicativa? Es decir, ¿para cualesquiera matrices $A$ y $B$ se cumple que $\text{tr}(AB)=\text{tr}(A)\text{tr}(B)$?
  5. Sea $A$ una matriz de $2\times 2$. Demuestra que $\text{tr}(AA^T)$ siempre es un número real mayor o igual que cero. ¿Es cierto esto mismo si la matriz es de $3\times 3$? ¿Es cierto siempre que $\text{tr}(A^2)$ es un número mayor o igual a cero?

Entradas relacionadas

Álgebra Superior I: Reducción de Gauss-Jordan

Por Eduardo García Caballero

Introducción

En la entrada anterior vimos que los sistemas de ecuaciones se encuentran íntimamente relacionados con los vectores y las matrices. Teniendo esto en cuenta, en esta entrada abordaremos una estrategia que nos permitirá encontrar soluciones de los sistemas de ecuaciones lineales.

Operaciones elementales por filas

Antes de pasar a describir el algoritmo con el cual podremos resolver un sistema de ecuaciones lineales, deberemos definir algunas operaciones y conceptos que nos ayudaran a efectuarlo. Empecemos con una lista de operaciones que se pueden aplicar a las matrices, las cuales son con conocidas como operaciones elementales por filas.

Para esto, consideremos una matriz
\[
A=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix},
\]
y veamos cómo la afecta cada una de estas operaciones.

La primera de estas operaciones es el reescalamiento. Esta operación consiste en seleccionar una fila de una matriz, y multiplicar cada una de las entradas de esta fila por un mismo número real distinto de cero. Por ejemplo, si reescalamos la tercera fila de $A$ por el número $-3$, obtendremos la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
(-3)(-1/3) & (-3)(4) & (-3)(0) \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
5 & \pi & 3 \\
\sqrt{2} & -1 & 2 \\
1& -12 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Otra operación que podemos aplicar a las matrices es la trasposición, la cual consiste en intercambiar el contenido de dos filas distintas. Por ejemplo, si transponemos las filas 2 y 4 de $A$, el resultado será la matriz
\[
\begin{pmatrix}
5 & \pi & 3 \\
9 & -3 & 2/3 \\
-1/3 & 4 & 0 \\
\sqrt{2} & -1 & 2
\end{pmatrix}.
\]

La última de las operaciones que nos interesa es la transvección. Esta consiste en sumar el múltiplo de una fila (el resultado de multiplicar cada entrada de una fila por un mismo escalar) a otra fila (la suma se realiza entrada por entrada). Por ejemplo, si en $A$ realizamos la transvección que corresponde a “sumar 3/2 de la cuarta fila a la primera fila”, obtendremos la matriz
\[
\begin{pmatrix}
5 + (3/2)(9) & \pi+(3/2)(-3) & 3+(3/2)(2/3) \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}
=
\begin{pmatrix}
37/2 & -9/2+\pi & 4 \\
\sqrt{2} & -1 & 2 \\
-1/3 & 4 & 0 \\
9 & -3 & 2/3
\end{pmatrix}.
\]

Si recuerdas, todos los sistemas de ecuaciones se pueden escribir como $Ax=b$. Las operaciones elementales son muy importantes por las siguientes dos razones:

  • Si aplicamos la misma operación elemental a $A$ y $b$ para obtener la matriz $A’$ y el vector $b’$, entonces $Ax=b$ y $A’x=b’$ tienen exactamente el mismo conjunto solución. Decimos que «las operaciones elementales no cambian las soluciones del sistema».
  • Usando operaciones elementales se puede llevar el sistema $Ax=b$ a un sistema mucho más sencillo $A_{red}x=b_{red}$ (que discutiremos más abajo). Entonces «las operaciones ayudan a simplificar un sistema de ecuaciones».

Juntando ambas observaciones, con operaciones elementales podemos llevar cualquier sistema de ecuaciones a uno mucho más sencillo y con el mismo conjunto solución.

Puedes intentar convencerte de la primera afirmación pensando en lo siguiente. En un reescalamiento de filas corresponde a multiplicar por una constante no nula ambos lados de una ecuación; la transposición corresponde a cambiar el orden en el que aparecen dos ecuaciones diferentes; mientras que la transvección corresponde a sumar un múltiplo de una ecuación a otra ecuación, y el sistema tiene las mismas soluciones pues, si un conjunto de valores es solución para dos ecuaciones, entonces es solución para cualquier combinación lineal de estas. En un curso de Álgebra Lineal I puedes encontrar las justificaciones con mucho más detalle.

En las siguientes secciones hablamos un poco más de la segunda afirmación.

Forma escalonada y escalonada reducida para una matriz

Además de las operaciones elementales por filas, es importante definir algunos conceptos.

Comencemos con el concepto de pivote: diremos que una entrada de una matriz es un pivote si es el primer elemento distinto de cero en una fila.

Diremos que una matriz se encuentra en forma escalonada si se cumple: 1. Todas las filas nulas se encuentran hasta abajo; 2. Todos los pivotes de filas no-nulas tienen valor 1; 3. El pivote de cada fila se encuentra la derecha del pivote de una fila superior. Es fácil identificar las matrices en forma escalonada porque parecen “estar en escalerita”. Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 9 & 1 & 1 \\
0 & 1 & 2 & 3 \\
0 & 0 & 1 & 1
\end{pmatrix}
\]
se encuentra en forma escalonada, mientras que las matrices
\[
\begin{pmatrix}
1 & 0 & 2 & 4 \\
0 & 0 & 9 & 2 \\
0 & 3 & 0 & 0
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
0 & 6 & 8 & -5 \\
0 & 0 & 0 & 0 \\
0 & 0 & 9 & 2
\end{pmatrix}
\]
no lo están. ¿Puedes justificar por qué?

Por su parte, diremos que una matriz se encuentra en forma escalonada reducida si está en forma escalonada y, además, si hay un pivote en alguna fila, todas las entradas que no sean pivote en la misma columna del pivote son iguales a $0$ (Ojo. Siempre hablamos de pivotes de renglones).

Por ejemplo, la matriz
\[
\begin{pmatrix}
1 & 0 & -1 & 0 \\
0 & 1 & 3 & 0 \\
0 & 0 & 0 & 1
\end{pmatrix}
\]
está en forma escalonada reducida.

Como recordarás de la entrada anterior, un sistema de ecuaciones lineales
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se puede codificar como
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Como podemos cambiar el nombre de las variables, pero el vector de soluciones sigue siendo el mismo, es común codificar el sistema como una única matriz aumentada
\[
\left(
\begin{matrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{matrix}
\
\middle|
\
\begin{matrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{matrix}
\right).
\]

Aquí pusimos una línea vertical, pero sólo es por ayuda visual. Esa matriz la puedes tratar como cualquier matriz que hemos platicado.

Teniendo esto en cuenta, las matrices en forma escalonada reducida nos son de gran utilidad al resolver sistemas de ecuaciones lineales. Por ejemplo, consideremos el sistema
\[
\begin{cases}
x + 3y + 2w &= 8 \\
z + w &= 9,
\end{cases}
\]
el cual tiene como matriz aumentada a
\[
\left(
\begin{matrix}
1 & 3 & 0 & 2 \\
0 & 0 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
8 \\
9
\end{matrix}
\right),
\]
la cual se encuentra en forma escalonada.

Gracias a que la matriz está en forma escalonada, podemos elegir en orden inverso $w$, $z$, $y$, $x$ a las variables libres y pivote como en la entrada anterior. En este caso, podemos elegir como queramos el valor de $w$ ($w$ es variable libre). Usando la segunda ecuación, podemos despejar $z$ en términos de $w$ ($z$ es variable pivote). Estos dos valores los sustituimos en la primera ecuación y notamos que $y$ puede ser lo que queramos ($y$ es variable libre). Finalmente, $x$ queda totalmente determinado por las demás variables ($x$ es pivote). Las variables pivote justo corresponden a columnas de la matriz que tengan pivote de alguna fila.

La ventaja de la forma escalonada es que podremos ir obteniendo fácilmente el valor de cada variable “de abajo hacia arriba”. En el caso de un sistema cuya matriz se encuentre en forma escalonada reducida, será aún más sencillo pues ya no tendremos que sustituir valores y obtenemos el despeje directamente.

Teorema de reducción de Gauss-Jordan

El siguiente teorema relaciona las operaciones elementales por filas con la forma escalonada reducida de una matriz.

Teorema (de reducción de Gauss-Jordan o reducción gaussiana). Cualquier matriz con entradas reales se puede a una forma escalonada reducida aplicando una cantidad finita de pasos.

A continuación presentamos un algoritmo con el cual podemos pasar de una matriz arbitraria a una matriz en su forma escalonada reducida. Para hacer más sencilla su aplicación, nos enfocaremos en comprender la estrategia que sigue el algoritmo. La descripción formal del algoritmo y demostración de que en efecto funciona como esperamos es un tema que abordarás en el curso de Álgebra Lineal I (puedes echarle un ojo a esta entrada).

Primeramente, describiremos los pasos del algoritmo, al que se le conoce como reducción de Gauss-Jordan o reducción gaussiana.

Estrategia: Iremos arreglando la matriz de izquierda a derecha. Para ello, haremos los siguientes pasos repetidamente.

  1. Buscamos la primera columna de la matriz (de izquierda a derecha) que no tenga puros ceros.
  2. Una vez encontrada dicha columna, buscamos la primera entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos la fila que contiene a dicha entrada hasta arriba mediante la operación de transposición.
  4. Multiplicamos cada entrada de la fila que acabamos de mover hasta arriba por el inverso multiplicativo de su primera entrada (aquí usamos la operación de reescalamiento). La primera entrada de esta fila ahora será 1.
  5. Mediante la operación de transvección, sustraemos múltiplos de la primera fila al resto de renglones de la matriz, de modo que el resto de los valores en la columna correspondiente a la primera entrada de la fila en la que estamos trabajando pasen a ser 0 (como puedes observar, la entrada primera entrada no-nula de la fila en la que estamos trabajando ahora será un pivote).
  6. Ignorando la primera fila, buscamos la primera columna (de izquierda a derecha) que no tenga puros ceros.
  7. Repetimos los pasos anteriores (2 a 6), pero ahora, en vez de mover la fila con la que estamos trabajando “hasta arriba”, la moveremos inmediatamente después de la última fila con la que trabajamos.
  8. Hacemos esto hasta haber arreglado todas las columnas.

Ejemplo de reducción de Gauss-Jordan

Ahora, como ejemplo, veamos cómo podemos implementar este algoritmo en la matriz
\[
\begin{pmatrix}
0 & 1 & 2 & 3 & 4 \\
-1 & 0 & 1 & 2 & 3 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
la cual, si la consideramos como la matriz aumentada
\[
\left(
\begin{matrix}
0 & 1 & 2 & 3 \\
-1 & 0 & 1 & 2 \\
3 & 1 & -1 & 0 \\
0 & 1 & 1 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
4 \\
3 \\
2 \\
1
\end{matrix}
\right),
\]
corresponde al sistema de ecuaciones
\[
\begin{cases}
y + 2z + 3w &= 4 \\
-x + z + 2w &= 2 \\
3x + y -z &= 0 \\
y + z + w &= 1.
\end{cases}
\]

Buscamos la primera la primera columna no nula, la cual resulta ser la primera columna de la matriz. En esta columna, vemos que la segunda entrada es la primera entrada distinta de cero. Entonces, mediante trasposicón, intercambiamos las filas 1 y 2 (“movemos la segunda columna hasta arriba”):
\[
\begin{pmatrix}
-1 & 0 & 1 & 2 & 3 \\
0 & 1 & 2 & 3& 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, nos fijamos en la primera entrada no nula de la primera fila, que es $-1$, y reescalamos la fila por su inverso multiplicativo, que es $-1$:
\[
\begin{pmatrix}
(-1)(-1) & (-1)(0) & (-1)(1) & (-1)(2) & (-1)(3) \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3 & 1 & -1 & 0 & 2 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}.
\]

Ahora, observamos el valor de la primera entrada de la tercera fila, el cual es $3$. Entonces, mediante transvección, sumamos $-3$ veces la fila 1 a la fila 3:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
3+(-3)(1) & 1+(-3)(0) & -1+(-3)(-1) & 0+(-3)(-2) & 2+(-3)(-3) \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix},
\]
y realizamos lo mismo, pero ahora considerando la fila 4.
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0+(0)(1) & 1+(0)(0) & 1+(0)(-1) & 1+(0)(-2) & 1+(0)(-3)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
Como puedes observar, ninguna de las transvecciones influye en la otra, de manera que las podemos enlistar en un único paso. Además, al hacer una transvección con escalar $0$ no cambia nada de la fila, así que estas no se necesita hacerlas.

Ahora, ignorando la última fila con la que trabajamos (que es la primera), buscamos la primera columna no-nula, que en este caso será la segunda, posteriormente buscamos el primer elemento no nulo de la columna, el cual se encuentra en la segunda fila, y la “movemos enseguida de la última fila con la que trabajamos” (en este caso no tendríamos que realizar ninguna transposición, o bien, la transposición sería la de la segunda fila consigo misma, ya que ya se encuentra en seguida de la última fila con la que trabajamos). Después, reescalamos por el inverso multiplicativo del primer elemento no nulo de la fila, que es $1$:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
(1)(0) & (1)(1) & (1)(2) & (1)(3) & (1)(4) \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 1 & 2 & 6 & 11 \\
0 & 1 & 1 & 1 & 1
\end{pmatrix}
\]
(observa que reescalar por $1$ deja todas las entradas iguales) y posteriormente realizamos las transvecciones necesarias para que el resto de entradas de la segunda columna sean cero.
\[
\begin{pmatrix}
1 & 0+(0)(1) & -1+(0)(2) & -2+(0)(3) & -3+(0)(4) \\
0 & 1 & 2 & 3 & 4 \\
0 & 1+(-1)(1) & 2+(-1)(2) & 6+(-1)(3) & 11+(-1)(4) \\
0 & 1+(-1)(1) & 1+(-1)(2) & 1+(-1)(3) & 1+(-1)(4)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 0 & 3 & 7 \\
0 & 0 & -1 & -2 & -3
\end{pmatrix}
\]

De manera similar, ignorando ahora las primeras dos filas, buscamos la primera columna no-nula, la cual corresponde ahora a la tercera, y buscamos el primer elemento no-nulo de esta columna, el cual se encuentra en la cuarta fila. Entonces, transponemos las filas 3 y 4 para que el primer elemento no-nulo quede inmediatamente después de la última fila con la que trabajamos:
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & -1 & -2 & -3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Seguidamente, reescalamos la tercera fila,
\[
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
(-1)(0) & (-1)(0) & (-1)(-1) & (-1)(-2) & (-1)(-3) \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & -1 & -2 & -3 \\
0 & 1 & 2 & 3 & 4 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
\]
y relizamos las transvecciones necesarias:
\[
\begin{pmatrix}
1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(2) & -3+(1)(3) \\
0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(2) & 4+(-2)(3) \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 3 & 7
\end{pmatrix}.
\]

Finalmente, como nuestra última columna no cero es la cuarta y la primera fila no cero (ignorando las filas que ya tienen pivote) tiene un $3$, reescalamos de la siguiente manera:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
(1/3)(0) & (1/3)(0) & (1/3)(0) & (1/3)(3) & (1/3)(7)
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & -1 & -2 \\
0 & 0 & 1 & 2 & 3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix},
\]

Y hacemos las transvecciones necesarias:
\[
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0+(1)(0) & 1+(1)(0) & 0+(1)(0) & -1+(1)(1) & -2+(1)(7/3) \\
0+(-2)(0) & 0+(-2)(0) & 1+(-2)(0) & 2+(-2)(1) & 3+(-2)(7/3) \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1/3 \\
0 & 0 & 1 & 0 & -5/3 \\
0 & 0 & 0 & 1 & 7/3
\end{pmatrix}.
\]

Notemos que si consideramos esta matriz como la matriz aumentada
\[
\left(
\begin{matrix}
1 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 \\
0 & 0 & 1 & 0 \\
0 & 0 & 0 & 1
\end{matrix}
\
\middle|
\
\begin{matrix}
0 \\
1/3 \\
-5/3 \\
7/3
\end{matrix}
\right),
\]
este corresponde al sistema
\[
\begin{cases}
x = 0 \\
y = 1/3 \\
z = -5/3 \\
w = 7/3,
\end{cases}
\]
del cual sabemos inmediatamente su solución. Como mencionamos anteriormente, los sistemas de ecuaciones asociados a la matriz original y la matriz escalonada reducida resultante de aplicar operaciones elementales por filas, consideradas como matrices aumentadas, tienen las mismas soluciones. Entonces, ¡este último sistema es la solución para nuestro sistema de ecuaciones original!

Como podemos ver, los sistemas de ecuaciones asociados a una matriz en su forma escalonada reducida son fáciles de resolver por que vamos escogiendo valores arbitrarios para las variables en posición que no es pivote, mientras que podemos obtener el valor de las variables que son pivote mediante despejes sencillos.

Recuerda que este algoritmo funciona para cualquier matriz con entradas reales. ¿Podrías proponer otro sistema de ecuaciones e implementar la misma estrategia para resolverlo?

Más adelante…

Ahora vimos una estrategia para resolver sistemas de ecuaciones lineales de distintos tamaños. En las siguientes entradas conoceremos más propiedades sobre las matrices. Estas nuevas propiedades también juegan un rol fundamental en poder determinar de manera más rápida cuándo un sistema de ecuaciones lineales tiene solución, y tener otras alternativas para resolverlo bajo ciertas condiciones.

Tarea moral

  1. Aplica reducción gaussiana a las siguientes matrices:
    $$\begin{pmatrix} 5 & 2 \\ 13 & 5 \end{pmatrix},\quad \begin{pmatrix} 1 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix}.$$
  2. Resuelve el siguiente sistema de ecuaciones llevándolo a forma escalonada reducida, y luego aplicando a técnica de variables libres y pivote:
    $$\begin{cases} a + b + c + d + e &= -5\\2a+2b-3c-3d+e&=5 \\ a – b + c – d + e &= 0. \end{cases}$$
  3. Sea $I$ la matriz identidad de $n\times n$ y $A$ otra matriz de $n\times n$. Sea $E$ la matriz obtenida de aplicar una transvección a $I$. Sea $B$ la matriz de aplicar esa misma transvección a $A$. Demuestra que $EA=B$.
  4. Demuestra que una matriz $A$ de $2\times 2$ es invertible si y sólo si al aplicar reducción de Gauss-Jordan al final se obtiene la matriz identidad $I$. ¿Puedes hacerlo para matrices de $3\times 3$? ¿De $n\times n$?
  5. Sea $A$ una matriz de $2\times 2$ invertible. A $A$ le «pegamos» una identidad del mismo tamaño a la derecha para llegar a $(A|I)$, por ejemplo $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ se convertiría en $\begin{pmatrix} a & b & 1 & 0 \\ c & d & 0 & 1 \end{pmatrix}$. Muestra que si aplicamos reducción de Gauss-Jordan a $(A|I)$, se llega a $(I|A^{-1})$. Intenta extender tu demostración a matrices de $3\times 3$ ó $n\times n$.

Entradas relacionadas

Álgebra Lineal II: Unicidad de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan y demostramos la existencia de dicha forma bajo ciertas hipótesis. Como corolario, quedó pensar cuál es la versión para matrices. En esta entrada enunciamos la versión para matrices (totalmente equivalente a la de transformaciones lineales) y nos enfocamos en mostrar la unicidad de la forma canónica de Jordan.

Unicidad de la forma canónica de Jordan

El siguiente teorema es totalmente análogo al enunciado en la entrada anterior. Recuerda que $\leq$ es un orden total fijo de $F$ (en $\mathbb{R}$, es el orden usual).

Teorema. Sea $A$ una matriz $M_n(F)$ cuyo polinomio característico $\chi_A(X)$ se divide en $F$. Entonces, existen únicos valores $\lambda_1\leq \ldots \leq \lambda_n$ en $F$ y únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} para los cuales $A$ es similar a la siguiente matriz de bloques de Jordan:

$$\begin{pmatrix} J_{\lambda_1,k_1} & 0 & \cdots & 0 \\ 0 & J_{\lambda_2,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{\lambda_d,k_d}\end{pmatrix}.$$

Usaremos esta versión para demostrar la unicidad, lo cual también implicará la unicidad para la versión de transformaciones lineales.

Mediante la demostración de existencia de la entrada anterior, llegamos a que si el polinomio característico de $A$ es

$$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r},$$

entonces $A$ es similar a una matriz conformada por matrices de bloques de Jordan $J_1,J_2,\ldots,J_r$, en donde cada $J_i$ es de tamaño $m_i$ y de bloques de Jordan de eigenvalor $\lambda_i$.

Si $A$ fuera similar a otra matriz $K$ de bloques de Jordan, podríamos agrupar por eigenvalores de los bloques $\kappa_1< \ldots < \kappa_s$ en matrices de bloques de Jordan tamaños $o_1,\ldots,o_s$, digamos $K_1,\ldots,K_s$. El polinomio característico de $K$ sería entonces

$$\chi_{K}(X)=(X-\kappa_1)^{o_1}(X-\kappa_2)^{o_2}\cdots(X-\kappa_s)^{o_s}.$$

Pero $K$ es similar a $A$, y entonces deben tener el mismo polinomio característico, así que conciden en raíces y multiplicidad. Esto demuestra que $r=s$ y como los $\lambda_i$ y los $\kappa_i$ están ordenados, también demuestra las igualdades $\lambda_i=\kappa_i$ y $m_i=o_i$ para todo $i\in\{1,\ldots,r\}.$

Sólo nos queda argumentar la igualdad entre cada $J_i$ y $K_i$ para $i\in\{1,\ldots,r\}$. Pero ambas una forma canónica de Jordan para la transformación nilpotente que se obtiene de restringir $T_{A-\lambda_i I}$ a $\ker(T_{A-\lambda_i I}^{m_i})$. Por la unicidad que demostramos para la forma canónica de Jordan para transformaciones nilpotentes, concluimos que $J_i=K_i$. Esto termina la demostración de la unicidad de la forma canónica de Jordan.

$\square$

Una receta para encontrar la forma canónica de Jordan

Ya con el teorema demostrado, ¿cómo juntamos todas las ideas para encontrar la forma canónica de Jordan de una matriz $A$ en $M_n(F)$ cuyo polinomio característico se divida en $F$? Podemos proceder como sigue.

  1. Encontramos el polinomio característico $\chi_A(X)$ y su factorización, digamos $$\chi_A(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r}.$$
  2. Nos enfocamos en encontrar las matrices de bloque de Jordan $J_i$ para cada eigenvalor $\lambda_i$. Sabemos que la matriz $J_i$ será de tamaño $m_i$.
  3. Para saber exactamente cuál matriz de bloques de Jordan es $J_i$, pensaremos en que tiene $b_1,b_2,\ldots,b_{m_i}$ bloques de Jordan de eigenvalor $\lambda_i$ de tamaños $1,2, \ldots,m_i$. Consideramos la matriz $A_i=A-\lambda_i I$. Los $b_1,\ldots,b_{m_i}$ son la solución al siguiente sistema de ecuaciones en las variables $x_1,\ldots,x_{m_i}$.
    \begin{align*}
    m_i&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + m_i \cdot x_{m_i}\\
    m_i-n+\text{rango}(A_i-\lambda_i I)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (m_i-1) \cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (m_i-2)\cdot x_{m_i}\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (m_i-3)\cdot x_{m_i}\\
    &\vdots\\
    m_i-n+\text{rango}({A_i-\lambda_i I}^{m_i-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_{m_i}.
    \end{align*}
  4. Juntamos todos los $J_i$ en una misma matriz y los ordenamos apropiadamente.

El paso número $3$ está motivado por lo que sabemos de las matrices nilpotentes, y es bueno que pienses por qué se estudia específicamente ese sistema de ecuaciones para cada eigenvalor $\lambda_i$ y multiplicidad $m_i$.

Ejemplo de obtener la forma canónica de Jordan

Veamos un ejemplo del procedimiento descrito en la sección anterior.

Ejemplo. Encontraremos la forma canónica de Jordan de la siguiente matriz: $$A=\begin{pmatrix}-226 & -10 & -246 & 39 & 246\\234 & 23 & 236 & -46 & -236\\-198 & -20 & -192 & 41 & 195\\-93 & 10 & -122 & 10 & 122\\-385 & -30 & -393 & 74 & 396\end{pmatrix}.$$

Con herramientas computacionales, podemos darnos cuenta de que el polinomio característico de esta matriz es $$\chi_A(X)=X^{5} – 11 X^{4} + 46 X^{3} – 90 X^{2} + 81 X- 27.$$

Este polinomio se puede factorizar como $$(X-1)^2(X-3)^3.$$ Así, la submatriz de bloques de Jordan $J_1$ de eigenvalor $1$ tendrá tamaño $2$ y la $J_3$ de eigenvalor $3$ tendrá tamaño $3$. Pero, ¿de qué tamaño son cada uno de los bloques de Jordan en cada una de estas matrices?

Para respondernos esto para $J_1$, notamos que sus bloques son de tamaño $1$ y $2$ solamente. Si hay $b_1$ bloques de tamaño $1$ y $b_2$ bloques de tamaño $2$, por la teoría desarrollada arriba tendremos:

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-5+\text{rango}(A-I)=2-5+4=1.
\end{align*}

El rango de $A-I$ lo obtuvimos computacionalmente, pero recuerda que también puede ser obtenido con reducción gaussiana. Resolviendo el sistema, $b_2=1$ y entonces $b_1=0$. Concluimos que en $J_1$ hay un bloque de Jordan de tamaño $2$.

Para $J_3$, reciclemos las variables $b_i$ (para no introducir nuevas). Los bloques pueden ser de tamaño $1,2,3$. Supongamos que de estos tamaños respectivamente hay $b_1,b_2,b_3$ bloques. Los $b_i$ cumplen:

\begin{align*}
b_1+2b_2+3b_3&=3\\
b_2+2b_3&=3-5+\text{rango}(A-3I)=3-5+3=1\\
b_3&=3-5+\text{rango}((A-3I)^2)=3-5+2=0.
\end{align*}

Así, $b_3=0$, y en consecuencia $b_2=1$ y entonces $b_1=1$. Concluimos que $J_3$ tiene un bloque de tamaño $1$ y uno de tamaño $3$. Por lo tanto, la forma canónica de Jordan de $A$ es:

$$\begin{pmatrix} J_1 & 0 \\ 0 & J_3 \end{pmatrix} = \begin{pmatrix} J_{1,2} & 0 & 0 \\ 0 & J_{3,1} & 0 \\ 0 & 0 & J_{3,2} \end{pmatrix} = \begin{pmatrix}1 & 1 & 0 & 0 & 0\\0 & 1 & 0 & 0 & 0\\0 & 0 & 3 & 0 & 0\\0 & 0 & 0 & 3 & 1\\0 & 0 & 0 & 0 & 3\end{pmatrix}$$

$\triangle$

Otro problema sobre forma canónica de Jordan

La receta anterior funciona en general y da la forma canónica de Jordan. Esto es algo que probablemente en la práctica en aplicaciones no tendrás que hacer manualmente nunca, pues hay herramientas computacionales que te pueden ayudar. Sin embargo, es importante entender con profundidad el teorema y la receta de manera teórica, pues hay problemas conceptuales en los que no podrás usar herramientas computacionales. A continuación veremos un ejemplo.

Problema. Sea $A$ una matriz en $M_6(\mathbb{R})$ con polinomio característico $$\chi_A(X)=X^6-2X^4+X^2.$$

  • ¿Cuántas posibilidades hay para la forma canónica de Jordan de $A$?
  • Demuestra que si el rango de $A$ es $5$, entonces $A$ no es diagonalizable.

Solución. Podemos factorizar el polinomio característico de $A$ como sigue:

$$\chi_A(X)=X^2(X+1)^2(X-1)^2.$$

Así, la forma canónica de Jordan está conformada por una matriz de bloques de Jordan $J_0$ de eigenvalor $0$ y tamaño $2$; una $J_1$ de eigenvalor $1$ y tamaño $2$; y una $J_{-1}$ de eigenvalor $-1$ y tamaño $2$.

Cada $J_i$ tiene dos chances: o es un bloque de Jordan de tamaño $2$, o son dos bloques de Jordan de tamaño $1$. Así, en total tenemos $2\cdot 2 \cdot 2=8$ posibilidades.

Si $A$ es de rango $5$, entonces tendríamos en las cuentas de cantidad de bloques $b_1$ y $b_2$ para eigenvalor $0$ que

\begin{align*}
b_1+2b_2&=2\\
b_2&=2-6+\text{rango}(A)=2-6+5=1,
\end{align*}

de donde en $J_0$ tendría $1$ bloque de tamaño $2$ y ninguno de tamaño $1$. Si $A$ fuera diagonalizable, su diagonalización sería una forma canónica de Jordan donde para eigenvalor $0$ se tendrían $2$ bloques de tamaño $1$ y ninguno de tamaño $2$. Así, $A$ tendría dos formas canónicas de Jordan distintas, lo cual es imposible.

$\square$

Más adelante…

Con esta entrada terminamos de demostrar el teorema de la forma canónica de Jordan, uno de los teoremas más bonitos de álgebra lineal. ¿Te das cuenta de todo lo que utilizamos en su demostración? Forma matricial de transformaciones lineales, el teorema de Cayley-Hamilton, polinomio característico, subespacios estables, teoría de dualidad, sistemas de ecuaciones lineales, resultados auxiliares de polinomios, etc. Es un resultado verdaderamente integrador.

En la siguiente entrada, la última del curso, hablaremos de algunas de las consecuencias del teorema de la forma canónica de Jordan. Discutiremos cómo lo podemos utilizar para clasificar a las matrices por similaridad. Veremos una aplicación con respecto a una matriz y su transpuesta. También, esbozaremos un poco de por qué en cierto sentido el resultado no sólo vale para las matrices cuyo polinomio se divide sobre el campo, sino que para cualquier matriz. Con ello terminaremos el curso.

Tarea moral

  1. Calcula la forma canónica de Jordan $J$ de la matriz $$A=\begin{pmatrix} 1 & 0 & -3 \\ 1 & -1 & -6 \\ -1 & 2 & 5 \end{pmatrix}.$$ Además de encontrar $J$, encuentra de manera explícita una matriz invertible $P$ tal que $A=P^{-1}JP$.
  2. Calcula la forma canónica de Jordan de la matriz $$\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 2 \end{pmatrix}$$
  3. Explica y demuestra cómo obtener lo siguiente para una matriz de bloques de Jordan:
    • Su polinomio característico.
    • Su polinomio mínimo.
    • Su determinante.
    • Su traza.
    • Sus eigenespacios.
  4. Justifica con más detalle por qué la receta que se propone para calcular la forma canónica de Jordan en efecto funciona. Necesitarás varios de los argumentos que dimos en la entrada anterior.
  5. Demuestra que una matriz $A\in M_n(F)$ para la cual su polinomio característico se divide en $F$ es diagonalizable si y sólo si cada bloque de cada matriz de bloques de la forma canónica de Jordan tiene tamaño $1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»