Archivo de la etiqueta: matrices

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que $V$ es un espacio vectorial de dimensión $n$ y que $W$ es un espacio vectorial sobre el mismo campo que $V$. Una transformación lineal $T:V\to W$ puede «guardar mucha independencia lineal» o «muy poquita». Si $T$ es inyectiva, ya vimos antes que $T$ manda linealmente independientes a linealmente independientes. Si $T$ es la transformación $0$, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}^3$. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano $xy$, entonces «perdemos» al vector $(0,0,1)$, pues se va al $(0,0,0)$. Si es la proyección al eje $x$, «perdemos» al $(0,1,0)$ y al $(0,0,1)$ pues ambos se van a $(0,0,0)$. Y si es la transformación $0$, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango $3$, $2$, $1$ y $0$ respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo $F$.

Definición. Sean $V$ y $W$ espacios de dimensión finita. El rango de una transformación lineal $T:V\to W$ es la dimensión de la imagen de $T$, es decir, $$\rank(T)=\dim\Ima T.$$

Si $B$ es una base de $V$, entonces genera a $V$. La transformación $T$ es suprayectiva de $V$ a $\Ima T$, de modo que $T(B)$ es generador de $\Ima T$. De esta forma, para encontrar el rango de una transformación lineal $T:V\to W$ basta:

  • Tomar una base $B$ de $V$.
  • Aplicar $T$ a cada elemento de $B$.
  • Determinar un conjunto linealmente independiente máximo en $T(B)$.

Para hacer este último paso, podemos poner a los vectores coordenada de $T(B)$ con respecto a una base de $W$ como los vectores fila de una matriz $A$ y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de $T$ es el número de vectores fila no cero en la forma escalonada reducida $A_{\text{red}}$ de $A$.

Ejemplo. Encuentra el rango de la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$

Solución. Tomemos $e_1,e_2,e_3$ la base canónica de $\mathbb{R}^3$. Tenemos que $T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}$, $T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix}$ y $T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}$.

Tomando la base canónica $E_{11},E_{12},E_{21},E_{22}$ de $M_2(\mathbb{R})$, podemos entonces poner a las coordenadas de $T(e_1),T(e_2),T(e_2)$ como vectores fila de una matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.$$ Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.$$ De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es $2$.

$\triangle$

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean $U$, $V$ y $W$ espacios de dimensión finita. Sean $S:U\to V$, $T:V\to W$, $T’:V\to W$ transformaciones lineales. Entonces:

  1. $\rank(T)\leq \dim V$
  2. $\rank(T)\leq \dim W$
  3. $\rank(T\circ S)\leq \rank(T)$
  4. $\rank(T\circ S)\leq \rank(S)$
  5. $\rank(T+T’)\leq \rank(T) + \rank(T’)$

Demostración. (1) Pensemos a $T$ como una transformación $T:V\to \Ima(T)$. Haciendo esto, $T$ resulta ser suprayectiva, y por un resultado anterior tenemos que $\dim V\geq \dim \Ima T = \rank (T)$.

(2) Sabemos que $\Ima (T)$ es un subespacio de $W$, así que $\rank(T)=\dim \Ima T \leq \dim W$.

(3) La imagen de $T$ contiene a la imagen de $T\circ S$, pues cada vector de la forma $T(S(v))$ es de la forma $T(w)$ (para $w=S(v)$). Así, \begin{align*}\rank(T) &=\dim \Ima T \geq \dim \Ima T\circ S\\ &= \rank (T\circ S).\end{align*}

(4) La función $T\circ S$ coincide con la restricción $T_{\Ima S}$ de $T$ a $\Ima S$. Por el inciso (1), $\rank(T_{\Ima S})\leq \dim \Ima S = \rank(S)$, así que $\rank (T\circ S) \leq \rank(S)$.

(5) Tenemos que $\Ima (T+T’) \subseteq \Ima T + \Ima T’$. Además, por un corolario de la fórmula de Grassman, sabemos que
\begin{align*}
\dim (\Ima T + \Ima T’)&\leq \dim \Ima T + \dim \Ima T’\\
&= \rank(T) + \rank(T’).
\end{align*}

Así,
\begin{align*}
\rank(T+T’)&\leq \rank(\Ima T + \Ima T’)\\
&\leq \rank(T)+\rank(T’).
\end{align*}

$\square$

Proposición. Sean $R:U\to V$, $T:V\to W$ y $S:W\to Z$ transformaciones lineales con $R$ suprayectiva y $S$ inyectiva. Entonces $$\rank(S\circ T\circ R)=\rank (T).$$

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que $\rank(S\circ T)\leq \rank (T)$. La restricción $S_{\Ima T}$ de $S$ a la imagen de $T$ es una transformación lineal de $\Ima T$ a $\Ima (S\circ T)$ que es inyectiva, de modo que $\dim \Ima T \leq \dim \Ima (S\circ T)$, que es justo $\rank(T)\leq \rank(S\circ T)$, de modo que tenemos la igualdad $\rank(S\circ T)=\rank (T)$.

Como $R$ es suprayectiva, $\Ima R= V$, de modo que $\Ima(S\circ T \circ R)=\Ima(S\circ T)$. Así, \begin{align*}\rank (S\circ T \circ R) &= \rank (S\circ T)\\&=\rank(T).\end{align*}

$\square$

Teorema de rango-nulidad

Una transformación lineal $T:V\to W$ determina automáticamente dos subespacios de manera natural: el kernel $\ker T$ y la imagen $\Ima T$. Resulta que las dimensiones de $\ker T$, de $\Ima T$ y de $V$ están fuertemente relacionadas entre sí.

Teorema. Sean $V$ y $W$ espacios de dimensión finita. Sea $T:V\to W$ una transformación lineal. Entonces $$\dim\ker T + \rank(T) = \dim V.$$

Demostración. Supongamos que $\dim V=n$ y $\dim \ker T = k$. Queremos mostrar que $\rank(T)=n-k$. Para ello, tomemos una base $B$ de $\ker T$ y tomemos $B’=\{v_1,\ldots,v_{n-k}\}$ tal que $B\cup B’$ sea base de $V$. Basta mostrar que $T(B’)=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T$ es base de $\Ima T$. Sea $U$ el generado por $B’$, de modo que $V=U \oplus \ker T$.

Veamos que $T(B’)$ es generador de $\Ima T$. Tomemos $T(v)$ en $\Ima T$. Podemos escribir $v=z+u$ con $z\in \ker T$ y $u\in U$. Así, $T(v)=T(z)+T(u)=T(u)$, y este último está en el generado por $T(B’)$.

Ahora veamos que $T(B’)$ es linealmente independiente. Si $$\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,$$ entonces $T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0$, de modo que $\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k}$ está en $U$ y en $\ker T$, pero la intersección de estos espacios es $\{0\}$. Como esta combinación lineal es $0$ y $B’$ es linealmente independiente, $\alpha_1=\ldots=\alpha_n=0$.

De esta forma, $T(B’)$ es linealmente independiente y genera a $\Ima T$, de modo que $\rank(T) =|B’|=n-k$.

$\square$

Ejemplo. Consideremos de nuevo la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$ Muestra que $T$ no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango $2$. Por el teorema de rango-nulidad, su kernel tiene dimensión $1$. Así, hay un vector $v\neq (0,0,0)$ en el kernel, para el cual $T(v)=0=T(0)$, de modo que $T$ no es inyectiva.

$\square$

Problema. Demuestra que para cualquier entero $n$ existe una terna $(a,b,c)\neq (0,0,0)$ con $a+b+c=0$ y tal que $$\int_0^1 at^{2n}+bt^n+c \,dt = 0.$$

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales $T:\mathbb{R}^3\to \mathbb{R}$ y $S:\mathbb{R}^3\to \mathbb{R}$ dadas por
\begin{align*}
T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\
S(x,y,z)&=x+y+z.
\end{align*}
Notemos que $T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1)$, de modo que ni $T$ ni $S$ son la transformación $0$. Como su rango puede ser a lo más $\dim\mathbb{R}=1$, entonces su rango es $1$. Por el teorema de rango-nulidad, $\dim \ker S= \dim \ker T = 2$. Como ambos son subespacios de $\mathbb{R}^3$, es imposible que $\ker S \cap \ker T=\{0\}$, de modo que existe $(a,b,c)$ no cero tal que $T(a,b,c)=S(a,b,c)=0$. Esto es justo lo que buscábamos.

$\square$

Rango para matrices

Definición. El rango de una matriz $A$ en $M_{m,n}(F)$ es el rango de la transformación lineal asociada de $F^n$ a $F^m$ dada por $X\mapsto AX$. Lo denotamos por $\rank(A)$.

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz $A$ en $M_{m,n}(F)$, podemos aplicar esta idea con los vectores $e_1,\ldots,e_n$ de la base canónica de $F^{n}$. Como hemos visto con anterioridad, para cada $i=1,\ldots, n$ tenemos que el vector $Ae_i$ es exactamente la $i$-ésima columna de $A$. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^m$ generado por sus vectores columna.

Problema. Determina el rango de la matriz $$\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.$$

Solución. Como es una matriz con $3$ filas, el rango es a lo más $3$. Notemos que entre las columnas están los vectores $(3,0,0)$, $(0,2,0)$ y $(0,0,-2)$, que son linealmente independientes. De esta forma, el rango de la matriz es $3$.

$\triangle$

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices $A$, $B$ en $M_n(F)$ se tiene que $$\rank(AB)\geq \rank(A)+\rank(B)-n.$$

Solución. Tomemos $T_1:F^n\to F^n$ y $T_2:F^n\to F^n$ tales que $T_1(X)=AX$ y $T_2(X)=BX$. Lo que tenemos que probar es que $$\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) – n.$$

Consideremos $S_1$ como la restricción de $T_1$ a $\Ima T_2$. Tenemos que $\ker S_1 \subset \ker T_1$, así que $\dim \ker S_1 \leq \dim \ker T_1$. Por el teorema de rango-nulidad en $S_1$, tenemos que
\begin{align*}
rank(T_2) &= \dim \Ima T_2 \\
&= \dim \ker S_1 + \rank(S_1) \\
&= \dim \ker S_1 + \rank(T_1\circ T_2)\\
&\leq \dim \ker T_1 + \rank(T_1\circ T_2),
\end{align*} así que $$\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).$$

Por el teorema de rango-nulidad en $T_1$ tenemos que $$\dim \ker T_1 + \rank(T_1)=n.$$

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

$\square$

El teorema $PJQ$ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea $A$ una matriz en $M_{m,n}(F)$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P\in M_m(F)$ y $Q\in M_n(F)$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz en $M_{m,n}$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & 0 \\
0 & 0
\end{pmatrix}.$$

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema 1. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos $r$ al rango de $A$. Escribimos $A=PJ_rQ$ usando el teorema $PJQ$, con $P$ y $Q$ matrices invertibles. Tenemos que $^tA=^tQ\, ^tJ_r \,^tP$, con $^tQ$ y $^tP$ matrices invertibles. Además, $^t J_r$ es de nuevo de la forma de $J_r$. Así, por el teorema $PJQ$, tenemos que $^t A$ es de rango $r$.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^n$ generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema $PJQ$.

Problema 2. Muestra que una matriz $A$ de rango $r$ se puede escribir como suma de $r$ matrices de rango $1$. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos $A=PJ_rQ$ usando el teorema $PJQ$. Si definimos $A_i=PE_{ii}Q$ para $i=1,\ldots,r$, donde $E_{ii}$ es la matriz cuya entrada $(i,i)$ es uno y las demás cero, claramente tenemos que $J_r=E_{11}+E_{22}+\ldots+E_{rr}$, por lo que $$A=PJ_rQ=A_1+A_2+\ldots+A_r.$$ Además, como $E_{ii}$ es de rango $1$, por el teorema $PJQ$ cada matriz $A_i$ es de rango $1$.

Veamos que es imposible con menos. Si $B_1,\ldots,B_s$ son matrices de rango $1$, como el rango es subaditivo tenemos que $\rank (B_1+\ldots+B_s)\leq s$. Así, si sumamos menos de $r$ matrices, no podemos obtener a $A$.

$\square$

Más adelante…

Esta entrada es solamente una breve introducción al concepto de rango y a algunas propiedades que pueden ser de utilidad al momento de calcular el rango de una matriz o una transformación lineal. Más adelante, veremos que el rango de una matriz está también relacionado con las soluciones de su sistema lineal homogéneo asociado.

El teorema de rango-nulidad es fundamental para el álgebra lineal. Muchas veces necesitamos calcular el rango de la imagen de una transformación lineal, pero es mucho más fácil calcular la dimensión de su kernel. O viceversa. En estas situaciones es muy importante recordar la forma en la que dicho teorema las relaciona.

Con este tema termina la segunda unidad del curso. Ahora estudiaremos aspectos un poco más geométricos de espacios vectoriales. En la siguiente unidad, hablaremos de dualidad, ortogonalidad, formas bilineales y productos interiores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea $T$ una transformación de un espacio vectorial $V$ de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si $T$ es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz $$\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.$$
  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices $A_1,\ldots, A_n$ del mismo tamaño tenemos que $$\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).$$
  • Escribe la demostración de la última proposición de la sección del teorema $PJQ$
  • Revisa la demostración del teorema de descomposición $PJQ$ en el libro de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de cambio de base

Por Blanca Radillo

Introducción

En las entradas anteriores platicamos acerca de matrices de cambio de base. Vimos cómo nos ayudan a pasar un vector expresado en una base a otra. También vimos cómo nos ayudan a entender una transformación lineal en bases distintas. En esta entrada, veremos algunos ejemplos para repasar estos conceptos.

Problemas resueltos

Problema 1. Considera las familias de vectores $B=\{v_1,v_2,v_3\}$, $B’=\{w_1,w_2,w_3\}$, donde $$v_1=(0,1,1), \ v_2=(1,0,1), \ v_3=(1,1,0)$$ y $$w_1=(1,1,-1), \ w_2=(1,0,-1), \ w_3=(-1,-1,0).$$

  1. Prueba que $B$ y $B’$ son bases de $\mathbb{R}^3$.
  2. Encuentra la matriz de cambio de base $P$ de $B$ a $B’$ usando la definición de $P$.
  3. Encuentra la matriz de cambio de base $P$ usando la base canónica de $\mathbb{R}^3$ y la última proposición de esta entrada.

Solución. (1) Dado que $\dim \mathbb{R}^3=3$ y estas familias son de tres vectores, basta con demostrar que son vectores linealmente independientes. Una manera de hacerlo es formando la matriz obtenida al colocar a los vectores como renglones y reducirla hasta la matriz identidad $I_3$.

Para $B$, la matriz asociada es $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}.$$

Haciendo los cálculos de la reducción, obtenemos que

\begin{align*}
&\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}\\
\to&\begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & -1 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.
\end{align*}

Esto implica que los vectores en $B$ son linealmente independientes y, por lo tanto, forman una base $\mathbb{R}^3$.

Para $B’$, la matriz asociada es $$\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Reduciendo la matriz, tenemos que

\begin{align*}&\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 1 & -1 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.\end{align*}

Por lo tanto, $B’$ también es una base de $\mathbb{R}^3$.

(2) Recordemos que la matriz de cambio de base $P$ está definida como la matriz $[p_{ij}]$ cuya columna $j$ tiene como entradas a las coordenadas de $w_j$ escrito en términos de la base $B$. Entonces, expresemos

\begin{align*}
(1,1,-1)&=w_1=av_1+bv_2+cv_3=(b+c,a+c,a+b),\\
(1,0,-1)&=w_2=dv_1+ev_2+fv_3=(e+f,d+f,d+e),\\
(-1,-1,0)&=w_3=gv_1+hv_2+kv_3=(h+k,g+k,g+h),
\end{align*}

obteniendo que

\begin{align*}
b+c&=1\\
a+c&=1\\
a+b&=-1\\
e+f&=1\\
d+f&=0\\
d+e&=-1\\
h+k&=-1\\
g+k&=-1\\
g+h&=0.
\end{align*}

Si resolvemos el sistema anterior, concluimos que $a=b=-\frac{1}{2}$, $c=\frac{3}{2}$, $d=-1$, $e=0$, $f=1$, $g=h=0$, $k=-1$. Por lo tanto

$$P=\begin{pmatrix} a & d & g \\ b & e & h \\ c & f & k \end{pmatrix}= \begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}.$$

(3) Sea $B»=\{e_1,e_2,e_3\}$ la base canónica de $\mathbb{R}^3$. Queremos encontrar la matriz de cambio de base denotada como $\text{Mat}_B (B’)$. Usando la última proposición de la clase del lunes, tenemos que

$$\text{Mat}_B (B’)=\text{Mat}_{B} (B») \cdot \text{Mat}_{B»} (B’)=(\text{Mat}_{B»} (B))^{-1} \cdot \text{Mat}_{B»} (B’).$$

Por definición,

$$\text{Mat}_{B»} (B)=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}, \ \text{Mat}_{B»} (B’)=\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Para calcular $(\text{Mat}_{B»} (B))^{-1}$, lo haremos como ya lo hemos visto en clases: pegando a la derecha una matriz identidad y aplicando reducción gaussiana:

\begin{align*} &\left( \begin{array}{ccc|ccc} 0 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & -1 & 0 & -1 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 2 & 0 & 1 & -1 & 1 \\ 0 & 0 & 2 & 1 & 1 & -1 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -1/2 & 1/2 & 1/2 \\ 0 & 1 & 0 & 1/2 & -1/2 & 1/2 \\ 0 & 0 & 1 & 1/2 & 1/2 & -1/2 \end{array} \right).
\end{align*}

Por lo tanto, $$(\text{Mat}_{B»}(B))^{-1}=\begin{pmatrix} -1/2 & 1/2 & 1/2 \\ 1/2 & -1/2 & 1/2 \\ 1/2 & 1/2 & -1/2 \end{pmatrix}.$$

Finalmente, usando la proposición, tenemos que

$$P=\text{Mat}_B (B’)=\begin{pmatrix} -\frac{1}{2} & \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & -\frac{1}{2} \end{pmatrix}\cdot\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}$$

$$=\begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}. $$

Esto coincide con el cálculo que hicimos previamente.

$\square$

Problema 2. Considera la matriz $$A=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}$$

y sea $T:\mathbb{R}^3 \rightarrow \mathbb{R}^3$ la transformación lineal asociada, es decir $T(X)=AX$ para todo $X\in\mathbb{R}^3$. Considera los vectores

$$v_1=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}.$$

  1. Prueba que $v_1,v_2,v_3$ forman una base de $\mathbb{R}^3$ y calcula la matriz de $T$ con respecto a esta base.
  2. Encuentra la matriz de cambio de base de la base canónica a la base $\{v_1,v_2,v_3\}$.
  3. Calcula $A^n$ para todo entero positivo $n$.

Antes de ver la solución a este problema este problema, observa que sería muy difícil decir quién es $A^{100}$ «a mano» si procedes directamente. Se tendrían que hacer muchas multiplicaciones matriciales, que son difíciles. Ten en mente esto cuando leas la solución de la parte 3.

Solución. (1) Dado que la dimensión de $\mathbb{R}^3$ es 3 y $\{v_1,v_2,v_3\}$ son tres vectores, basta con demostrar que éstos son linealmente independientes para probar que forman una base. Sean $a,b,c\in\mathbb{R}$ tales que $av_1+bv_2+cv_3=0$, entonces

\begin{align*}
&a+b+c=0, \ a-c=0, \ -a-b=\\
\Rightarrow &a=c, -a=b, a-a+a=0 \\
\Rightarrow &a=0, c=0, b=0.
\end{align*}

Entonces, son linealmente independientes y, por lo tanto, forman una base de $\mathbb{R}^3$.

Nota: Otra manera de demostrarlo es considerar la matriz formada por los vectores $v_1,v_2,v_3$ como sus columnas, reducirla y llegar a que la matriz reducida es la matriz identidad.

Ahora, para calcular la matriz de $T$ con respecto a la nueva base, expresaremos $T(v_1),T(v_2), T(v_3)$ en términos de $v_1,v_2,v_3$. Entonces tenemos que

$$T(v_1)=Av_1=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=v_1,$$

$$T(v_2)=Av_2=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}=\begin{pmatrix} 2 \\ 0 \\ -2 \end{pmatrix}=2v_2,$$

$$T(v_3)=Av_3=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}=\begin{pmatrix} 3 \\ -3 \\ 0 \end{pmatrix}=3v_3.$$

Por lo tanto, la matriz que buscamos es $$B=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

(2) Lo haremos de la misma manera que en el inciso (2) del problema anterior, que consiste en escribir a los $v_1,v_2,v_3$ en la base canónica, pero ésto es obvio ya que están escritos de esa manera, por lo tanto $$P=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

(3) Sabemos que la matriz de $T$ con respecto a $v_1,v_2,v_3$ (que nombramos en el inciso (1) como $B$) es igual a $P^{-1}AP$, gracias al último corolario de la sección «Matrices de cambio de base y transformaciones lineales» de la entrada anterior. Entonces $$P^{-1}AP=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

Es fácil ver (pero lo pueden demostrar por inducción en $n$) que $$(P^{-1}AP)^n=(P^{-1}AP)(P^{-1}AP)\dots (P^{-1}AP)=P^{-1}A^n P.$$

Esto implica que $P^{-1}A^n P=B^n$, es decir $$P^{-1}A^n P=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}.$$

Multiplicando por $P$ a la izquierda y por $P^{-1}$ a la derecha, obtenemos que $$A^n=P\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}P^{-1} .$$

Para ello, nos falta calcular la inversa de $P$, y eso lo haremos como siempre lo hemos hecho: reduciendo la matriz. Entonces

\begin{align*} &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & -1 & 0 & 1 & 0 \\ -1 & -1 & 0 & 0 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 1 & -1 & 0 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 1 & 1 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right). \end{align*}

Como consecuencia, tenemos que $$P^{-1}=\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}.$$

Por lo tanto,

\begin{align*}
A^n &=P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix} P^{-1}\\
&=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}
\end{align*}

$$A^n= \begin{pmatrix} 1-2^n+3^n & 1-2^n & 1-2^{n+1}+3^n \\ 1-3^n & 1 & 1-3^n \\ 2^n-1 & 2^n-1 & 2^{n+1}-1 \end{pmatrix}.$$

$\square$

El ejercicio anterior deja una moraleja importante de álgebra lineal: si tenemos una matriz $A$ y logramos encontrar una matriz diagonal $B$ similar a ella, entonces será fácil encontrar $A^n$. Para finalizar esta sesión, tenemos el siguiente problema.

Problema 3. Prueba que las matrices $$A=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \text{y} \ B=\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}$$ son similares.

Solución. Para resolverlo usaremos el corolario de la entrada anterior. Al escribirlo en este contexto, dice lo siguiente:

Corolario. Sea $T:\mathbb{R}^4\rightarrow \mathbb{R}^4$ una transformación lineal. Sean $B’$ y $B»$ bases de $\mathbb{R}^4$ y $P$ la matriz de cambio de base de $B’$ a $B»$. Entonces $\text{Mat}_{B»}(T)=P^{-1} \text{Mat}_{B’}(T) P.$

Si podemos encontrar una transformación $T$ y bases $B’$ y $B»$ tales que $\text{Mat}_{B’}(T)=A$ y $\text{Mat}_{B»} (T)=B$, podemos calcular la matriz de cambio de base $P$, y satisface que $B=P^{-1}AP$, implicando que $A$ y $B$ sean matrices similares. Entonces, el problema se reduce a encontrar la transformación, las bases y calcular $P$.

Dado que $\text{Mat}_{B’}(T)=A$, si $B’$ es la base canónica, es claro que la transformación $T$ satisface que $T(X)=AX$ para todo $X\in\mathbb{R}^4$.

Ahora, encontremos $B»$. Sea $B»=\{ v_1,v_2,v_3,v_4 \}$ con

$$v_1=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix}, v_2=\begin{pmatrix} x_2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix}, v_3=\begin{pmatrix} x_3 \\ y_3 \\ z_3 \\ w_3 \end{pmatrix}, v_4=\begin{pmatrix} x_4 \\ y_4 \\ z_4 \\ w_4 \end{pmatrix}.$$

Dado que $\text{Mat}_{B»}(T)=B$, entonces satisface

$$T(v_1)=Av_1=v_1, \ T(v_2)=Av_2=2v_1+v_2,$$

$$T(v_3)=Av_3=3v_1+2v_2+v_3, \ T(v_4)=Av_4=4v_1+3v_2+2v_3+v_4.$$

Resolviendo lo anterior, obtenemos que

$$Av_1=\begin{pmatrix} x_1+y_1 \\ y_1+z_1 \\ z_1+w_1 \\ w_1 \end{pmatrix}=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix} \ \Rightarrow \ v_1=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_2=\begin{pmatrix} x_2+y_2 \\ y_2+z_2 \\ z_2+w_2 \\ w_2 \end{pmatrix}=\begin{pmatrix} x_2+2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix} \ \Rightarrow \ v_2=\begin{pmatrix} 1 \\ 2 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_3=\begin{pmatrix} x_3+y_3 \\ y_3+z_3 \\ z_3+w_3 \\ w_3 \end{pmatrix}=\begin{pmatrix} x_3+5 \\ y_3+4 \\ z_3 \\ w_3 \end{pmatrix} \ \Rightarrow \ v_3=\begin{pmatrix} 1 \\ 5 \\ 4 \\ 0 \end{pmatrix},$$

y por último

$$Av_4=\begin{pmatrix} x_4+y_4 \\ y_4+z_4 \\ z_4+w_4 \\ w_4 \end{pmatrix}=\begin{pmatrix} x_4+9 \\ y_4+16 \\ z_4+8 \\ w_4 \end{pmatrix} \ \Rightarrow \ v_4=\begin{pmatrix} 1 \\ 9 \\ 16 \\ 8 \end{pmatrix}$$

Aquí estamos usando que los sistemas de ecuaciones que se obtienen tienen como variables libres a $x_1,x_2,x_3,x_4$, las cuales las estamos tomando todas ellas iguales a $1$.

Estos vectores son linealmente independientes pues la matriz con ellos como columnas es triangular superior con entradas en la diagonal distintas de cero, de modo que su matriz reducida es la identidad. Como $\mathbb{R}^4$ es de dimensión $4$ y $B»$ es un conjunto de cuatro vectores linealmente independientes, entonces $B»$ es una base. Más aún, $B»$ es una base tal que $\text{Mat}_{B»} (T)=B$, por construcción.

Finalmente, podemos calcular la matriz de cambio de base $P$ de $B’$ a $B»$, pero es fácil ya que $B’$ es la base canónica, entonces $$P=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por propiedades de la matriz de cambio de base, sabemos que $P$ es invertible. Entonces, para terminar la prueba, podemos encontrar $P^{-1}$ y verificar que $B=P^{-1}AP$, o simplemente verificamos que $PB=AP$, y por lo tanto $A$ y $B$ son matrices similares. Lo haremos de la segunda manera. En efecto,

$$PB=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}$$

$$AP=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por lo tanto, $A$ y $B$ son matrices similares.

Nota: si calculas la inversa de $P$, obtienes como resultado que $$P^{-1}=\begin{pmatrix} 1 & -\frac{1}{2} & \frac{3}{8} & -\frac{5}{16} \\ 0 & \frac{1}{2} & -\frac{5}{8} & \frac{11}{16} \\ 0 & 0 & \frac{1}{4} & -\frac{1}{2} \\ 0 & 0 & 0 & \frac{1}{8} \end{pmatrix}.$$

$\square$

Entradas relacionadas


Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Cambio de base de transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases $B_1$ y $B_2$ de un espacio vectorial $V$ y que tomamos un vector $v$ en $V$. Si ya sabemos la combinación lineal de elementos de $B_1$ que da $v$, ¿cómo podemos saber la combinación lineal de elementos de $B_2$ que da $v$? En otras palabras, ¿cómo podemos pasar a $v$ de su expresión en base $B_1$ a su expresión en base $B_2$?
  • Supongamos que tenemos una transformación lineal $T:V\to W$ entre dos espacios vectoriales $V$ y $W$, dos bases $B_1$ y $B_2$ de $V$ y dos bases $C_1$ y $C_2$ de $W$. Si ya sabemos qué le hace $T$ a los elementos de $V$ en términos de las bases $B_1$ y $C_1$, ¿cómo podemos saber qué hace $T$ en términos de las bases $B_2$ y $C_2$?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea $T:V\to W$ una transformación lineal entre espacios de dimensión finita $V$ y $W$. Sean $B_1$ y $B_2$ bases de $V$, y $C_1$ y $C_2$ bases de $W$. Entonces $$\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).$$

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho «van apareciendo las bases» en el «orden natural» $C_2$, $C_1$, $B_1$, $B_2$.

Demostración. Sean $P=\Mat_{C_1}(C_2)$ y $Q=\Mat_{B_1}(B_2)$. Por un resultado de la entrada anterior, $P$ es la matriz que representa a la transformación identidad en $W$ con respecto a las bases $C_1$ y $C_2$, es decir, $P=\Mat_{C_1,C_2}(\text{id}_W)$.

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que $\text{id}_W\circ T=T$, tenemos que $$\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).$$

De manera análoga, $Q$ es la matriz que representa a la transformación identidad en $V$ con respecto a las bases $B_1$ y $B_2$, de donde tenemos que $$\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).$$

De esta forma, $$P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.$$ El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por $P^{-1}=\Mat_{C_2}(C_1)$.

$\square$

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea $T:V\to V$ una transformación lineal de un espacio vectorial $V$ de dimensión finita a sí mismo. Sean $B$ y $B’$ bases de $V$ y $P$ la matriz de cambio de base de $B$ a $B’$. Entonces $$\Mat_{B’}(T)=P^{-1}\Mat_{B}(T)P.$$

Matrices similares

Definición. Decimos que dos matrices $A$ y $B$ en $M_{n}(F)$ son similares o conjugadas si existe una matriz invertible $P$ en $M_n(F)$ tal que $B=P^{-1}AP$.

En otras palabras, $A$ y $B$ son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación «ser similares» es una relación de equivalencia en $M_n(F)$.

Demostración. Toda matriz es similar a sí misma usando $P=I_n$, la identidad. Si $A$ y $B$ son similares con matriz invertible $P$, entonces $B$ y $A$ son similares con matriz invertible $P^{-1}$. Si $A$ y $B$ son similares con matriz invertible $P$ y $B$ y $C$ son similares con matriz invertible $Q$, notemos que $A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP)$, de modo que $A$ y $C$ son similares con matriz invertible $QP$.

$\square$

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz $A$ «complicada» y de ahí encontrar una matriz similar $B$ «más simple», y usar $B$ para encontrar propiedades de $A$.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si $A$ y $B$ son matrices similares con $A=P^{-1}BP$, entonces $A^n=P^{-1}B^nP$.

Si $B$ fuera una matriz diagonal, entonces es fácil encontrar $B^n$: basta con elevar cada una de las entradas de su diagonal a la $n$ (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar $A^n$: basta con encontrar $B^n$, y luego hacer dos multiplicaciones de matrices más, por $P^{-1}$ a la izquierda y por $P$ a la derecha.

Más adelante…

En estas últimas dos entradas aprendimos a hacer «cambios de base», tanto para coordenadas, como para formas matriciales. También, introdujimos el concepto de similitud de matrices. Cuando $A$ es una matriz similar a una matriz diagonal, decimos que $A$ es diagonalizable. Que una matriz sea diagonalizable trae muchas ventajas. Como ya mencionamos, una de ellas es poder elevar la matriz a potencias de manera sencilla. Otra ventaja es que en las matrices diagonalizables es sencillo calcular rangos, determinantes y otras invariantes de álgebra lineal.

Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables. El teorema principal del curso (el teorema espectral), consistirá en mostrar que toda matriz simétrica con entradas reales es diagonalizable mediante matrices ortogonales. Para poder demostrarlo, necesitaremos primero estudiar teoría geométrica de espacios vectoriales y teoría de determinantes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera $\mathbb{R}[x]_2$ de polinomios con coeficientes reales y grado a lo más dos. Sea $T: \mathbb{R}[x]_2$ la transformación tal que $T(p)=p’$, el polinomio derivado. Encuentra la matriz que representa a la transformación en la base $\{1+x+x^2,1+2x,1\}$ y la matriz que representa a la transformación en la base $\{1,x,x^2\}$. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean $A$ y $B$ matrices similares. Muestra que $A$ es invertible si y sólo si $B$ lo es.
  • Sean $A$ y $B$ matrices similares. Muestra que $A$ y $B$ tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas $A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}$. Encuentra $A^{105}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de transformaciones lineales, vectores independientes y forma matricial

Por Ayax Calderón

Introducción

En esta entrada resolveremos algunos problemas acerca de transformaciones lineales, de su efecto en conjuntos generadores, independientes y bases, y de la forma matricial de transformaciones lineales.

Problemas resueltos

El siguiente problema es para repasar qué le hace una transformación lineal a una combinación lineal, y cómo podemos usar este hecho para saber cuánto vale una transformación lineal evaluada en un vector, sabiendo qué le hace a los elementos de una base.

Problema 1. Sean $$v_1=(1,0,0), v_2=(1,1,0), v_3=(1,1,1),$$

y sea $T:\mathbb{R}^3\to \mathbb{R}^2$ una transformación lineal tal que \begin{align*}T(v_1)&=(3,2)\\ T(v_2)&=(-1,2)\\ T(v_3)&=(0,1).\end{align*}

Calcula el valor de $T(5,3,1)$.

Solución. Primero observemos que ${(1,0,0), (1,1,0), (1,1,1)}$ es una base de $\mathbb{R}^3$, entonces existen $a,b,c\in \mathbb{R}$ tales que $$(5,3,1)=a(1,0,0)+b(1,1,0)+c(1,1,1).$$
Si logramos expresar a $(5,3,1)$ de esta forma, después podremos usar que $T$ es lineal para encontrar el valor que queremos. Encontrar los valores de $a,b,c$ que satisfacen la ecuación anterior lo podemos ver como el sistema de ecuaciones $$\begin{pmatrix}
1 & 1 & 1\\
0 & 1 & 1\\
0 & 0 & 1\end{pmatrix} \begin{pmatrix}
a\\
b\\
c\end{pmatrix} = \begin{pmatrix}
5\\
3\\
1\end{pmatrix}.$$

Para resolver este sistema, consideramos la matriz extendida del sistema y la reducimos
\begin{align*} & \begin{pmatrix}
1 & 1 & 1 & 5\\
0 & 1 & 1 & 3\\
0 & 0 & 1 & 1\end{pmatrix} \\ \to &\begin{pmatrix}
1 & 0 & 0 & 2\\
0 & 1 & 1 & 3\\
0 & 0 & 1 & 1\end{pmatrix} \\ \to & \begin{pmatrix}
1 & 0 & 0 & 2\\
0 & 1 & 0 & 2\\
0 & 0 & 1 & 1\end{pmatrix}\end{align*}

Así, $a=2, b=2, c=1$.

Finalmente, usando que $T$ es transformación lineal,

\begin{align*}
T(5,3,1)&=T(2(1,0,0)+2(1,1,0)+(1,1,1))\\
&=2T(1,0,0)+2T(1,1,0)+T(1,1,1)\\
&=2(3,2)+2(-1,2)+(0,1)\\
&=(6,4)+(-2,4)+(0,1)\\
&=(4,9).
\end{align*}

$\triangle$

Veamos ahora un problema para practicar encontrar la matriz correspondiente a una base.

Problema 2. Sea $\mathbb{R}_n[x]$ el espacio de los polinomios de grado a lo más $n$ con coeficientes reales.

Considera la transformación lineal $T:\mathbb{R}_3[x]\to \mathbb{R}_2[x]$ dada por $T(p(x))=p'(x)$, es decir, aquella que manda a cada polinomio a su derivada.

Sean $\beta=(1,x,x^2,x^3)$ y $\gamma=(1,x,x^2)$ las bases canónicas ordenadas de $\mathbb{R}_3[x]$ y $\mathbb{R}_2[x]$, respectivamente. Encuentra la representación matricial de la transformación $T$.

Solución. Primero le aplicamos $T$ a cada uno de los elementos de $\beta$, que simplemente consiste en derivarlos. Obtenemos que:

$T(1)=0=0\cdot 1 + 0\cdot x + 0\cdot x^2$
$T(x)=1=1\cdot 1 + 0\cdot x + 0\cdot x^2$
$T(x^2)=2x=0\cdot 1 + 2\cdot x + 0\cdot x^2$
$T(x^3)=3x^2=0\cdot 1 + 0\cdot x + 3\cdot x^2$

Para construir la matriz de cambio de base, lo que tenemos que hacer es formar una matriz con cuatro columnas (una por cada elemento de la base $\beta$). La primera columna debe tener las coordenadas de $T(1)$ en la base $\gamma$. La segunda columna, las coordenadas de $T(x)$ en la base $\gamma$. Y así sucesivamente. Continuando de este modo, llegamos a que

$$\begin{pmatrix} 0 & 1 & 0 & 0\\ 0 & 0 & 2 & 0\\ 0 & 0 & 0 & 3\end{pmatrix}$$
es la forma matricial de $T$ con respecto a las bases canónicas.

$\triangle$

Finalmente, el siguiente problema combina muchas de las ideas relacionadas con la forma matricial de una transformación. Se recomienda fuertemente que lo leas con detenimiento. Es un ejemplo en el que encontramos tres formas matriciales: las de dos transformaciones y las de su composición. Después, se verifica que la de la composición en efecto es el producto de las correspondientes a las dos transformaciones.

Problema 3. Considera las transformaciones

\begin{align*}
T:\mathbb{R}^3&\to \mathbb{R}_2[x]\quad\text{y}\\
S:\mathbb{R}_2[x] &\to M_2(\mathbb{R})
\end{align*}

dadas por

\begin{align*}
T(a,b,c)&=a+2bx+3cx^2\quad \text{y}\\
S(a+bx+cx^2)&=\begin{pmatrix}
a & a+b\\
a-c & b\end{pmatrix}.
\end{align*}

Consideramos la base ordenada $B_1=(1,x,x^2)$ de $\mathbb{R}_2[x]$, la base canónica ordenada $B_2$ de $\mathbb{R}^3$ y la base ordenada $B_3=(E_{11}, E_{12}, E_{21}, E_{22})$ de $M_2(\mathbb{R})$.

  1. Verifica que $T$ y $S$ son transformaciones lineales.
  2. Escribe las matrices asociadas a $T$ y $S$ con respecto a las bases dadas.
  3. Encuentra la matriz asociada a la composición $S\circ T$ con respecto a las bases anteriores usando el resultado que dice que es el producto de las dos matrices que ya encontraste.
  4. Calcula explícitamente $S\circ T$, después encuentra directamente su matriz asociada con respecto a las bases anteriores y verifica que el resultado obtenido aquí es el mismo que en el inciso anterior.

Solucion. 1. Sea $u\in \mathbb{R}$ y sean $(a,b,c), (a’,b’,c’)\in \mathbb{R}^3$.
Entonces

\begin{align*}
T(u&(a,b,c)+(a’,b’,c’))\\
&=T(au+a’,bu+b’,cu+c’)\\
&=(au+a’)+2(bu+b’)x+3(cu+c’)x^2\\
&=u(a+2bx+3cx^2)+(a’+2b’x+3c’x^2)\\
&=uT(a,b,c)+T(a’,b’,c’).
\end{align*}

Así, $T$ es lineal.

Ahora, sea $u\in \mathbb{R}$ y sean $a+bx+cx^2, a’+b’x+c’x^2\in \mathbb{R}_2[x]$.
Entonces

\begin{align*}
S(u&(a+bx+cx^2)+(a’+b’x+c’x^2))\\
&=S(ua+a’+(ub+b’)x+(uc+c’)x^2)\\
&=\begin{pmatrix}
ua+a’ & (ua+a’)+(ub+b’)\\
ua+a’-(uc+c’) & ub+b’\end{pmatrix}\\
&=u\begin{pmatrix}
a & a+b\\
a-c & b\end{pmatrix} + \begin{pmatrix}
a’ & a’+b’\\
a’-c’ & b’\end{pmatrix}\\
&=uS(a+bx+cx^2)+S(a’+b’x+c’x^2).
\end{align*}

Así, $S$ es lineal.

2. Empezamos calculando la matriz $\Mat_{B_1,B_2}(T)$ de $T$ con respecto a $B_1$ y $B_2$. La base $B_2$ es la base canónica ordenada de $\mathbb{R}^3$, es decir, $B_2=(e_1,e_2,e_3)$. Aplicando $T$ en cada uno de estos vectores,

\begin{align*}
T(e_1)&=T(1,0,0)=1=1\cdot 1 + 0\cdot x + 0\cdot x^2,\\
T(e_2)&=T(0,1,0)=2x= 0\cdot 1 + 2\cdot x + 0 \cdot x^2,\\
T(e_3)&=T(0,0,1)=3x^2= 0\cdot 1 + 0\cdot x + 3 \cdot x^2.
\end{align*}

Así, $$\Mat_{B_1,B_2}(T)=\begin{pmatrix}
1 & 0 & 0\\
0 & 2 & 0\\
0& 0 & 3\end{pmatrix}.$$

De manera análoga, calculamos

\begin{align*}
S(1)&=\begin{pmatrix}
1 & 1\\
1 & 0\end{pmatrix} \\
&= 1 \cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0\cdot E_{22},\\
S(x)&=\begin{pmatrix}
0 & 1\\
0 & 1\end{pmatrix} \\
&= 0 \cdot E_{11} + 1 \cdot E_{12} + 0 \cdot E_{21} + 1\cdot E_{22},\\
S(x^2)&=\begin{pmatrix}
0 & 0\\
-1 & 0\end{pmatrix} \\
&= 0 \cdot E_{11} + 0 \cdot E_{12} + (-1) \cdot E_{21} + 0\cdot E_{22}.\end{align*}

Por lo tanto $$\Mat_{B_3,B_1}(S)=\begin{pmatrix}
1 & 0 & 0\\ 1 & 1 & 0\\ 1 & 0 & -1\\
0 & 1 & 0\end{pmatrix}.$$

3. Usando el resultado de que la forma matricial de una composición de transformaciones es el producto de sus formas matriciales, $$\Mat_{B_3,B_2}(S\circ T)=\Mat_{B_3,B_1}(S)\cdot \Mat_{B_1,B_2}(T).$$

Así, tenemos que:
\begin{align*}
\Mat_{B_3,B_2}(S\circ T)&=\begin{pmatrix}
1 & 0 & 0\\ 1 & 1 & 0\\ 1 & 0 & -1\\
0 & 1 & 0\end{pmatrix} \begin{pmatrix}
1 & 0 & 0\\
0 & 2 & 0\\
0 & 0 & 3\end{pmatrix} \\
&= \begin{pmatrix}
1 & 0 & 0\\ 1 & 2 & 0\\ 1 & 0 & -3\\
0 & 2 & 0\end{pmatrix}.\end{align*}

4. Calculamos la composición directamente como sigue:

\begin{align*}
(S\circ T)(a,b,c)&=S(T(a,b,c))\\
&= S(a+2bx+3cx^2)\\
&=\begin{pmatrix}
a & a+2b\\
a-3c & 2b\end{pmatrix}.
\end{align*}

Para encontrar la matriz que representa a esta transformación lineal, evaluamos en cada elemento de $B_2$.

\begin{align*}
(S\circ T)(e_1)&=\begin{pmatrix}
1 & 1\\
1 & 0\end{pmatrix}\\
& = 1\cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0 \cdot E_{22},\\
(S\circ T)(e_2)&=\begin{pmatrix}
0 & 2\\
0 & 2\end{pmatrix} \\
&= 0\cdot E_{11} + 2 \cdot E_{12} + 0 \cdot E_{21} + 2 \cdot E_{22},\\
(S\circ T)(e_2)&=\begin{pmatrix}
0 & 0\\
-3 & 0\end{pmatrix} \\
&= 0 \cdot E_{11} + 0 \cdot E_{12} +(-3) \cdot E_{21} + 0 \cdot E_{22}.
\end{align*}

Así, la matriz asociada a $S\circ T$ con las bases indicadas es $$\Mat_{B_3,B_2}(S\circ T)= \begin{pmatrix}
1 & 0 & 0\\ 1 & 2 & 0\\ 1 & 0 & -3\\
0 & 2 & 0\end{pmatrix}.$$

Esto es, por supuesto, justo lo que se obtuvo en el inciso 3.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Matrices de cambio de base

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente platicamos de cómo al elegir una base ordenada $B$ de un espacio vectorial $V$ de dimensión finita $n$, podemos expresar a cada uno de sus vectores en términos de «coordenadas», que vienen de los coeficientes de la combinación lineal de elementos de $B$ que da el vector. Así mismo, vimos cómo podemos comenzar con una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases ordenadas $B_V$ y $B_W$ de $V$ y $W$ respectivamente. Tanto las coordenadas, como las matrices que representan a transformaciones lineales, dependen fuertemente de las bases ordenadas elegidas. En esta entrada hablaremos de las matrices de cambio de base, pues nos ayudarán a pasar de unas coordenadas a otras.

Siento más concretos, es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación $T:V\to W$, y que los vectores de $V$ o los de $W$ los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases (ordenadas) $B_1$ y $B_2$ de un espacio vectorial $V$ y que tomamos un vector $v$ en $V$. Si ya sabemos la combinación lineal de elementos de $B_1$ que da $v$, ¿cómo podemos saber la combinación lineal de elementos de $B_2$ que da $v$? En otras palabras, ¿cómo podemos pasar a $v$ de su expresión en base $B_1$ a su expresión en base $B_2$?
  • Supongamos que tenemos una transformación lineal $T:V\to W$ entre dos espacios vectoriales $V$ y $W$, dos bases (ordenadas) $B_1$ y $B_2$ de $V$ y dos bases (ordenadas) $C_1$ y $C_2$ de $W$. Si ya sabemos qué le hace $T$ a los elementos de $V$ en términos de las bases $B_1$ y $C_1$, ¿cómo podemos saber qué hace $T$ en términos de las bases $B_2$ y $C_2$?

La herramienta que necesitamos para responder ambos problemas se le conoce como matrices de cambio de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también sirven para resolver el segundo.

Matrices de cambio de base

Definición. Sea $V$ un espacio vectorial de dimensión $n$ sobre el campo $F$. Sean $B=(v_1,\ldots,v_n)$ y $B’=(v_1′, \ldots, v_n’)$ dos bases ordenadas de $V$. La matriz de cambio de base de $B$ a $B’$ es la matriz $P=[p_{ij}]$ en $M_{n}(F)$ cuya columna $j$ tiene como entradas a las coordenadas de $v_j’$ escrito en términos de la base $B$. En otras palabras, las entradas $p_{1j},\ldots,p_{nj}$ de la $j$-ésima columna de $P$ son los únicos elementos de $F$ para los cuales $$v_j’=p_{1j}v_1+\ldots +p_{nj} v_n,$$ para toda $j=1,2,\ldots,n$.

Ejemplo. Considera la base ordenada $B=(1,x,x^2)$ de $\mathbb{R}_2[x]$, el espacio vectorial de polinomios de coeficientes reales grado a lo más $2$. Veremos que $B’=(3x^2,2x,1)$ es también una base de $\mathbb{R}_2[x]$. Encontraremos la matriz de cambio de base de $B$ a $B’$ y la matriz de cambio de base de $B’$ a $B$.

La dimensión de $\mathbb{R}_2[x]$ es $3$ y $B’$ tiene $3$ elementos, así que basta ver que los elementos de $B’$ son linealmente independientes para ver que $B’$ es base. Una combinación lineal $a(3x^2)+b(2x)+c(1)=0$ es equivalente a que $3ax^2+2bx+c=0$, lo cual sucede si y sólo si $a=b=c=0$. Esto muestra que $B’$ es base.

Para encontrar a la matriz de cambio de base de $B$ a $B’$ lo que tenemos que hacer es escribir a los elementos de $B’$ como combinación lineal de los elementos de $B$. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

\begin{align*}
3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\
2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\
1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.
\end{align*}

Como los coeficientes de $3x^2$ en la base ordenada $B$ son $0$, $0$ y $3$, entonces la primer columna de la matriz de cambio de base será $\begin{pmatrix} 0 \\ 0 \\ 3\end{pmatrix}$. Argumentando de manera similar para $2x$ y $1$, tenemos que la matriz de cambio de base de $B$ a $B’$ es $$\begin{pmatrix}
0 & 0 & 1\\
0 & 2 & 0 \\
3 & 0 & 0
\end{pmatrix}.$$

Para encontrar a la matriz de cambio de base de $B’$ a $B$, expresamos a los elementos de $B$ en términos de la base $B’$ como sigue:

\begin{align*}
1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\
x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\
x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.
\end{align*}

En este caso fue sencillo hacerlo, pero en otros problemas frecuentemente esto se hace resolviendo un sistema de ecuaciones.

De esta manera, tenemos que la matriz de cambio de base de $B’$ a $B$ es $$\begin{pmatrix}
0 & 0 & \frac{1}{3}\\
0 & \frac{1}{2} & 0 \\
1 & 0 & 0
\end{pmatrix}.$$

$\triangle$

Cambio de coordenadas usando matrices de cambio de base

Las matrices de cambio de base nos ayudan a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea $V$ un espacio vectorial de dimensión $n$, $B=(v_1,\ldots,v_n)$, $B’=(v_1′,\ldots,v_n’)$ bases ordenadas de $V$ y $P$ la matriz de cambio de base de $B$ a $B’$. Supongamos que el vector $v$ de $V$ se escribe en base $B$ como $$v=c_1v_1+c_2v_2+\ldots+c_nv_n$$ y en base $B’$ como $$v=c_1’v_1’+c_2’v_2’+\ldots+c_n’v_n’.$$ Entonces: $$
P
\begin{pmatrix}
c_1′ \\
\vdots \\
c_n’
\end{pmatrix}=\begin{pmatrix}
c_1 \\
\vdots \\
c_n
\end{pmatrix} .$$

En otras palabras, la matriz $P$ de cambio de base de $B$ a $B’$ manda las coordenadas de un vector en base $B’$ a coordenadas en base $B$ al multiplicar por la izquierda. Ojo: para construir $P$ expresamos a $B’$ en términos de $B$, pero lo que hace $P$ es expresar a alguien de coordenadas en $B’$ a coordenadas en $B$.

Demostración. El vector de coordenadas de $v_j’$ escrito en base $B’$ es el vector canónico $e_j$ de $F^n$. Además, $Pe_j$ es la $j$-ésima columna de $P$, que por construcción es el vector de coordenadas de $v_j’$ en la base $B$. Así, el resultado es cierto para los vectores $v_j’$ de la base $B’$. Para cualquier otro vector $v$, basta expresarlo en términos de la base $B’$ y usar la linealidad de asignar el vector de coordenadas y la linealidad de $P$.

$\square$

Problema. Escribe a los vectores $v_1=(4,3,5,2)$, $v_2=(2,2,2,2)$ y $v_3(0,0,0,1)$ de $\mathbb{R}^4$ como combinación lineal de los elementos de la base $B$ de $\mathbb{R}^4$ conformada por los vectores $(1,0,0,0)$, $(1,1,0,0)$, $(1,1,1,0)$ y $(1,1,1,1)$.

Solución. Conocemos las coordenadas de $v_1,v_2,v_3$ en la base canónica $(1,0,0,0)$, $(0,1,0,0)$, $(0,0,1,0)$, $(0,0,0,1)$. De hecho, el vector de coordenadas de $v_1$ es exactamente $v_1$ (esto es algo que sucede pues estamos trabajando en $\mathbb{R}^4$). Lo que nos estan pidiendo son las coordenadas de $v_1,v_2,v_3$ en la base $B$. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de $B$ a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de $B$:

\begin{align*}
(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\
\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de $B$ a la base canónica:
$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

Para encontrar las coordenadas de $v_1, v_2, v_3$ en términos de la base $B$, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
4 \\
3 \\
5 \\
2
\end{pmatrix} = \begin{pmatrix}
1 \\
-2 \\
3\\
2
\end{pmatrix},$$

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
2 \\2 \\ 2 \\ 2
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ 0\\ 2
\end{pmatrix} $$ y

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ -1\\ 1
\end{pmatrix}. $$

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base $B$ que hacen a $v_1$, $v_2$ y $v_3$, por ejemplo, para $v_1$ tenemos: $$(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).$$

$\triangle$

Matrices de cambio de base como la forma matricial de una transformación lineal

A la matriz de cambio de base de $B$ a $B’$ la denotamos por $\text{Mat}_B(B’)$.

Una observación crucial es que podemos pensar a las matrices de cambio de base en un espacio vectorial $V$ justo como formas matriciales correspondientes a una transformación lineal específica. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad $\text{id}_V$ que manda a cada vector de $V$ a sí mismo.

De manera más concreta, si $B$ y $B’$ son bases de $V$ y $\text{Mat}_B(B’)$ es la matriz de cambio de base de $B$ a $B’$, entonces $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$ A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases $B$, $B’$ y $B»$ de $V$ y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

$$\text{Mat}_B(B»)=\text{Mat}_{B}(B’)\cdot \text{Mat}_{B’}(B»).$$

Finalmente, ¿qué sucede si en la igualdad anterior ponemos $B»=B$? Al lado izquierdo tenemos la matriz de cambio de base de $B$ a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de $B$ a $B’$ con la matriz de cambio de $B’$ a $B$. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean $B$, $B’$ y $B»$ bases del espacio vectorial de dimensión finita $V$.

  • La matriz de cambio de base de $B$ a $B’$ corresponde a la matriz de la transformación identidad de $V$ a $V$, en donde el primer $V$ lo pensamos con la base $B’$ y al segundo con la base $B$.
  • El producto de matrices de cambio de base de $B$ a $B’$ y de $B’$ a $B»$ es la matriz de cambio de base de $B$ a $B»$.
  • La matriz de cambio de base de $B$ a $B’$ es invertible, y su inversa es la de cambio de base de $B’$ a $B$.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Más adelante…

En esta entrada ya vimos cómo cambian las coordenadas de un vector cuando cambiamos de base. Lo que haremos en la siguiente entrada es estudiar cómo cambia la forma matricial de una transformación lineal cuando cambiamos las bases de su espacio vectorial origen y su espacio vectorial destino.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz $B$
  • Considera las cuatro matrices de $2\times 2$ que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base $B$ de $M_{2,2}(\mathbb{R})$. Determina la matriz de cambio de base de $B$ a la base canónica de $M_{2,2}(\mathbb{R})$. Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como $M_{2,2}(\mathbb{R})$ es de dimensión $4$, la matriz de cambio de base que tienes que determinar en realidad es de $4\times 4$.
  • Da una demostración de que, en efecto $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$
  • Verifica que la matriz de cambio de base $B$ a sí misma es la identidad.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»