Archivo de la etiqueta: matrices

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que V es un espacio vectorial de dimensión n y que W es un espacio vectorial sobre el mismo campo que V. Una transformación lineal T:V\to W puede «guardar mucha independencia lineal» o «muy poquita». Si T es inyectiva, ya vimos antes que T manda linealmente independientes a linealmente independientes. Si T es la transformación 0, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano xy, entonces «perdemos» al vector (0,0,1), pues se va al (0,0,0). Si es la proyección al eje x, «perdemos» al (0,1,0) y al (0,0,1) pues ambos se van a (0,0,0). Y si es la transformación 0, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango 3, 2, 1 y 0 respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo F.

Definición. Sean V y W espacios de dimensión finita. El rango de una transformación lineal T:V\to W es la dimensión de la imagen de T, es decir,

    \[\rank(T)=\dim\Ima T.\]

Si B es una base de V, entonces genera a V. La transformación T es suprayectiva de V a \Ima T, de modo que T(B) es generador de \Ima T. De esta forma, para encontrar el rango de una transformación lineal T:V\to W basta:

  • Tomar una base B de V
  • Aplicar T a cada elemento de B
  • Determinar un conjunto linealmente independiente máximo en T(B)

Para hacer este último paso, podemos poner a los vectores coordenada de T(B) con respecto a una base de W como los vectores fila de una matriz A y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de T es el número de vectores fila no cero en la forma escalonada reducida A_{\text{red}} de A.

Ejemplo. Encuentra el rango de la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Solución. Tomemos e_1,e_2,e_3 la base canónica de \mathbb{R}^3. Tenemos que T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}, T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix} y T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}.

Tomando la base canónica E_{11},E_{12},E_{21},E_{22} de M_2(\mathbb{R}), podemos entonces poner a las coordenadas de T(e_1),T(e_2),T(e_2) como vectores columna de una matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.\]

Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.\]

De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es 2.

\square

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean U, V y W espacios de dimensión finita. Sean S:U\to V, T:V\to W, T':V\to W transformaciones lineales. Entonces:

  1. \rank(T)\leq \dim V
  2. \rank(T)\leq \dim W
  3. \rank(T\circ S)\leq \rank(T)
  4. \rank(T\circ S)\leq \rank(S)
  5. \rank(T+T')\leq \rank(T) + \rank(T')

Demostración. (1) Pensemos a T como una transformación T:V\to \Ima(T). Haciendo esto, T resulta ser suprayectiva, y por un resultado anterior tenemos que \dim V\geq \dim \Ima T = \rank (T).

(2) Sabemos que \Ima (T) es un subespacio de W, así que \rank(T)=\dim \Ima T \leq \dim W.

(3) La imagen de T contiene a la imagen de T\circ S, pues cada vector de la forma T(S(v)) es de la forma T(w) (para w=S(v)). Así,

    \[\rank(T) =\dim \Ima T \geq \dim \ima T\circ S = \rank (T\circ S).\]

(4) La función T\circ S coincide con la restricción T_{\Ima S} de T a \Ima S. Por el inciso (1), \rank(T_{\Ima S})\leq \dim \Ima S = \rank(S), así que \rank (T\circ S) \leq \rank(S).

(5) Tenemos que \Ima (T+T') \subseteq \Ima T + \Ima T'. Además, por un corolario de la fórmula de Grassman, sabemos que

    \begin{align*}\dim (\Ima T + \Ima T')&\leq \dim \Ima T + \dim \Ima T'\\&= \rank(T) + \rank(T').\end{align*}

Así,

    \begin{align*}\rank(T+T')&\leq \rank(\Ima T + \Ima T')\\&\leq \rank(T)+\rank(T').\end{align*}

\square

Proposición. Sean R:U\to V, T:V\to W y S:W\to Z transformaciones lineales con R suprayectiva y S inyectiva. Entonces

    \[\rank(S\circ T\circ R)=\rank (T).\]

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que \rank(S\circ T)\leq \rank (T). La restricción S_{\Ima T} de S a la imagen de T es una transformación lineal de \Ima T a \Ima (S\circ T) que es inyectiva, de modo que \dim \Ima T \leq \dim \Ima (S\circ T), que es justo \rank(T)\leq \rank(S\circ T), de modo que tenemos la igualdad \rank(S\circ T)=\rank (T).

Como R es suprayectiva, \Ima R= V, de modo que \Ima(S\circ T \circ R)=\Ima(S\circ T). Así,

    \[\rank (S\circ T \circ R) = \rank (S\circ T)=\rank(T).\]

\square

Teorema de rango-nulidad

Una transformación lineal T:V\to W determina automáticamente dos subespacios de manera natural: el kernel \ker T y la imagen \Ima T. Resulta que las dimensiones de \ker T, de \Ima T y de V están fuertemente relacionadas entre sí.

Teorema. Sean V y W espacios de dimensión finita. Sea T:V\to W una transformación lineal. Entonces

    \[\dim\ker T + \rank(T) = \dim V.\]

Demostración. Supongamos que \dim V=n y \dim \ker T = k. Queremos mostrar que \rank(T)=n-k. Para ello, tomemos una base B de \ker T y tomemos B'=\{v_1,\ldots,v_{n-k}\} tal que B\cup B' sea base de V. Basta mostrar que T(B')=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T es base de \Ima T. Sea U el generado por B', de modo que V=U \oplus \ker T.

Veamos que T(B') es generador de \Ima T. Tomemos T(v) en \Ima T. Podemos escribir v=z+u con z\in \ker T y u\in U. Así, T(v)=T(z)+T(u)=T(u)\in T(B').

Ahora veamos que T(B') es linealmente independiente. Si

    \[\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,\]

entonces T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0, de modo que \alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k} está en U y en \ker T, pero la intersección de estos espacios es \{0\}. Como esta combinación lineal es 0 y B' es linealmente independiente, \alpha_1=\ldots=\alpha_n=0.

De esta forma, T(B') es linealmente independiente y genera a \Ima T, de modo que \rank(T) =|B'|=n-k.

\square

Ejemplo. Consideremos de nuevo la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Muestra que T no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango 2. Por el teorema de rango-nulidad, su kernel tiene dimensión 1. Así, hay un vector v\neq (0,0,0) en el kernel, para el cual T(v)=0=T(0), de modo que T no es inyectiva.

\square

Problema. Demuestra que para cualquier entero n existe una terna (a,b,c)\neq (0,0,0) con a+b+c=0 y tal que

    \[\int_0^1 at^{2n}+bt^n+c \,dt = 0.\]

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales T:\mathbb{R}^3\to \mathbb{R} y S:\mathbb{R}^3\to \mathbb{R} dadas por

    \begin{align*}T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\S(x,y,z)&=x+y+z.\end{align*}


Notemos que T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1), de modo que ni T ni S son la transformación 0. Como su rango puede ser a lo más \dim\mathbb{R}=1, entonces su rango es 1. Por el teorema de rango-nulidad, \dim \ker S= \dim \ker T = 2. Como ambos son subespacios de \mathbb{R}^3, es imposible que \ker S \cap \ker T=\{0\}, de modo que existe (a,b,c) no cero tal que T(a,b,c)=S(a,b,c)=0. Esto es justo lo que buscábamos.

\square

Rango para matrices

Definición. El rango de una matriz A en M_{m,n}(F) es el rango de la transformación lineal asociada de F^n a F^m dada por X\mapsto AX. Lo denotamos por \rank(A).

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean m, n y p enteros. Sea B una matriz en M_{n,p}(F) y A, A' matrices en M_{m,n}. Sea P una matriz en M_{n,p} cuya transformación lineal asociada es suprayectiva y Q una matriz en M_{r,m} cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QAP) = \rank(A)

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz A en M_{m,n}(F), podemos aplicar esta idea con los vectores e_1,\ldots,e_n de la base canónica de F^{n}. Como hemos visto con anterioridad, para cada i=1,\ldots, n tenemos que el vector Ae_i es exactamente la i-ésima columna de A. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^m generado por sus vectores columna.

Problema. Determina el rango de la matriz

    \[\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.\]

Solución. Como es una matriz con 3 filas, el rango es a lo más 3. Notemos que entre las columnas están los vectores (3,0,0), (0,2,0) y (0,0,-2), que son linealmente independientes. De esta forma, el rango de la matriz es 3.

\square

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices A, B en M_n(F) se tiene que

    \[\rank(AB)\geq \rank(A)+\rank(B)-n.\]

Solución. Tomemos T_1:F^n\to F^n y T_2:F^n\to F^n tales que T_1(X)=AX y T_2(X)=BX. Lo que tenemos que probar es que

    \[\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) - n.\]

Consideremos S_1 como la restricción de T_1 a \Ima T_2. Tenemos que \ker S_1 \subset \ker T_1, así que \dim \ker S_1 \leq \dim \ker T_1. Por el teorema de rango-nulidad en S_1, tenemos que

    \begin{align*}rank(T_2) &= \dim \Ima T_2 \\&= \dim \ker S_1 + \rank(S_1) \\&= \dim \ker S_1 + \rank(T_1\circ T_2)\\&\leq \dim \ker T_1 + \rank(T_1\circ T_2),\end{align*}

así que

    \[\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).\]

Por el teorema de rango-nulidad en T_1 tenemos que

    \[\dim \ker T_1 + \rank(T_1)=n.\]

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

\square

El teorema PJQ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea A una matriz en M_{m,n}(F) y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P\in M_m(F) y Q\in M_n(F) tales que A=PJ_rQ, en donde J_r es la matriz en M_{m,n} cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & 0 \\0 & 0\end{pmatrix}.\]

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos r al rango de A. Escribimos A=PJ_rQ usando el teorema PJQ, con P y Q matrices invertibles. Tenemos que ^tA=^tQ\, ^tJ_r \,^tP, con ^tQ y ^tP matrices invertibles. Además, ^t J_r es de nuevo de la forma de J_r. Así, por el teorema PJQ, tenemos que ^t A es de rango r.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^n generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema PJQ.

Problema. Muestra que una matriz A de rango r se puede escribir como suma de r matrices de rango 1. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos A=PJ_rQ usando el teorema PJQ. Si definimos A_i=PE_{ii}Q para i=1,\ldots,r, donde E_{ii} es la matriz cuya entrada (i,i) es uno y las demás cero, claramente tenemos que J_r=E_{11}+E_{22}+\ldots+E_{rr}, por lo que

    \[A=PJ_rQ=A_1+A_2+\ldots+A_r.\]

Además, como E_{ii} es de rango 1, por el teorema PJQ cada matriz A_i es de rango 1.

Veamos que es imposible con menos. Si B_1,\ldots,B_s son matrices de rango 1, como el rango es subaditivo tenemos que \rank (B_1+\ldots+B_s)\leq s. Así, si sumamos menos de r matrices, no podemos obtener a A.

\square

Tarea Moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea T una transformación de un espacio vectorial V de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si T es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz

        \[\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.\]

  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices A_1,\ldots, A_n del mismo tamaño tenemos que

        \[\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).\]

  • Escribe la demostración de la última proposición de la sección del teorema PJQ
  • Revisa la demostración del teorema de descomposición PJQ en el libro de Titu Andreescu.

Álgebra Lineal I: Problemas de cambio de base

En las entradas anteriores platicamos acerca de matrices de cambio de base. Vimos cómo nos ayudan a pasar un vector expresado en una base a otra. También vimos cómo nos ayudan a entender una transformación lineal en bases distintas. En esta entrada, veremos algunos ejemplos para repasar estos conceptos.

Problema 1. Considera las familias de vectores B=\{v_1,v_2,v_3\}, B'=\{w_1,w_2,w_3\}, donde

    \[v_1=(0,1,1), \ v_2=(1,0,1), \ v_3=(1,1,0)\]

y

    \[w_1=(1,1,-1), \ w_2=(1,0,-1), \ w_3=(-1,-1,0).\]

  1. Prueba que B y B' son bases de \mathbb{R}^3.
  2. Encuentra la matriz de cambio de base P de B a B' usando la definición de P.
  3. Encuentra la matriz de cambio de base P usando la base canónica de \mathbb{R}^3 y la última proposición de esta entrada.

Solución. (1) Dado que \dim \mathbb{R}^3=3 y estas familias son de tres vectores, basta con demostrar que son vectores linealmente independientes. Una manera de hacerlo es formando la matriz obtenida al colocar a los vectores como renglones y reducirla hasta la matriz identidad I_3.

Para B, la matriz asociada es

    \[\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}.\]

Haciendo los cálculos de la reducción, obtenemos que

    \[\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix} \longrightarrow \begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix} \longrightarrow \begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & -1 \\ 0 & 1 & 1 \end{pmatrix}\]


    \[\longrightarrow \begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix} \longrightarrow \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.\]


Esto implica que los vectores en B son linealmente independientes y, por lo tanto, forman una base \mathbb{R}^3.

Para B', la matriz asociada es

    \[\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.\]

Reduciendo la matriz, tenemos que

    \[\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \longrightarrow \begin{pmatrix} 1 & 1 & -1 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \longrightarrow \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.\]


Por lo tanto, B' también es una base de \mathbb{R}^3.

(2) Recordemos que la matriz de cambio de base P está definida como la matriz [p_{ij}] cuya columna j tiene como entradas a las coordenadas de w_j escrito en términos de la base B. Entonces, expresemos

(1,1,-1)=w_1=av_1+bv_2+cv_3=(b+c,a+c,a+b),

(1,0,-1)=w_2=dv_1+ev_2+fv_3=(e+f,d+f,d+e),

(-1,-1,0)=w_3=gv_1+hv_2+kv_3=(h+k,g+k,g+h),

obteniendo que

    \begin{align*}b+c&=1\\a+c&=1\\a+b&=-1\\e+f&=1\\d+f&=0\\d+e&=-1\\h+k&=-1\\g+k&=-1\\g+h&=0.\end{align*}

Si resolvemos el sistema anterior, concluimos que a=b=-\frac{1}{2}, c=\frac{3}{2}, d=-1, e=0, f=1, g=h=0, k=-1. Por lo tanto

P=\begin{pmatrix} a & d & g \\ b & e & h \\ c & f & k  \end{pmatrix}= \begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1  \end{pmatrix}.

(3) Sea B''=\{e_1,e_2,e_3\} la base canónica de \mathbb{R}^3. Queremos encontrar la matriz de cambio de base denotada como \text{Mat}_B (B'). Usando la última proposición de la clase del lunes, tenemos que

\text{Mat}_B (B')=\text{Mat}_{B} (B'') \cdot \text{Mat}_{B''} (B')=(\text{Mat}_{B''} (B))^{-1} \cdot \text{Mat}_{B''} (B').

Por definición,

\text{Mat}_{B''} (B)=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}, \  \text{Mat}_{B''} (B')=\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.

Para calcular (\text{Mat}_{B''} (B))^{-1}, lo haremos como ya lo hemos visto en clases: pegando a la derecha una matriz identidad y aplicando reducción gaussiana:

    \begin{align*} &\left( \begin{array}{ccc|ccc} 0 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & -1 & 0 & -1 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 2 & 0 & 1 & -1 & 1 \\ 0 & 0 & 2 & 1 & 1 & -1 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -1/2 & 1/2 & 1/2 \\ 0 & 1 & 0 & 1/2 & -1/2 & 1/2 \\ 0 & 0 & 1 & 1/2 & 1/2 & -1/2 \end{array} \right). \end{align*}

Por lo tanto,

    \[(\text{Mat}_{B''}(B))^{-1}=\begin{pmatrix} -1/2 & 1/2 & 1/2 \\ 1/2 & -1/2 & 1/2 \\ 1/2 & 1/2 & -1/2 \end{pmatrix}.\]

Finalmente, usando la proposición, tenemos que

P=\text{Mat}_B (B')=\begin{pmatrix} -\frac{1}{2} & \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & -\frac{1}{2} \end{pmatrix}\cdot\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}

=\begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}.

Esto coincide con el cálculo que hicimos previamente.

\square

Problema 2. Considera la matriz

A=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}

y sea T:\mathbb{R}^3 \rightarrow \mathbb{R}^3 la transformación lineal asociada, es decir T(X)=AX para todo X\in\mathbb{R}^3. Considera los vectores

v_1=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}.

  1. Prueba que v_1,v_2,v_3 forman una base de \mathbb{R}^3 y calcula la matriz de T con respecto a esta base.
  2. Encuentra la matriz de cambio de base de la base canónica a la base \{v_1,v_2,v_3\}.
  3. Calcula A^n para todo entero positivo n.

Antes de ver la solución a este problema este problema, observa que sería muy difícil decir quién es A^{100} «a mano» si procedes directamente. Se tendrían que hacer muchas multiplicaciones matriciales, que son difíciles. Ten en mente esto cuando leas la solución de la parte 3.

Solución. (1) Dado que la dimensión de \mathbb{R}^3 es 3 y \{v_1,v_2,v_3\} son tres vectores, basta con demostrar que éstos son linealmente independientes para probar que forman una base. Sean a,b,c\in\mathbb{R} tales que av_1+bv_2+cv_3=0, entonces

a+b+c=0, \ a-c=0, \ -a-b=0

\Rightarrow a=c, -a=b, a-a+a=0 \Rightarrow a=0, c=0, b=0.

Entonces, son linealmente independientes y, por lo tanto, forman una base de \mathbb{R}^3.

Nota: Otra manera de demostrarlo es considerar la matriz formada por los vectores v_1,v_2,v_3 como sus columnas, reducirla y llegar a que la matriz reducida es la matriz identidad.

Ahora, para calcular la matriz de T con respecto a la nueva base, expresaremos T(v_1),T(v_2), T(v_3) en términos de v_1,v_2,v_3. Entonces tenemos que

T(v_1)=Av_1=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=v_1,

T(v_2)=Av_2=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}=\begin{pmatrix} 2 \\ 0 \\ -2 \end{pmatrix}=2v_2,

T(v_3)=Av_3=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}=\begin{pmatrix} 3 \\ -3 \\ 0 \end{pmatrix}=3v_3.

Por lo tanto, la matriz que buscamos es

    \[B=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.\]

(2) Lo haremos de la misma manera que en el inciso (2) del problema anterior, que consiste en escribir a los v_1,v_2,v_3 en la base canónica, pero ésto es obvio ya que están escritos de esa manera, por lo tanto

    \[P=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0  \end{pmatrix}.\]

(3) Sabemos que la matriz de T con respecto a v_1,v_2,v_3 (que nombramos en el inciso (1) como B) es igual a P^{-1}AP, gracias al último corolario de la sección «Matrices de cambio de base y transformaciones lineales» de la entrada anterior. Entonces

    \[P^{-1}AP=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.\]

Es fácil ver (pero lo pueden demostrar por inducción en n) que

    \[(P^{-1}AP)^n=(P^{-1}AP)(P^{-1}AP)\dots (P^{-1}AP)=P^{-1}A^n P.\]

Esto implica que P^{-1}A^n P=B^n, es decir

    \[P^{-1}A^n P=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}.\]

Multiplicando por P a la izquierda y por P^{-1} a la derecha, obtenemos que

    \[A^n=P\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}P^{-1} .\]

Para ello, nos falta calcular la inversa de P, y eso lo haremos como siempre lo hemos hecho: reduciendo la matriz. Entonces

    \begin{align*} &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & -1 & 0 & 1 & 0 \\ -1 & -1 & 0 & 0 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 1 & -1 & 0 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 1 & 1 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right). \end{align*}

Como consecuencia, tenemos que

    \[P^{-1}=\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}.\]

Por lo tanto,

    \begin{align*}A^n &=P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix} P^{-1}\\&=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}\end{align*}

A^n= \begin{pmatrix} 1-2^n+3^n & 1-2^n & 1-2^{n+1}+3^n \\ 1-3^n & 1 & 1-3^n \\ 2^n-1 & 2^n-1 & 2^{n+1}-1 \end{pmatrix}.

\square

El ejercicio anterior deja una moraleja importante de álgebra lineal: si tenemos una matriz A y logramos encontrar una matriz diagonal B similar a ella, entonces será fácil encontrar A^n. Para finalizar esta sesión, tenemos el siguiente problema.

Problema 3. Prueba que las matrices

    \[A=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \text{y} \ B=\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}\]

son similares.

Solución. Para resolverlo usaremos el corolario visto en la clase de ayer, que dice (adaptándolo al problema):

Corolario. Sea T:\mathbb{R}^4\rightarrow \mathbb{R}^4 una transformación lineal. Sean B' y B'' bases de \mathbb{R}^4 y P la matriz de cambio de base de B' a B''. Entonces \text{Mat}_{B''}(T)=P^{-1} \text{Mat}_{B'}(T) P.

Si podemos encontrar una transformación T y bases B' y B'' tales que \text{Mat}_{B'}(T)=A y \text{Mat}_{B''} (T)=B, podemos calcular la matriz de cambio de base P, y satisface que B=P^{-1}AP, implicando que A y B sean matrices similares. Entonces, el problema se reduce a encontrar la transformación, las bases y calcular P.

Dado que \text{Mat}_{B'}(T)=A, si B' es la base canónica, es claro que la transformación T satisface que T(X)=AX para todo X\in\mathbb{R}^4.

Ahora, encontremos B''. Sea B''=\{ v_1,v_2,v_3,v_4 \} con

v_1=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix}, v_2=\begin{pmatrix} x_2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix}, v_3=\begin{pmatrix} x_3 \\ y_3 \\ z_3 \\ w_3 \end{pmatrix}, v_4=\begin{pmatrix} x_4 \\ y_4 \\ z_4 \\ w_4 \end{pmatrix}.

Dado que \text{Mat}_{B''}(T)=B, entonces satisface

T(v_1)=Av_1=v_1, \ T(v_2)=Av_2=2v_1+v_2,

T(v_3)=Av_3=3v_1+2v_2+v_3, \ T(v_4)=Av_4=4v_1+3v_2+2v_3+v_4.

Resolviendo lo anterior, obtenemos que

Av_1=\begin{pmatrix} x_1+y_1 \\ y_1+z_1 \\ z_1+w_1 \\ w_1 \end{pmatrix}=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix} \ \Rightarrow \ v_1=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix},

Av_2=\begin{pmatrix} x_2+y_2 \\ y_2+z_2 \\ z_2+w_2 \\ w_2 \end{pmatrix}=\begin{pmatrix} x_2+2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix} \ \Rightarrow \ v_2=\begin{pmatrix} 1 \\ 2 \\ 0 \\ 0 \end{pmatrix},

Av_3=\begin{pmatrix} x_3+y_3 \\ y_3+z_3 \\ z_3+w_3 \\ w_3 \end{pmatrix}=\begin{pmatrix} x_3+5 \\ y_3+4 \\ z_3 \\ w_3 \end{pmatrix} \ \Rightarrow \ v_3=\begin{pmatrix} 1 \\ 5 \\ 4 \\ 0 \end{pmatrix},

y por último

Av_4=\begin{pmatrix} x_4+y_4 \\ y_4+z_4 \\ z_4+w_4 \\ w_4 \end{pmatrix}=\begin{pmatrix} x_4+9 \\ y_4+16 \\ z_4+8 \\ w_4 \end{pmatrix} \ \Rightarrow \ v_4=\begin{pmatrix} 1 \\ 9 \\ 16 \\ 8 \end{pmatrix}

Aquí estamos usando que los sistemas de ecuaciones que se obtienen tienen como variables libres a x_1,x_2,x_3,x_4, las cuales las estamos tomando todas ellas iguales a 1.

Estos vectores son linealmente independientes pues la matriz con ellos como columnas es triangular superior con entradas en la diagonal distintas de cero, de modo que su matriz reducida es la identidad. Como \mathbb{R}^4 es de dimensión 4 y B'' es un conjunto de cuatro vectores linealmente independientes, entonces B'' es una base. Más aún, B'' es una base tal que \text{Mat}_{B''} (T)=B, por construcción.

Finalmente, podemos calcular la matriz de cambio de base P de B' a B'', pero es fácil ya que B' es la base canónica, entonces

    \[P=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}.\]

Por propiedades de la matriz de cambio de base, sabemos que P es invertible. Entonces, para terminar la prueba, podemos encontrar P^{-1} y verificar que B=P^{-1}AP, o simplemente verificamos que PB=AP, y por lo tanto A y B son matrices similares. Lo haremos de la segunda manera. En efecto,

PB=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}

AP=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}.

Por lo tanto, A y B son matrices similares.

Nota: si calculas la inversa de P, obtienes como resultado que

    \[P^{-1}=\begin{pmatrix} 1 & -\frac{1}{2} & \frac{3}{8} & -\frac{5}{16} \\ 0 & \frac{1}{2} & -\frac{5}{8} & \frac{11}{16} \\ 0 & 0 & \frac{1}{4} & -\frac{1}{2} \\ 0 & 0 & 0 & \frac{1}{8} \end{pmatrix}.\]

\square


Álgebra Lineal I: Cambios de base, parte 2

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea T:V\to W una transformación lineal entre espacios de dimensión finita V y W. Sean B_1 y B_2 bases de V, y C_1 y C_2 bases de W. Entonces

    \[\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).\]

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho «van apareciendo las bases» en el «orden natural» C_2, C_1, B_1, B_2.

Demostración. Sean P=\Mat_{C_1}(C_2) y Q=\Mat_{B_1}(B_2). Por un resultado de la entrada anterior, P es la matriz que representa a la transformación identidad en W con respecto a las bases C_1 y C_2, es decir, P=\Mat_{C_1,C_2}(\text{id}_W).

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que \text{id}_W\circ T=T, tenemos que

    \[\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).\]

De manera análoga, Q es la matriz que representa a la transformación identidad en V con respecto a las bases B_1 y B_2, de donde tenemos que

    \[\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).\]

De esta forma,

    \[P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.\]

El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por P^{-1}=\Mat_{C_2}(C_1).

\square

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea T:V\to V una transformación lineal de un espacio vectorial V de dimensión finita a sí mismo. Sean B y B' bases de V y P la matriz de cambio de base de B a B'. Entonces

    \[\Mat_{B'}(T)=P^{-1}\Mat_{B}(T)P.\]

Matrices similares

Definición. Decimos que dos matrices A y B en M_{n}(F) son similares o conjugadas si existe una matriz invertible P en M_n(F) tal que B=P^{-1}AP.

En otras palabras, A y B son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación «ser similares» es una relación de equivalencia en M_n(F).

Demostración. Toda matriz es similar a sí misma usando P=I_n, la identidad. Si A y B son similares con matriz invertible P, entonces B y A son similares con matriz invertible P^{-1}. Si A y B son similares con matriz invertible P y B y C son similares con matriz invertible Q, notemos que A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP), de modo que A y C son similares con matriz invertible QP.

\square

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz A «complicada» y de ahí encontrar una matriz similar B «más simple», y usar B para encontrar propiedades de A.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si A y B son matrices similares con A=P^{-1}BP, entonces A^n=P^{-1}B^nP.

Si B fuera una matriz diagonal, entonces es fácil encontrar B^n: basta con elevar cada una de las entradas de su diagonal a la n (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar A^n: basta con encontrar B^n, y luego hacer dos multiplicaciones de matrices más, por P^{-1} a la izquierda y por P a la derecha.

Cuando A es una matriz similar a una matriz diagonal, decimos que A es diagonalizable. Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera \mathbb{R}[x]_2 de polinomios con coeficientes reales y grado a lo más dos. Sea T: \mathbb{R}[x]_2 la transformación tal qur T(p)=p', el polinomio derivado. Encuentra la matriz que representa a la transformación en la base \{1+x+x^2,1+2x,1\} y la matriz que representa a la transformación en la base \{1,x,x^2\}. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean A y B matrices similares. Muestra que A es invertible si y sólo si B lo es.
  • Sean A y B matrices similares. Muestra que A y B tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}. Encuentra A^{105}.

Álgebra Lineal I: Problemas de transformaciones lineales, vectores independientes y forma matricial

El objetivo de esta entrada es mostrar algunos problemas resueltos sobre los temas vistos el jueves y viernes de la semana pasada.

Problema 1. Sean

v_1=(1,0,0), v_2=(1,1,0), v_3=(1,1,1)

y sea T:\mathbb{R}^3\longrightarrow \mathbb{R}^2 una transformación lineal tal que

T(v_1)=(3,2), T(v_2)=(-1,2), T(v_3)=(0,1)

Calcula el valor de T(5,3,1).

 

Solución. Primero observemos que {(1,0,0), (1,1,0), (1,1,1)} es una base de \mathbb{R}^3, entonces existen a,b,c\in \mathbb{R} tales que

    \[(5,3,1)=a(1,0,0)+b(1,1,0)+c(1,1,1).\]


Si logramos expresar a (5,3,1) de esta forma, después podremos usar que T es lineal para encontrar el valor que queremos. Encontrar los valores de a,b,c que satisfacen la ecuación anterior lo podemos ver como el sistema de ecuaciones:

    \[\begin{pmatrix}1 & 1 & 1\\0 & 1 & 1\\0 & 0 & 1\end{pmatrix} \begin{pmatrix}a\\b\\c\end{pmatrix} = \begin{pmatrix}5\\3\\1\end{pmatrix}.\]

Ahora consideramos la matriz extendida del sistema y la reducimos

    \[\begin{pmatrix}1 & 1 & 1 & 5\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 0 & 2\\0 & 0 & 1 & 1\end{pmatrix}\]


Así, a=2, b=2, c=1.

Finalmente, usando que T es transformación lineal,

    \begin{align*}T(5,3,1)&=T(2(1,0,0)+2(1,1,0)+(1,1,1))\\&=2T(1,0,0)+2T(1,1,0)+T(1,1,1)\\&=2(3,2)+2(-1,2)+(0,1)\\&=(6,4)+(-2,4)+(0,1)\\&=(4,9).\end{align*}

\square

Problema 2. Sea P_n(\mathbb{R}) el espacio de los polinomios de grado a los más n con coeficientes reales.

Considera la transformación lineal T:P_3(\mathbb{R})\longrightarrow P_2(\mathbb{R}) dada por T(p(x))=p'(x).

Sean \beta=\{1,x,x^2,x^3\} y \gamma=\{1,x,x^2\} las bases canónicas de P_3(\mathbb{R}) y P_2(\mathbb{R}), respectivamente. Encuentra la representación matricial de la transformación T.

Solución. Primero le aplicamos T a cada uno de los elementos de \beta

T(1)=0\cdot 1 + 0\cdot x + 0\cdot x^2
T(x)=1\cdot 1 + 0\cdot x + 0\cdot x^2
T(x^2)=0\cdot 1 + 2\cdot x + 0\cdot x^2
T(x^3)=0\cdot 1 + 0\cdot x + 3\cdot x^2

Así,

    \[\begin{pmatrix}0 & 1 & 0 & 0\\0 & 0 & 2 & 0\\0 & 0 & 0 & 3\end{pmatrix}\]


es la representación matricial de T con respecto a las bases canónicas.

\square

Problema 3. Sea V=P_2(\mathbb{R}). Considera las transformaciones

T:\mathbb{R}^3\longrightarrow V, T(a,b,c)=a+2bx+3cx^2

y

S:V\longrightarrow M_2(\mathbb{R}), S(a+bx+cx^2)=\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix}.

Consideramos las bases B_1=\{1,x,x^2\} de V, B_2 la base canónica de \mathbb{R}^3 y B_3=\{E_{11}, E_{12}, E_{21}, E_{22}\} de M_2(\mathbb{R}).

  1. Verifica que T y S son transformaciones lineales.
  2. Escribe las matrices asociadas a T y S con respecto a las bases anteriores.
  3. Encuentra la matriz asociada a la composición S\circ T con respecto a las bases anteriores.
  4. Calcula explícitamente S\circ T, después encuentra directamente su matriz asociada con respecto a las bases anteriores y verifica que el resultado obtenido aquí es el mismo que en el inciso anterior.

Solucion. 1. Sea u\in \mathbb{R} y (a,b,c), (a',b',c')\in \mathbb{R}^3.
Entonces

T(u(a,b,c)+(a',b',c'))=T(au+a',bu+b',cu+c')

=(au+a')+2(bu+b')x+3(cu+c')x^2
=u(a+2bx+3cx^2)+(a'+2b'x+3c'x^2)=uT(a,b,c)+T(a',b',c')

Así, T es lineal.

Ahora, sea u\in \mathbb{R} y a+bx+cx^2, a'+b'x+c'x^2\in V.
Entonces

S(u(a+bx+cx^2)+(a'+b'x+c'x^2))=S(ua+a'+(ub+b')x+(uc+c')x^2)
=\begin{pmatrix}ua+a' & (ua+a')+(ub+b')\\ua+a'-(uc+c') & ub+b'\end{pmatrix}
=u\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix} + \begin{pmatrix}a' & a'+b'\\a'-c' & b'\end{pmatrix}
=uS(a+bx+cx^2)+S(a'+b'x+c'x^2)

Así, S es lineal.

2. Empezamos calculando la matrix Mat_{B_1,B_2}(T) de T con respecto de B_1 y B_2.
Sea B_2=\{e_1,e_2,e_3\} la base canónica de \mathbb{R}^3, entonces

T(e_1)=T(1,0,0)=1=1\cdot 1 + 0\cdot x + 0\cdot x^2,
T(e_2)=T(0,1,0)=2x= 0\cdot 1 + 2\cdot x + 0 \cdot x^2,
T(e_3)=T(0,0,1)=3x^2= 0\cdot 1 + 0\cdot x + 3 \cdot x^2,

Así,

Mat_{B_1,B_2}(T)=\begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0& 0 & 3\end{pmatrix}.

De manera análoga, calculamos

S(1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1 \cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0\cdot E_{22},
S(x)=\begin{pmatrix}0 & 1\\0 & 1\end{pmatrix} = 0 \cdot E_{11} + 1 \cdot E_{12} + 0 \cdot E_{21} + 1\cdot E_{22},
S(x^2)=\begin{pmatrix}0 & 0\\-1 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + (-1) \cdot E_{21} + 0\cdot E_{22},

Por lo tanto

Mat_{B_3,B_1}(S)=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix}.

3. Usando el teorema visto en la entrada del viernes pasado 

Mat_{B_3,B_2}(S\circ T)=Mat_{B_3,B_1}(S)\cdot Mat_{B_1,B_2}(T)


=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix} \begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0 & 0 & 3\end{pmatrix} = \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}.

4. Calculamos

(S\circ T)(a,b,c)=S(T(a,b,c))= S(a+2bx+3cx^2)=\begin{pmatrix}a & a+2b\\a-3c & 2b\end{pmatrix}.

Luego,

(S\circ T)(e_1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1\cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0 \cdot E_{22}
(S\circ T)(e_2)=\begin{pmatrix}0 & 2\\0 & 2\end{pmatrix} = 0\cdot E_{11} + 2 \cdot E_{12} + 0 \cdot E_{21} + 2 \cdot E_{22}

y

(S\circ T)(e_2)=\begin{pmatrix}0 & 0\\-3 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + -3 \cdot E_{21} + 0 \cdot E_{22}

Así, la matriz asociada a S\circ T es

Mat_{B_3,B_2}(S\circ T)= \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}

Que es justo lo que se obtuvo en el inciso 3.

\square

Álgebra Lineal I: Cambios de base, parte 1

Introducción

En la entrada anterior platicamos de cómo podemos comenzar con una transformación lineal T:V\to W entre espacios vectoriales V y W y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases B_V y B_W de V y W respectivamente. Si elegimos bases diferentes, entonces la matriz que obtendremos será diferente, por lo cual es muy importante siempre recordar qué bases elegimos.

Es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación T:V\to W, y que los vectores de V o los de W los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

Las herramientas que necesitamos para responder ambos problemas se llaman matrices de cambios de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también servirán para resolver el segundo.

Matriz de cambio de base

Definición. Sea V un espacio vectorial sobre el campo F. Sean B=(v_1,\ldots,v_n) y B'=(v_1', \ldots, v_n') dos bases ordenadas de V. La matriz de cambio de base de B a B' es la matriz P=[p_{ij}] en M_{n}(F) cuya columna j tiene como entradas a las coordenadas de v_j' escrito en términos de la base B. En otras palabras, las entradas p_{1j},\ldots,p_{nj} de la j-ésima columna de P son los únicos elementos de F para los cuales

    \[v_j'=p_{1j}v_1+\ldots +p_{nj} v_n,\]

para toda j=1,2,\ldots,n.

Ejemplo. Considera la base ordenada B=(1,x,x^2) de R[x]_2, el espacio vectorial de polinomios de coeficientes reales grado a lo más 2. Veremos que B'=(3x^2,2x,1) es una base de R[x]_2. Encontraremos la matriz de cambio de base de B a B' y la matriz de cambio de base de B' a B.

La dimensión de R[x]_2 es 3 y B' tiene 3 elementos, así que basta ver que los elementos de B' son linealmente independientes para ver que B' es base. Una combinación lineal a(3x^2)+b(2x)+c(1)=0 es equivalente a que 3ax^2+2bx+c=0, lo cual sucede si y sólo si a=b=c=0. Esto muestra que B' es base.

Para encontrar a la matriz de cambio de base de B a B' lo que tenemos que hacer es escribir a los elementos de B' como combinación lineal de los elementos de B. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

    \begin{align*}3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.\end{align*}

Como los coeficientes de 3x^2 en la base ordenada B son 0, 0 y 3, entonces la primer columna de la matriz de cambio de base será (0,0,3). Argumentando de manera similar para 2x y 1, tenemos que la matriz de cambio de base de B a B' es

    \[\begin{pmatrix}0 & 0 & 1\\0 & 2 & 0 \\3 & 0 & 0\end{pmatrix}.\]

Para encontrar a la matriz de cambio de base de B' a B, expresamos a los elementos de B en términos de la base B' como sigue:

    \begin{align*}1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.\end{align*}


De esta manera, tenemos que la matriz de cambio de base de B' a B es

    \[\begin{pmatrix}0 & 0 & \frac{1}{3}\\0 & \frac{1}{2} & 0 \\1 & 0 & 0\end{pmatrix}.\]

\square

La matriz de cambio de base nos ayuda a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea V un espacio vectorial de dimensión n, B=(v_1,\ldots,v_n), B'=(v_1',\ldots,v_n') bases ordenadas de V y P la matriz de cambio de base de B a B'. Supongamos que el vector v de V se escribe en base B como

    \[v=c_1v_1+c_2v_2+\ldots+c_nv_n\]

y en base B' como

    \[v=c_1'v_1'+c_2'v_2'+\ldots+c_n'v_n'.\]

Entonces:

    \[P \begin{pmatrix}c_1' \\\vdots \\c'_n\end{pmatrix}=\begin{pmatrix}c_1 \\\vdots \\c_n\end{pmatrix} .\]

En otras palabras, la matriz P de cambio de base de B a B' manda las coordenadas de un vector en base B' a coordenadas en base B al multiplicar por la izquierda. Ojo: para construir P expresamos a B' en términos de B, pero lo que hace P es expresar a alguien en de coordenadas B' a coordenadas en B.

Demostración. El vector de coordenadas de v_j' escrito en base B' es el vector canónico e_j de F^n. Además, Pe_j es la j-ésima columna de P, que por construcción es el vector de coordenadas de v_j' en la base B. Así, el resultado es cierto para los vectores v_j' de la base B'. Para cualquier otro vector v, basta expresarlo en términos de la base B' y usar la linealidad de asignar el vector de coordenadas y la linealidad de P.

\square

Problema. Escribe a los vectores v_1=(4,3,5,2), v_2=(2,2,2,2) y v_3(0,0,0,1) de \mathbb{R}^4 como combinación lineal de los elementos de la base B de \mathbb{R}^4 conformada por los vectores (1,0,0,0), (1,1,0,0), (1,1,1,0) y (1,1,1,1).

Solución. Conocemos las coordenadas de v_1,v_2,v_3 en la base canónica (1,0,0,0), (0,1,0,0), (0,0,1,0), (0,0,0,1). De hecho, el vector de coordenadas de v_1 es exactamente v_1 (esto es algo que sucede pues estamos trabajando en \mathbb{R}^4). Lo que nos estan pidiendo son las coordenadas de v_1,v_2,v_3 en la base B. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de B a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de B:

    \begin{align*}(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de B a la base canónica:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

Para encontrar las coordenadas de v_1, v_2, v_3 en términos de la base B, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}4 \\3 \\ 5 \\ 2\end{pmatrix} =  \begin{pmatrix}1 \\-2 \\ 3\\ 2\end{pmatrix},\]

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}2 \\2 \\ 2 \\ 2\end{pmatrix} = \begin{pmatrix}0 \\0 \\ 0\\ 2\end{pmatrix}\]

y

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}0 \\0 \\ 0 \\ 1\end{pmatrix} = \begin{pmatrix}0 \\0 \\ -1\\ 1\end{pmatrix}.\]

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base B que hacen a v_1, v_2 y v_3, por ejemplo, para v_1 tenemos:

    \[(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).\]

\square

Matriz de cambio de base como matriz de transformación lineal

A la matriz de cambio de base de B a B' la denotamos por \text{Mat}_B(B').

Una observación crucial es que podemos pensar a una matriz de cambio de base en un espacio vectorial V justo como como una matriz correspondiente a una transformación lineal de las que vimos en la entrada pasada. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad \text{id}_V que manda a cada vector de V a sí mismo.

De manera más concreta, si B y B' son bases de V y \text{Mat}_B(B') es la matriz de cambio de base de B a B', entonces

    \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases B, B' y B'' de V y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

    \[\text{Mat}_B(B'')=\text{Mat}_{B}(B')\cdot \text{Mat}_{B'}(B'').\]

Finalmente, ¿qué sucede si en la igualdad anterior ponemos B''=B? Al lado izquierdo tenemos la matriz de cambio de base de B a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de B a B' con la matriz de cambio de B' a B. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean B, B' y B'' bases del espacio vectorial de dimensión finita V.

  • La matriz de cambio de base de B a B' corresponde a la matriz de la transformación identidad de V a V, en donde el primer V lo pensamos con la base B' y al segundo con la base B.
  • El producto de matrices de cambio de base de B a B' y de B' a B'' es la matriz de cambio de base de B a B''.
  • La matriz de cambio de base de B a B' es invertible, y su inversa es la de cambio de base de B' a B.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz B
  • Considera las cuatro matrices de 2\times 2 que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base B de M_{2,2}(\mathbb{R}). Determina la matriz de cambio de base de B a la base canónica de M_{2,2}(\mathbb{R}). Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como M_{2,2}(\mathbb{R}) es de dimensión 4, la matriz de cambio de base que tienes que determinar en realidad es de 4\times 4.
  • Da una demostración de que, en efecto

        \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

  • Verifica que la matriz de cambio de base B a sí misma es la identidad.