Archivo del Autor: Ayax Calderón

Álgebra Lineal I: Problemas de transformaciones lineales, vectores independientes y forma matricial

El objetivo de esta entrada es mostrar algunos problemas resueltos sobre los temas vistos el jueves y viernes de la semana pasada.

Problema 1. Sean

v_1=(1,0,0), v_2=(1,1,0), v_3=(1,1,1)

y sea T:\mathbb{R}^3\longrightarrow \mathbb{R}^2 una transformación lineal tal que

T(v_1)=(3,2), T(v_2)=(-1,2), T(v_3)=(0,1)

Calcula el valor de T(5,3,1).

 

Solución. Primero observemos que {(1,0,0), (1,1,0), (1,1,1)} es una base de \mathbb{R}^3, entonces existen a,b,c\in \mathbb{R} tales que

    \[(5,3,1)=a(1,0,0)+b(1,1,0)+c(1,1,1).\]


Si logramos expresar a (5,3,1) de esta forma, después podremos usar que T es lineal para encontrar el valor que queremos. Encontrar los valores de a,b,c que satisfacen la ecuación anterior lo podemos ver como el sistema de ecuaciones:

    \[\begin{pmatrix}1 & 1 & 1\\0 & 1 & 1\\0 & 0 & 1\end{pmatrix} \begin{pmatrix}a\\b\\c\end{pmatrix} = \begin{pmatrix}5\\3\\1\end{pmatrix}.\]

Ahora consideramos la matriz extendida del sistema y la reducimos

    \[\begin{pmatrix}1 & 1 & 1 & 5\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 0 & 2\\0 & 0 & 1 & 1\end{pmatrix}\]


Así, a=2, b=2, c=1.

Finalmente, usando que T es transformación lineal,

    \begin{align*}T(5,3,1)&=T(2(1,0,0)+2(1,1,0)+(1,1,1))\\&=2T(1,0,0)+2T(1,1,0)+T(1,1,1)\\&=2(3,2)+2(-1,2)+(0,1)\\&=(6,4)+(-2,4)+(0,1)\\&=(4,9).\end{align*}

\square

Problema 2. Sea P_n(\mathbb{R}) el espacio de los polinomios de grado a los más n con coeficientes reales.

Considera la transformación lineal T:P_3(\mathbb{R})\longrightarrow P_2(\mathbb{R}) dada por T(p(x))=p'(x).

Sean \beta=\{1,x,x^2,x^3\} y \gamma=\{1,x,x^2\} las bases canónicas de P_3(\mathbb{R}) y P_2(\mathbb{R}), respectivamente. Encuentra la representación matricial de la transformación T.

Solución. Primero le aplicamos T a cada uno de los elementos de \beta

T(1)=0\cdot 1 + 0\cdot x + 0\cdot x^2
T(x)=1\cdot 1 + 0\cdot x + 0\cdot x^2
T(x^2)=0\cdot 1 + 2\cdot x + 0\cdot x^2
T(x^3)=0\cdot 1 + 0\cdot x + 3\cdot x^2

Así,

    \[\begin{pmatrix}0 & 1 & 0 & 0\\0 & 0 & 2 & 0\\0 & 0 & 0 & 3\end{pmatrix}\]


es la representación matricial de T con respecto a las bases canónicas.

\square

Problema 3. Sea V=P_2(\mathbb{R}). Considera las transformaciones

T:\mathbb{R}^3\longrightarrow V, T(a,b,c)=a+2bx+3cx^2

y

S:V\longrightarrow M_2(\mathbb{R}), S(a+bx+cx^2)=\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix}.

Consideramos las bases B_1=\{1,x,x^2\} de V, B_2 la base canónica de \mathbb{R}^3 y B_3=\{E_{11}, E_{12}, E_{21}, E_{22}\} de M_2(\mathbb{R}).

  1. Verifica que T y S son transformaciones lineales.
  2. Escribe las matrices asociadas a T y S con respecto a las bases anteriores.
  3. Encuentra la matriz asociada a la composición S\circ T con respecto a las bases anteriores.
  4. Calcula explícitamente S\circ T, después encuentra directamente su matriz asociada con respecto a las bases anteriores y verifica que el resultado obtenido aquí es el mismo que en el inciso anterior.

Solucion. 1. Sea u\in \mathbb{R} y (a,b,c), (a',b',c')\in \mathbb{R}^3.
Entonces

T(u(a,b,c)+(a',b',c'))=T(au+a',bu+b',cu+c')

=(au+a')+2(bu+b')x+3(cu+c')x^2
=u(a+2bx+3cx^2)+(a'+2b'x+3c'x^2)=uT(a,b,c)+T(a',b',c')

Así, T es lineal.

Ahora, sea u\in \mathbb{R} y a+bx+cx^2, a'+b'x+c'x^2\in V.
Entonces

S(u(a+bx+cx^2)+(a'+b'x+c'x^2))=S(ua+a'+(ub+b')x+(uc+c')x^2)
=\begin{pmatrix}ua+a' & (ua+a')+(ub+b')\\ua+a'-(uc+c') & ub+b'\end{pmatrix}
=u\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix} + \begin{pmatrix}a' & a'+b'\\a'-c' & b'\end{pmatrix}
=uS(a+bx+cx^2)+S(a'+b'x+c'x^2)

Así, S es lineal.

2. Empezamos calculando la matrix Mat_{B_1,B_2}(T) de T con respecto de B_1 y B_2.
Sea B_2=\{e_1,e_2,e_3\} la base canónica de \mathbb{R}^3, entonces

T(e_1)=T(1,0,0)=1=1\cdot 1 + 0\cdot x + 0\cdot x^2,
T(e_2)=T(0,1,0)=2x= 0\cdot 1 + 2\cdot x + 0 \cdot x^2,
T(e_3)=T(0,0,1)=3x^2= 0\cdot 1 + 0\cdot x + 3 \cdot x^2,

Así,

Mat_{B_1,B_2}(T)=\begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0& 0 & 3\end{pmatrix}.

De manera análoga, calculamos

S(1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1 \cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0\cdot E_{22},
S(x)=\begin{pmatrix}0 & 1\\0 & 1\end{pmatrix} = 0 \cdot E_{11} + 1 \cdot E_{12} + 0 \cdot E_{21} + 1\cdot E_{22},
S(x^2)=\begin{pmatrix}0 & 0\\-1 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + (-1) \cdot E_{21} + 0\cdot E_{22},

Por lo tanto

Mat_{B_3,B_1}(S)=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix}.

3. Usando el teorema visto en la entrada del viernes pasado 

Mat_{B_3,B_2}(S\circ T)=Mat_{B_3,B_1}(S)\cdot Mat_{B_1,B_2}(T)


=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix} \begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0 & 0 & 3\end{pmatrix} = \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}.

4. Calculamos

(S\circ T)(a,b,c)=S(T(a,b,c))= S(a+2bx+3cx^2)=\begin{pmatrix}a & a+2b\\a-3c & 2b\end{pmatrix}.

Luego,

(S\circ T)(e_1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1\cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0 \cdot E_{22}
(S\circ T)(e_2)=\begin{pmatrix}0 & 2\\0 & 2\end{pmatrix} = 0\cdot E_{11} + 2 \cdot E_{12} + 0 \cdot E_{21} + 2 \cdot E_{22}

y

(S\circ T)(e_2)=\begin{pmatrix}0 & 0\\-3 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + -3 \cdot E_{21} + 0 \cdot E_{22}

Así, la matriz asociada a S\circ T es

Mat_{B_3,B_2}(S\circ T)= \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}

Que es justo lo que se obtuvo en el inciso 3.

\square

Álgebra Lineal I: Forma matricial de una transformación lineal

Introducción

Durante el primer bloque de nuestro curso vimos que las transformaciones lineales T:F^n \longrightarrow F^m pueden ser descritas por medio de matrices A\in M_{m,n}(F). Nuestro objetivo ahora es extender este resultado para describir transformaciones lineales T:V\longrightarrow W entre espacios vectoriales de dimensión finita V y W. Sin embargo, la descripción no será canónica, es necesario fijar bases para V y W.

Para esta entrada todos los espacios vectoriales que usemos son de dimensión finita sobre el campo F. Usaremos los resultados de la entrada pasada, en la que estudiamos qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los generadores y a las bases.

Definición. Decimos que una transformación lineal T:V\longrightarrow W es un isomorfismo de espacios vectoriales si es biyectiva. Lo denotamos como V\simeq_{T} W, que se lee «V isomorfo a W mediante T«.

Problema. Sea T:V\longrightarrow W un isomorfismo de espacios vectoriales. Prueba que su inversa T^{-1}:W\longrightarrow V es un isomorfismo de espacios vectoriales.

Demostración. La transformación T^{-1} es biyectiva, pues es invertible de inversa T, así que sólo hace falta checar que T^{-1} es lineal. Tomemos w_1, w_2 en W, y c en el campo. Como T es suprayectiva, podemos tomar v_1=T^{-1}(w_1) y v_2=T^{-1}(w_2). Entonces T(v_1)=w_1 y T(v_2)=w_2, así

    \begin{align*}T^{-1}(w_1+cw_2)&=T^{-1}(T(v_1)+cT(v_2))\\&=T^{-1}(T(v_1+cv_2))\\&=v_1+cv_2\end{align*}

Aquí usamos que T es lineal.

\square

Más interesante aún, resulta que es posible clasificar los espacios vectoriales de dimensión finita distintos de \{0\}, salvo isomorfismos: Para cada entero n todos los espacios vectoriales de dimensión n son isomorfos a F^n.

Teorema. Sea n un entero positivo y sea V un espacio vectorial de dimensión finita sobre F. Si B=(e_1,\dots,e_n) es una base de V, entonces la transformación i_B:F^n\longrightarrow V definida por i_B(x_1,\dots,x_n)=x_1e_1+x_2e_2+\dots+x_ne_n es un isomorfismo de espacios vectoriales.

La verificación de los detalles de este teorema queda como tarea moral. Como sugerencia, recuerda que una base B de V te permite expresar a cada vector de V de manera única como combinación lineal de elementos de B.

Corolario. Si T:V\longrightarrow W es un isomorfismo de espacios vectoriales, entonces dim V=dimW.

La matriz asociada a una transformación lineal

Por la discusión anterior, la elección de una base en un espacio vectorial V de dimensión n nos permite identificar V con F^{n}. Considera ahora la transformación lineal T:V\rightarrow W y supón que dimV=n y dimW=m. Escogemos bases B_V=\{v_1,\dots, v_n\} y B_W=\{w_1,\dots,w_m\}, respectivamente. Por el teorema anterior tenemos los isomorfismos

    \[i_{B_{V}}:F^n\to V, \vspace\]

    \[i_{B_{W}}:F^m\longrightarrow W.\]

¿Cómo podemos usar todas estas transformaciones para construir una transformación F^n\to F^m? La idea es usar el inverso de i_{B_W} y componer todo.

Así, consideramos \psi_T como la composición de las transformaciones i_{B_{V}}, T, i_{B_{W}}^{-1}:

\psi_T:F^n\longrightarrow F^m,

\psi_T=i_{B_W}^{-1}\circ T\circ i_{B_{V}}.

De esta forma, \psi_T es una transformación lineal entre F^n y F^m. ¡Este tipo de transformaciones ya las conocemos! Sabemos que \psi_T se describe de manera única por medio de una matriz A\in M_{m,n}(F). Esta es la matriz asociada a T con respecto a las bases B_V y B_W. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como \text{Mat}_{B_W,B_V}(T) . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases, pues esto es importante y será explicado más adelante.

Cuando T:V\to V va de un espacio vectorial a sí mismo y usamos sólo una base B, simplificamos la notación a \text{Mat}_B(T).

Evaluar T usando la matriz asociada

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es esto: tenemos una parametrización de transformaciones lineales entre F^n y F^m dada por matrices, y podemos extenderla a una descripción de transformaciones lineales entre V y W identificando V con F^n y W con F^m vía la elección de bases en V y W.

Notemos que si definimos A:=\text{Mat}_{B_{W},B_{V}}(T), entonces tenemos que

i_{B_{W}}(Ax)=T(i_{B_{V}}(x)) … (1)

Esta igualdad nos va a ayudar a decir quién es T en términos de las entradas de la matriz A. Sea \{e_1,\dots,e_n\} la base canónica de F^n y \{f_1,\dots,f_m\} la base canónica de F^m. SiA=[a_{ij}], entonces por definición Ae_i=a_{1i}f_1+\dots+a_{mi}f_{m}, así para x=e_i se tiene

i_{B_{W}}(Ax)=i_{B_{W}}(a_{1i}f_1+\dots + a_{mi}f_m) = a_{1i}w_1+\dots + a_{mi}w_m.

Por otro lado, i_{B_{V}}(e_i)=v_i, de manera que la relación (1) es equivalente a la relación

T(v_i)=a_{1i}w_1+\dots + a_{mi}w_m

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que «podemos saber cuándo vale la transformación T en cada elemento de la base de V en términos de la matriz A«. ¡Esto es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea T:V\longrightarrow W una transformación lineal y sean B_V=\{v_1,\dots v_n\}, B_W=\{w_1,\dots,w_m\} bases en V y W, respectivamente. La columna j de \text{Mat}_{B_W,B_V}(T)=[a_{ij}] entonces para toda 1\leq i\leq n se tiene

    \[T(v_i)=\displaystyle\sum_{j=1}^m a_{ji}w_j.\]

Así, si tenemos la matriz A que representa a T en las bases B_V y B_W y un vector arbitrario v en V, para saber quién es T(V) basta:

  • Usar la proposición anterior para saber quien es T(v_i) para cada v_i en la base B_V.
  • Expresar a v en términos de la base B_V como, digamos, v=c_1v_1+\ldots+c_nv_n.
  • Usar que T es lineal para concluir que T(v)=c_1T(v_1)+\ldots+c_nT(v_n) y usar los valores de T(v_i) encontrados en el primer inciso.

Matrices de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición S\circ T de transformaciones lineales y las matrices asociadas de T y S. En otras palabras, sean T:V\longrightarrow W y S:W\longrightarrow U transformaciones lineales fijas y supongamos que m=dimV, n=dimW, p=dimU. También fijemos las bases B_U, B_V, B_W en U,V,W, respectivamente. Para simplificar las cosas escribamos

\mathcal{A}=\text{Mat}_{B_U,B_W}(S) y \mathcal{B}=\text{Mat}_{B_W,B_V}(T)

Con respecto a las bases B_U,B_V,B_W se tienen los isomorfismos i_{B_U}, i_{B_V}, i_{B_W} definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de \mathcal{A}, \mathcal{B} se tiene

i_{B_W}(\mathcal{B}x)=T(i_{B_V}(x)) con x\in F^m,

i_{B_U}(\mathcal{A}y)=S(i_{B_W}(y)) con y\in F^p

Aplicando S en la primera relación y después usando la segunda relación, se tiene para x\in F^m

(S\circ T)(i_{B_V}(x))=S(i_{B_W}(\mathcal{B}x))=i_{B_U}(\mathcal{A} \mathcal{B}x).

Esta última relación y la definición de \text{Mat}_{B_U,B_V}(S\circ T) nos muestra que

\text{Mat}_{B_U,B_V}(S\circ T)=\mathcal{A} \cdot \mathcal{B}.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean T:V\longrightarrow W y S:W\longrightarrow U transformaciones lineales entre espacios vectoriales de dimensión finita y sean B_U, B_V, B_W bases de U,V,W, respectivamente. Entonces

\text{Mat}_{B_U,B_V}(S\circ T)=\text{Mat}_{B_U,B_W}(S)\cdot \text{Mat}_{B_W,B_V}(T).

Cuando tenemos transformaciones lineales de un espacio vectorial V a sí mismo, y usamos la misma base B, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean T_1,T_2:V\longrightarrow V transformaciones lineales en un espacio vectorial de dimensión finita V, y sea B una base de V. Entonces

\text{Mat}_{B}(T_1\circ T_2)=\text{Mat}_{B}(T_1)\cdot \text{Mat}_{B}(T_2).

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que la relación «son isomorfos» para espacios vectoriales es una relación de equivalencia.
  • Muestra que la transformación i_B dada en el teorema de clasificiación de espacios vectoriales en efecto es un isomorfismo.
  • Asegúrate de entender el último corolario.