Archivo del Autor: Jennyfer Paulina Bennetts Castillo

3.4. MATRIZ DE UNA COMBINACIÓN LINEAL DE TRANSFORMACIONES: ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Sabemos que toda transformación lineal entre espacios vectoriales de dimensión finita puede describirse mediante una matriz, siempre que fijemos bases en el dominio y el codominio. Lo verdaderamente valioso es que esta relación no solo asigna una matriz a cada transformación lineal, sino que establece una biyección entre ambas nociones. Esto significa que no hay pérdida de información al pasar de una descripción a la otra; cada transformación lineal tiene una única matriz asociada y cada matriz representa exactamente una transformación lineal. En otras palabras, estamos ante dos “lenguajes” distintos capaces de expresar la misma estructura.

Esta correspondencia no es accidental: surge de la manera en que una transformación lineal actúa sobre los vectores y, en particular, sobre las coordenadas de esos vectores respecto de una base.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\{ ax+bx^2+cx^3 | a,b,c \in \mathbb{R} \}$ y $W=\{ d+ex+fx^2 | d,e,f \in \mathbb{R} \}$.
    Sean $B = (x,x^2,x^3)$ y $\Gamma = (1,x,x^2)$.
    Sean $T,S \in \mathcal{L}(V,W)$ con $T(ax+bx^2+cx^3)=a+2bx+3cx^2$ y $S(ax+bx^2+cx^3)=(2a+b)+3bx-cx^2$
    $[ 3T+S ]_{B}^{\Gamma} = 3 [ T ]_{B}^{\Gamma} +[ S ]_{B}^{\Gamma}$

Justificación.

Por un lado, $(3T+S) \left( ax+bx^2+cx^3 \right) = 3T(ax+bx^2+cx^3)+S(ax+bx^2+cx^3)$ $=3[a+2bx+3cx^2]+ \left[ (2a+b)+3bx-cx^2 \right]$ $=(5a+b)+9bx+8cx^2$.
De donde $[ 3T+S ]_{B}^{\Gamma} = \begin{pmatrix} 5 & 1 & 0 \\ 0 & 9 & 0 \\ 0 & 0 & 8 \end{pmatrix}$.

Por otro lado $[ T]_{B}^{\Gamma} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}$ y $[ S ]_{B}^{\Gamma} = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{pmatrix}$
De donde $3[ T ]_{B}^{\Gamma} + [ S]_{B}^{\Gamma} = 3 \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix} + \begin{pmatrix} 2 & 1 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{pmatrix} = \begin{pmatrix} 5 & 1 & 0 \\ 0 & 9 & 0 \\ 0 & 0 & 8 \end{pmatrix}$.

Veamos ahora que lo que ocurrió en el ejemplo anterior no es casualidad, probemos que el asignarle a una transformación lineal su matriz asociada se comporta bien con las operaciones de suma y producto por escalar:

Proposición (3.4.1.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita, $B, \Gamma$ bases ordenadas de $V$ y $W$ respectivamente, $T,S \in \mathcal{L}(V,W)$ y $\lambda \in K$.
Se cumple que $[ \lambda S + T ]_{B}^{\Gamma}$ $= \lambda [ S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma}$.

Demostración: Sean $n$ la dimensión de $V$, $B= ( v_1, …, v_n )$ y $j \in \{ 1, …, n \}$.

$\begin{align*}
col_j [ \lambda S + T]_{B}^{\Gamma} &= [ (\lambda S + T)(v_j) ]_{\Gamma} \tag{Def. de suma y producto}\\
&= [ \lambda S(v_j) + T(v_j) ]_{\Gamma}\tag{Obs. entrada 3.1}\\
&= \lambda [ S(v_j) ]_{\Gamma} + [ T(v_j) ]_{\Gamma} \tag{Def. de matriz asociada}\\
&= \lambda col_j[ S ]_{B}^{\Gamma} + col_j [ T ]_{B}^{\Gamma} \tag{Suma de matrices}\\
&= col_j \left( \lambda [ S ]_{B}^{\Gamma} +[T ]_{B}^{\Gamma} \right) \tag{}\\
\end{align*}$

$\therefore col_j [\lambda S + T ]_{B}^{\Gamma} = col_j \left( \lambda [S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma} \right)$

Al tratarse de una columna aleatoria, concluimos que todas las columnas de $[ \lambda S + T ]_{B}^{\Gamma}$ y $\lambda [ S ]_{B}^{\Gamma} + [ T ]_{B}^{\Gamma}$ son iguales y con ello, las matrices son idénticas.

Por lo tanto $[\lambda S + T ]_{B}^{\Gamma} = \lambda [ S ]_{B}^{\Gamma} + [ T]_{B}^{\Gamma}$.

Veamos ahora que la matriz asociada a una transformación lineal determina por completo a la transformación:

Proposición (3.4.2.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita, $B$ y $\Gamma$ bases ordenadas de $V$ y $W$ respectivamente, $T,S \in \mathcal{L}(V,W)$.
Si $[T ]_{B}^{\Gamma} = [ S ]_{B}^{\Gamma}$ entonces $T=S$.

Demostración: Supongamos que $[T ]_{B}^{\Gamma} =[ S ]_{B}^{\Gamma}$

Sean $n$ y $m$ las dimensiones de $V$ y $W$ respectivamente, $B= ( v_1, …, v_n )$ y $\Gamma = ( w_1, …, w_m )$.

Sea $j \in \{ 1,…,n \}$.
Debido a que $\Gamma$ es una base de $W$, existen $\lambda_{1j}, …, \lambda_{mj} \in K$ tales que $T(v_j) =\lambda_{1j}w_1 + … + \lambda_{mj}w_m$. Entonces,

$\begin{align*}
\begin{pmatrix} \lambda_{1j} \\ \vdots \\ \lambda_{mj} \end{pmatrix}&=[ T(v_j) ]_{\Gamma} \tag{}\\
&= col_j [T]_{B}^{\Gamma} \tag{}\\
&= col_j [ S ]_{B}^{\Gamma} \tag{$[ T]_{B}^{\Gamma} =[S ]_{B}^{\Gamma}$}\\
&= [ S(v_j) ]_{\Gamma} \tag{}\\
\therefore \begin{pmatrix} \lambda_{1j} \\ \vdots \\ \lambda_{mj} \end{pmatrix}&=[ S(v_j)]_{\Gamma}
\end{align*}$

Por lo tanto, $S(v_j) =\lambda_{1j}w_1 + … + \lambda_{mj}w_m = T(v_j)$.

Como se cumple para toda $j \in \{ 1, …, n \}$, entonces $T$ y $S$ coinciden al evaluarse en los elementos de una base y por el corolario 2.4.2 de la entrada 2.4 esto nos permite concluir que $T=S$.

Ejemplos

  • Sean $K = \mathbb{R}$ y $V=W= \mathbb{R}^3$.
    Sean $\mathcal{C} = (e_1, e_2, e_3)$ la base canónica de $V$ y $\Gamma = ((1,0,1), (1,1,0), (0,1,1))$ una base de $W$.
    Sean $T,S \in \mathcal{L}(V,W)$ tales que $[ T ]_{\mathcal{C}}^{\Gamma} =[ S ]_{\mathcal{C}}^{\Gamma} = \begin{pmatrix} 2 & 0 & 4 \\ 1 & -1 & 1 \\ 8 & 1 & 1 \end{pmatrix}$.
    Entonces $T(x,y,z)=S(x,y,z)=(3x-y+5z, 9x+2z, 10x+y+5z)$

Justificación.

$T(e_1) = S(e_1) = 2(1,0,1) + 1(1,1,0) + 8(0,1,1) = (3,9,10)$
$T(e_2) = S(e_2) = 0(1,0,1) – 1(1,1,0) + 1(0,1,1) = (-1,0,1)$
$T(e_3) = S(e_3) = 4(1,0,1) + 1(1,1,0)+ 1(0,1,1) = (5,2,5)$

Tenemos que $T(x,y,z) = T(xe_1 + ye_2 + ze_3)$ $= xT(e_1) + yT(e_2) + zT(e_3)$$=xS(e_1) + yS(e_2) + zS(e_3)$ $=S(xe_1 + ye_2 + ze_3)$ $=S(x,y,z)$.

Y como $xT(e_1) + yT(e_2) + zT(e_3)$ $= x(3,9,10) + y(-1,0,1) + z(5,2,5)$ $=(3x-y+5z,9x+2z,10x+y+5z)$, entonces $T(x,y,z)=S(x,y,z)=(3x-y+5z,9x+2z,10x+y+5z)$.

Tarea Moral

  1. Sean $V$ un $K$ – espacio vectorial de dimensión dos y $S, T \in \mathcal{L}(V,V)$.
    Sea $\Gamma$ base ordenada de $V$.
    Dadas $M_1 , M_2 \in \mathcal{M}_{2 \times 2}(\mathbb{R})$ y $\alpha_1 , \alpha_2 , \beta_1 , \beta_2 \in \mathbb{R}$, si se tiene que:
    $\begin{cases}
    [ \alpha_1 S + \beta_1 T ]_{\Gamma} = M_1\\
    [ \beta_2 S + \beta_2 T]_{\Gamma} = M_2\\
    \end{cases}$
    ¿Cómo crearías un sistema de ecuaciones para obtener $S$ y $T$?
    ¿Lo puedes adaptar para tres transformaciones si tuvieras tres ecuaciones matriciales inicialmente bien definidas? ¿Sería necesario ajustar en ese caso la dimensión de $V$? Justifica tus respuestas.
  2. ¿Qué te dice el hecho de que una misma transformación tenga distintas matrices según la base? ¿Eso cambia la esencia de la transformación? ¿Por qué sí o por qué no?
    Para responder, reflexiona en lo siguiente:
    Imagina que en un plano cartesiano estás parado con el Eje X (lado positivo), y un amigo está en el Eje Y (lado negativo) viendo simultánemante a un triángulo rotar. Sus descripciones en coordenadas serán diferentes, porque sus ejes son distintos… ¿eso significa que vieron distintas rotaciones?

Más adelante…

Veremos un resultado que junto con los dos de esta entrada darán lugar a un isomorfismo que quizás a algunos sorpenda y otros hayan visto venir… No por nada intervienen en él dos espacios vectoriales que hemos mencionado una y otra vez de modo tal que hemos tenido que recalcar que uno consiste de las representaciones de los elementos del otro. ¿Cuáles dos espacios crees que sean?

Entradas relacionadas

3.3. MATRICES DE UNA TRANSFORMACIÓN Y VECTORES DE COORDENADAS: relación entre sí

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Nos concentraremos en una igualdad que nos permite encontrar el transformado de un vector, o de modo más preciso: su codificación en términos de alguna base, a partir del producto de la matriz asociada a la transformación y el vector de coordenadas de dicho vector.
Nuestra principal motivación es que es más fácil manejar los vectores de coordenadas que los vectores mismos y las matrices en vez de las transformaciones lineales.

Más allá de lo útil que es la proposición que veremos a continuación, la demostración nos permite comprender la estructura, paso a paso, que permite esta igualdad.

Resulta importante recordar que las matrices pasaron de ser tan solo un ejemplo de espacio vectorial a la forma en que se manejan las transformaciones en lugar de la regla de correspondencia usualmente ocupada en funciones.

Las propiedades lineales de las matrices cobran protagonismo en la demostración de la siguiente proposición por lo que se sugiere tenerlas presentes y revisarlas si es que se considera necesario . Es importante dedicarle a este resultado el suficiente tiempo y atención pues nos será de mucha utilidad tanto en la teoría como en los ejercicios posteriores.

Proposición (3.3.1.): Sean $V$ y $W$ $K$ – espacios vectoriales de dimensión finita con bases ordenadas $B$ y $\Gamma$ y $T\in \mathcal{L}(V,W)$.
Entonces para todo $v\in V$ se cumple que $[ T(v) ]_{\Gamma} = [ T ]_{B}^{\Gamma} [ v ]_{B}$.

Demostración: Sea $v\in V$.

Notemos primero que el resultado se cumple cuando $v$ es uno de los vectores de la base $B$. Digamos que $\B = (v_1,v_2,…,v_n)$ con $v_1,v_2,…,v_n\in V$.

Af. 1. Para toda $j\in\{1,2,…,n\}$ se cumple que $[T]_B^{\Gamma} [v_j ]_{B} =[T(v_j) ]_{\Gamma}$

Justificación. Sea $j\in \{ 1,2,…,n\}$.

Como $v_j= 0v_1+…+1v_j+…+0v_n$:

$[ T ]_{B}^{\Gamma} [ v_j  ]_{B}$ $=[T ]_{B}^{\Gamma} \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}$ $= col_j [T ]_{B}^{\Gamma}$ $=[ T(v_j) ]_{\Gamma}.$

Ahora bien, sea $v\in V$. Sabemos que existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{j=1}^{n} \lambda_j v_j $. Recordemos que, de acuerdo a la observación de la entrada 3.1, el vector de coordenadas abre sumas y saca escalares. Así,

$\begin{align*}
[ T(v) ]_{\Gamma}&=\left[ T \left( \sum_{j=1}^{n} \lambda_j v_j \right) \right]_{\Gamma} \tag{$v=\sum_{j=1}^{n} \lambda_j v_j $}\\
&=\left[ \sum_{j=1}^{n} \lambda_j T(v_j) \right]_{\Gamma} \tag{$T\in\mathcal{L}(V,W)$}\\
&=\sum_{j=1}^{n} \lambda_j [ T(v_j) ]_{\Gamma}\tag{Obs. entrada 3.1}\\
&=\sum_{j=1}^{n} \left( \lambda_j [ T ]_{B}^{\Gamma}[v_j ]_{B} \right)\tag{Af. 1}\\
&=[ T ]_{B}^{\Gamma} \left( \sum_{j=1}^{n} \left( \lambda_j[ v_j ]_{B} \right) \right) \tag{prop. matriz}\\
&=[ T]_{B}^{\Gamma} \left[ \sum_{j=1}^{n}\lambda_j v_j \right]_{B} \tag{Obs. entrada 3.1}\\
&=[ T ]_{B}^{\Gamma} [ v ]_{B}\tag{$v=\sum_{j=1}^{n} \lambda_j v_j $}\\
\therefore [T(v) ]_{\Gamma}=[ T ]_{B}^{\Gamma}[v ]_{B}.
\end{align*}$

Ejemplos

  • Sean $B = ((1,2),(1,1))$ y $\Gamma = ((3,1),(-1,2))$ bases ordenadas de $\mathbb{R}^2$.
    Sea $T\in\mathcal{L}(\mathbb{R}^2,\mathbb{R}^2)$ tal que $[ T ]_{B}^{\Gamma}=\begin{pmatrix} 4 & 2 \\ -1 & 2 \end{pmatrix}$.
    Entonces: $[T(x,y) ]_{\Gamma} = \begin{pmatrix} 2y \\ 5x-3y \end{pmatrix}.$

Sea $(x,y)\in\mathbb{R^2}$:
$(x,y)= \lambda (1,2) + \mu (1,1)=(\lambda + \mu , 2\lambda + \mu)$ para algunos $\lambda, \mu \in \mathbb{R}$.
Así:
$\lambda + \mu = x$ $…(1)$
$2\lambda + \mu = y$ $…(2)$

Restando$(1)$ a $(2)$ tenemos que $\lambda = y-x$ $…(3)$.
De sustituir $(3)$ en $(1)$ y despejar $\mu$ obtenemos que $\mu =2x-y$.
Por lo tanto, $[(x,y) ]_{B}= \begin{pmatrix} y-x \\ 2x-y \end{pmatrix}$.

Por la proposición 3.3.1, $[T(x,y) ]_{\Gamma} = [T ]_{B}^{\Gamma}$$[ (x,y) ]_{B}=$$\begin{pmatrix} 4 & 2 \\ -1 & 2 \end{pmatrix} \begin{pmatrix} y-x \\ 2x-y \end{pmatrix} = \begin{pmatrix} 2y \\ 5x-3y \end{pmatrix}$.

Además, de lo anterior concluimos que $T(x,y)=2y(3,1)+(5x-3y)(-1,2)$$=(6y,2y)+(-5x+3y,10x-6y)$$=(-5x+9y,10x-4y)$.

Tarea Moral

  1. Sean $K=\mathbb{R}$, $T:\mathcal{M}_{2\times 2}(\mathbb{R})\longrightarrow\mathcal{M}_{2\times 2}(\mathbb{R})$ con $T(A)=A^t$ y $B=\Gamma = (E_{11},E_{12},E_{21},E_{22})$ la base canónica. Considera $v= \begin{pmatrix} -7 & \frac{1}{2} \\ \pi & 0 \end{pmatrix}$. Calcula $[ T ]_{B}^{\Gamma}$ y úsala para encontrar $[ T(v) ]_{\Gamma}$.
  2. Sean $K=\mathbb{R}$, $V=\{ a+bx+cx^2|a,b,c \in \mathbb{R} \}$, $T: V \longrightarrow V$ con $T(f(x))=3(f'(x))(2-x)+4f(x)$, $B=(1,x,x^2)$ la base canónica y $\Gamma = (1+2x+3x^2,-1+4x+2x^2,-2+x+x^2)$.
    Considera $v=-5+11x-2x^2$. Calcula $[ T ]_{B}^{\Gamma}$ y úsala para encontrar $[T(v) ]_{\Gamma}$.

Más adelante…

Ahora que hemos entendido cómo es la matriz asociada a una transformación lineal recordemos que las transformaciones lineales se pueden multiplicar por escalares y se pueden sumar entre sí. Es natural entonces preguntarse: ¿cómo se relaciona la matriz asociada a una transformación con la matriz asociada al producto de dicha transformación con algún escalar?, ¿cómo se relacionan las matrices asociadas a dos transformaciones lineales con la matriz asociada a la suma de dichas transformaciones?

Pequeño adelanto: resultará igual realizar la operación de la(s) transformación(es) y después fijarse en la matriz asociada, que tomar la(s) matriz(ces) asociada(s) a la(s) transformación(es) y posteriormente realizar las operaciones correspondientes en las matrices.

Entradas relacionadas

3.2. MATRIZ DE UNA TRANSFORMACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Cuando aprendimos sobre transformaciones lineales, vimos cómo una regla sencilla puede convertir un vector en otro dentro de un espacio. Pero, ¿cómo podemos representar esa transformación de manera compacta, ordenada y útil para hacer cálculos? Aquí es donde entra la matriz asociada a una transformación lineal: una herramienta poderosa que traduce la acción de transformar en un lenguaje que ya conocemos muy bien.

Además de ayudarnos a manejar las transformaciones lineales, las matrices nos permiten ingresar las instrucciones a los ordenadores
Si este video te gustó, podrías despúes investigar cómo se relacionan la geometría proyectiva, los videojuegos y el álgebra lineal

Nota: Dada $A=\begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \in \mathcal{M}_{m \times n}(K)$ con $K$ un campo, la columna $j$ de $A$ se denotará por $col_j(A)= \begin{pmatrix} a_{1j} \\ \vdots \\ a_{mj} \end{pmatrix}$.

MATRIZ DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V,W$ $K$-espacios vectoriales de dimensión finita, $B = (v_1,v_2,…,v_n)$, $\Gamma = (w_1,w_2,…,w_m)$ bases ordenadas de $V$ y $W$ respectivamente y $T\in\mathcal{L}(V,W)$. Llamamos matriz de $T$ respecto a $B$ y $\Gamma$ a la matriz $[ T ]^{\Gamma}_{B}$$\in\mathcal{M}_{m\times n}(K)$ donde para toda $j\in \{ 1,2,…n \}$ tenemos que $col_j( [ T ]^{\Gamma}_{B} )=[ T(v_j) ]_{\Gamma}$.

Observación: Si $[ T ]^{\Gamma}_{B}= \begin{pmatrix} a_{11} & … & a_{1j} & … & a_{1n} \\ \vdots & & \vdots & & \vdots \\ a_{m1} & … & a_{mj} & … & a_{mn} \end{pmatrix}$, entonces $T(v_j)= a_{1j}w_1 + … + a_{mj}w_m$.

Ejemplos

  • Sean $V=\{ a+bx+cx^2 + dx^3 | a,b,c,d\in\mathbb{R} \}$, $W=\{ e+fx+gx^2 | e,f,g\in\mathbb{R} \}$ y $T:V\longrightarrow W$ donde $\forall p(x)\in V (T(p(x))=p'(x)$.
    Sean $B =(1,x,x^2,x^3)$, $\Gamma =(1,x,x^2)$ bases ordenadas de $V$ y $W$ respectivamente.
    Entonces se cumple que:
    $[T ]^{\Gamma}_{B}= \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix}$ y $\forall p(x)\in V \;([ T(p(x))]_{\Gamma} = [ T]^{\Gamma}_{B} [ p(x) ]_{B})$

Justificación. Tenemos que:
$T(1)=1’=0$. Así, $T(1)=(0)1+0x+0^2$.
$T(x)=x’=1$. Así, $T(x)=(1)1+0x+0x^2$.
$T(x^2)=(x^2)’=2x$. Así, $T(x^2)=(0)1+2x+0x^2$.
$T(x^3)=(x^3)’=3x^2$. Así, $T(x^3)=(0)1+0x+3x^2$.

$[T ]^{\Gamma}_{B} = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix}_{3 \times 4}$

Ahora bien, sea $p(x)=a + bx + cx^2 + dx^3 \in V$.
Entonces $[p(x)]_{B} = \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix}$ y $T(p(x))=p'(x)=b+2cx+3dx^2$.

Por lo tanto, $[T ]^{\Gamma}_{B} [ p(x) ]_{B} = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix} \begin{pmatrix} a \\ b \\ c \\ d \end{pmatrix} = \begin{pmatrix} b \\ 2c \\ 3d \end{pmatrix} =[ T(p(x))]_{\Gamma}$.

  • Sean $V=\{ a+bx+cx^2 + dx^3 | a,b,c,d\in\mathbb{R} \}$, $W=\{ e+fx+gx^2 | e,f,g\in\mathbb{R} \}$.
    Sean $B =(1,x,x^2,x^3)$, $\Gamma =(1,x,x^2)$ bases ordenadas de $V$ y $W$ respectivamente. Si $S\in \mathcal{L}(V,W)$ es tal que $[S ]^{\Gamma}_{B} = \begin{pmatrix} 1 & -1 & 0 & 4\\ 0 & 1 & 2 & 1 \\ 1 & 0 & 1 & 2 \end{pmatrix}$, entonces $\forall a+bx+cx^2+dx^3\in V \;(S(a+bx+cx^2+dx^3)$$=(a-b+4d)+(b+2c+d)x+(a+c+2d)x^2)$

Justificación. Sea $a+bx+cx^2+dx^3\in V$.
$S(1)=1(1)+0x+1x^2=1+x^2$
$S(x)=-1(1)+1x+0x^2=-1+x$
$S(x^2)=0(1)+2x+1x^2=2x+x^2$
$S(x^3)=4(1)+1x+2x^2=4+x+2x^2$

Entonces $S(a+bx+cx^2+dx^3)=aS(1)+bS(x)+cS(x^2)+dS(x^3)$$=a(1+x^2)+b(-1+x)+c(2x+x^2)+d(4+x+2x^2)$$=a+ax^2-b+bx+2cx+cx^2+4d+dx+2dx^2$$=(a-b+4d)+(b+2c+d)x+(a+c+2d)x^2$

  • Sea $T:\mathbb{R}^3 \longrightarrow \mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3 (T(x,y,z)=(2x+y,x-y+3z))$.
    Sean $B = ((1,2,0),(0,3,4),(1,-1,0))$ y $\mathcal{C}_3=(e_1,e_2,e_3)$ bases ordenadas de $\mathbb{R}^3$
    Sean $\Gamma = ((1,-1),(0,1))$ y $\mathcal{C}_2=(e_1,e_2)$ bases ordenadas de $\mathbb{R}^2$.
    Entonces $[T ]^{\mathcal{C}_2}_{B} = \begin{pmatrix} 4 & 3 & 1 \\ -1 & 9 & 2 \end{pmatrix}_{2 \times 3}$
    $[ T ]^{\mathcal{C}_2}_{\mathcal{C}_3} = \begin{pmatrix} 2 & 1 & 0 \\ 1 & -1 & 3 \end{pmatrix}_{2 \times 3}$
    $[T ]^{\Gamma}_{B} = \begin{pmatrix} 4 & 3 & 1 \\ 3 & 12 & 3 \end{pmatrix}_{2 \times 3}$
    $[ T ]^{\Gamma}_{\mathcal{C}_3} = \begin{pmatrix} 2 & 1 & 0 \\ 3 & 0 & 3 \end{pmatrix}_{2 \times 3}$

Justificación. Calculemos una a una:

$T(1,2,0)=(4,-1)=4e_1-1e_2$
$T(0,3,4)=(3,9)=3e_1+9e_2$
$T(1,-1,0)=(1,2)=1e_1+2e_2$
Entonces $[ T ]^{\mathcal{C}_2}_{B} = \begin{pmatrix} 4 & 3 & 1 \\ -1 & 9 & 2 \end{pmatrix}$

$T(e_1)=(2,1)=2e_1+1e_2$
$T(e_2)=(1,-1)=1e_1-1e_2$
$T(e_3)=(0,3)=0e_1+3e_2$
Entonces $[ T ]^{\mathcal{C}_2}_{\mathcal{C}_3} = \begin{pmatrix} 2 & 1 & 0 \\ 1 & -1 & 3 \end{pmatrix}$

$T(1,2,0)=(4,-1)=4(1,-1)+3(0,1)$
$T(0,3,4)=(3,9)=3(1,-1)+12(0,1)$
$T(1,-1,0)=(1,2)=1(1,-1)+3(0,1)$
Entonces $[ T]^{\Gamma}_{B} = \begin{pmatrix} 4 & 3 & 1 \\ 3 & 12 & 3 \end{pmatrix}$

$T(e_1)=(2,1)=2(1,-1)+3(0,1)$
$T(e_2)=(1,-1)=1(1,-1)+0(0,1)$
$T(e_3)=(0,3)=0(1,-1)+3(0,1)$
Entonces $[ T ]^{\Gamma}_{\mathcal{C}_3} = \begin{pmatrix} 2 & 1 & 0 \\ 3 & 0 & 3 \end{pmatrix}$

Tarea Moral

  1. Sea $T: \mathbb{R}^n \longrightarrow \mathbb{R}^n$ con $T(x_1,x_2,…,x_n)=(x_n,x_{n-1},…,x_1)$
    Sea $B=\Gamma = (e_1,e_2,…,e_n)$ la base canónica
    Calcula $[T]^{\Gamma}_{B}.$
  2. Sea $T: \mathcal{M}_{2\times 2}(\mathbb{R})\longrightarrow \mathcal{M}_{2\times 2}(\mathbb{R})$ con $T(A)=A^t$.
    Sean $B=\Gamma=(E_{11},E_{1,2},E_{2,1},E_{22})$ la base canónica y
    $v=\begin{pmatrix} -7 & \frac{1}{2} \\ \pi & 0 \end{pmatrix}.$
    Calcula $[ T ]^{\Gamma}_{B}$ y $[ v ]_{B}$. Calcula $[ T(v)]_{\Gamma}$ y $[ T ]_{B}^{\Gamma} [ v ]_{B}$ y compáralos.

Más adelante…

En la siguiente entrada nos centraremos en un único resultado:
Sean $V,W$ $K$ – espacios vectoriales de dimensión finita con $B$ y $\Gamma$ bases ordenadas de $V$ y $W$ respectivamente y $T\in \mathcal{L}(V,W)$.
Entonces para todo $v\in V$ se cumple que $[ T(v)]_{\Gamma} =[ T ]_{B}^{\Gamma} [ v ]_{B}.$

Entradas relacionadas

3.1. BASE ORDENADA Y VECTOR DE COORDENADAS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Nuestro cerebro no se queda sólo con las palabras: al escucharlas o leerlas, activa áreas relacionadas con la memoria, los sentidos y la experiencia, creando imágenes mentales que dan sentido al mensaje.
Esta interpretación va más allá del idioma y así pasa cuando comprendemos el espacio vectorial más allá de su base.

BASE ORDENADA DE UN ESPACIO VECTORIAL

Definición: Sea $V$ un $K$ – espacio vectorial de dimensión finita $n$. Una base ordenada de $V$ es una $n$ – ada de vectores de $V$ $(v_1,v_2,…,v_n)$, con $v_1,v_2,…,v_n\in V$ distintos, tal que $\{ v_1,v_2,…,v_n\}$ es una base de $V$.

Nota: En ocasiones la base ordenada $(v_1,v_2,…,v_n)$ se denota simplemente por $\{ v_1,v_2,…,v_n\}$, haciendo la convención de que los subíndices de dichos vectores indican el orden en que se van a considerar.

VECTOR DE COORDENADAS RESPECTO A UNA BASE

Definición: Sea $V$ un $K$ – espacio vectorial de dimensión finita $n$. Sean $\beta =(v_1,v_2,…,v_n)$ una base ordenada de $V$ y $v\in V$. Si $v=\lambda_1v_1+\lambda_2v_2+…+\lambda_nv_n$ tenemos que el vector de coordenadas de $v$ respecto a $\beta$ es:


$[ v ]_{\beta} = \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ \vdots \\ \lambda_n \end{pmatrix} \in \mathcal{M}_{n\times 1} (K).$

o bien,

$[v]_\beta=(\lambda_1,\lambda_2,\cdots ,\lambda_n)^t.$

Observación: Para cualesquiera $u\in V$ y $\lambda\in K$ tenemos que $[ u+\lambda v ]_{\beta} =[ u ]_{\beta} + \lambda [ v ]_{\beta}$.
Justificación. Como $v=\sum_{i=1}^{n}\mu_iv_i$ y para ciertos $\mu_1,\mu_2,…,\mu_n\in K$ y $u=\sum_{i=1}^{n}\gamma_iv_i$ para ciertos $\gamma_1,\gamma_2,…,\gamma_n\in K$, tenemos que $u+\lambda v=\sum_{i=1}^{n}(\gamma_i+\lambda\mu_i)v_i$.
Así, por la definicion de vector de coordenadas $[ u+\lambda v ]_\beta$ es

$[u+\lambda v]_\beta=(\gamma_1+\lambda\mu_1,\gamma_1,\cdots ,\gamma_n+\lambda\mu_n)^t=(\gamma_1,\cdots ,\gamma_n)^t+\lambda(\mu_1,\cdots ,\mu_n)^t=[u]_\beta+\lambda [v]_\beta.$

Ejemplos

  • Sean $V=K^n$ con $K$ un campo.
    Sea $\mathcal{C}$ la base canónica.
    Dado $v = (x_1, x_2, …, x_n)\in K^n$.
    $[ v ]_\mathcal{C} = \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}$

Justificación. $v = (x_1,x_2,…,x_n) = x_1 e_1 + x_2 e_2 + … + x_n e_n$.

  • Sean $V=\{ a+bx+cx^2|a,b,c\in K \}$.
    Sean $\mathcal{C}=(1,x,x^2)$, $\mathcal{\beta_1} = (x, x^2,1)$ y $\mathcal{\beta_2} = (1,1-x,1+x-x^2)$ bases ordenadas.
    Dado $p(x)=a+bx+cx^2\in V$.
    $[ p(x) ]_\mathcal{C} = \begin{pmatrix} a \\ b \\ c \end{pmatrix}$
    $[ p(x) ]_\mathcal{\beta_1} = \begin{pmatrix} b \\ c \\ a \end{pmatrix}$
    $[ p(x) ]_\mathcal{\beta_2} = \begin{pmatrix} a+b+2c \\ -b-c \\ -c \end{pmatrix}$

Justificación. Tenemos que $p(x)=a1+bx+cx^2$.
Luego $p(x)=bx+cx^2+a1$.
Y $p(x)=(a+b+2c)1+(-b-c)(1-x)-c(1+x-x^2)$.

  • Sean $V=\{ a+bx+cx^2|a,b,c\in K \}$.
    Sea $\beta = (3,3+x,3+x^2)$.
    Sea $q(x)\in V$ tal que $[ q(x) ]_\beta = \begin{pmatrix} 12 \\ 3 \\ 6 \end{pmatrix}$.
    Entonces $q(x)=63+3x+6x^2$.

Justificación. Tenemos que $q(x)=(12)3+3(3+x)+6(3+x^2)$ $=63+3x+6x^2$.

Tarea Moral

  1. Sea $V$ un $K$ – espacio vectorial de dimensión finita $n$ con una base ordenada $\beta$.
    a) Demuestra que la transformación lineal $\phi_{\beta} : V \longrightarrow K^n$ definida para todo $x \in V$ como $\phi_{\beta} (x) = [x]_{\beta}$ es un isomorfismo de $V$ con respecto a la base $\beta$. Reflexiona acerca de cómo este resultado ayuda a estudiar al espacio vectorial $V$ a partir del espacio de $n$-adas $K^n$.
  2. Considera $K=\mathbb{R}$ y $V=\{ a+bx+cx^2|a,b,c\in K \}$ y $\beta$ la base ordenada $\beta=(x^2,-x^2+x,-x+1)$. Encuentra $[p(x)]_\beta$ para $p(x)=a+bx+cx^2\in V.$
  3. Considera $K=\mathbb{R}$ y $V=\mathcal{M}_{2\times 2}(\mathbb{R})$ y $\beta$ la base ordenada $\gamma=(A,B,C,D)$ con $A=\begin{pmatrix}1&-2\\1&1\end{pmatrix}$,$B=\begin{pmatrix}0&2\\1&-3\end{pmatrix}$,$C=\begin{pmatrix}-3&6\\-2&1\end{pmatrix}$ y $D=\begin{pmatrix}1&-2\\1&5\end{pmatrix}$. Encuentra $[E]_\gamma$ para $E=\begin{pmatrix}1&-2\\-2&1\end{pmatrix}$.

Más adelante…

Al introducir bases que requieren un orden y recordar que toda transformación lineal está definida por el efecto que tiene en una base de su dominio, podemos lograr nuestro objetivo: introducir matrices para representar nuestras transformaciones.

Las matrices pasan entonces de ser solo un ejemplo de espacio vectorial a ser la herramienta esencial para el manejo de las transformaciones lineales. De hecho, son la herramienta que permite usar transformaciones lineales en informática.

Entradas relacionadas

2.7. TRANSFORMACIONES LINEALES INVERTIBLES E ISOMORFISMOS: definiciones, equivalencias y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

«Ir y venir» de un espacio a otro da ventajas enormes
En estos casos, las transformaciones no crean un cambio permanente, podemos pensarlo también como un puente que permite retornar

Teorema (2.7.1.): Sean $V$ y $W$ dos $K$ – espacios vectoriales de dimensión finita con $\dim V=\dim W$ y $T\in\mathcal{L}(V,W)$. Las siguientes condiciones son equivalentes:

a) $T$ es invertible
b) $T$ es inyectiva
c) $T$ es suprayectiva
d) Para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$
e) Existe $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$

Demostración: Veamos la cadena de implicaciones.

a) $\Rightarrow$ b) Sup. que $T$ es invertible.

Por lo visto en la entrada anterior, tenemos que $T$ es biyectiva.
En particular, $T$ es inyectiva.

b) $\Rightarrow$ c) Sup. que $T$ es inyectiva.

Entonces $Núc T=\{ \theta_V\}$. De modo que $\dim Núc T=0$.
Por el Teorema de la dimensión (2.3.1.), $\dim V =\dim NúcT+\dim ImT=\dim ImT$.

Como $\dim W=\dim V$, entonces $\dim W=\dim ImT$.
Y sabemos que $ImT\leqslant W$, así que al tener la misma dimensión resulta que $ImT=W$.
Por lo tanto, $T$ es suprayectiva.

c) $\Rightarrow$ d) Sup. que $T$ es suprayectiva.

Sea $\beta =\{ v_1,v_2,…,v_n\}$ una base de $V$.

Sabemos que $\langle T(v_1),T(v_2),…,T(v_n) \rangle\subseteq W$.
Veamos que tenemos también la otra igualdad.
Sea $w\in W$.

Como $T$ es suprayectiva, $\exists v\in V(T(v)=w)$.
Y como $\beta$ es base de $V$, entonces existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.

Entonces $w=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))$$=\sum_{i=1}^{n}(\lambda_i T(v_i))\in \langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Así, $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Y como $\dim W=\dim V$ y es finita, entonces $\{ T(v_1),T(v_2),…,T(v_n) \}$ debe ser l.i.
Por tanto, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$.

d) $\Rightarrow$ e) Sup. que para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Como todo espacio vectorial tiene al menos una base, entonces es inmediato concluir que existe al menos una base $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

e) $\Rightarrow$ a) Sup. que $\beta =\{ v_1,v_2,…,v_n \}$ es una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Entonces $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle\leqslant Im(T)\leqslant W$.
De donde, $W=Im(T)$.
Por lo tanto, $T$ es suprayectiva.

Ahora, sea $v\in NúcT$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.
Entonces $\theta_W=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))=\sum_{i=1}^{n}(\lambda_i T(v_i))$.
Y como $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$, resulta que $\theta\notin \{ T(v_1),T(v_2),…,T(v_n) \}$.

Así, $\theta_W=\sum_{i=1}^{n}(\lambda_i T(v_i))$ implica que $\forall i\in\{1,2,…,n\}(\lambda_1=\lambda_2=…=\lambda_n=0)$. Y $v=\sum_{i=1}^{n}(\lambda_i v_i)=\sum_{i=1}^{n}(0 v_i)=\theta_V$.
De donde, $NúcT=\{\theta_V\}$.
Por lo tanto $T$ es inyectiva.

Por lo tanto, $T$ es biyectiva.

Teorema (2.7.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita.
Si existe $T\in\mathcal{L}(V,W)$ invertible. Entonces $W$ es de dimensión finita y $\dim V=\dim W.$

Demostración: Sup. que existe $T\in\mathcal{L}(V,W)$ invertible.

Por el teorema 2.7.1., $T$ es biyectiva.
Como es suprayectiva, $Im T=W$. Por lo que $\dim (ImT)=\dim W$.
Como es inyectiva, $Núc T=\{\theta_V \}$. Por lo que $\dim(Núc T)=0$.

Por el teorema de la dimensión (2.3.1.) $\dim V=\dim (Núc T)+\dim (Im T)$$=0+\dim (ImT)=\dim (ImT)=\dim W$.

Como $V$ es de dimensión finita y $\dim V=\dim W$, entonces $W$ es de dimensión finita.

ISOMORFISMO

Definición: Sean $V,W$ $K$ – espacios vectoriales. Decimos que $V$ es isomorfo a $W$, denotado como $V\cong W$, si existe $\varphi \in\mathcal{L}(V,W)$ invertible. A $\varphi$ le llamamos isomorfismo de $V$ en $W$.

Ejemplos

  • Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$.
    $\varphi(x, y) = (x + y, x – y)$ es un isomorfismo entre $\mathbb{R}^2$ y $\mathbb{R}^2$

Justificación. Sean $u = (x_1, y_1) , v = (x_2, y_2) \in \mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

  • Sea $M = \left\{ \begin{pmatrix} a & b \\ 0 & 0 \end{pmatrix} | a, b \in \mathbb{R} \right\} \leqslant M_{2 \times 2}(\mathbb{R})$.
    $\varphi : \mathbb{R}^2 \longrightarrow M$ definida para cada $(x,y) \in \mathbb{R}^2$ como $\varphi(x, y) = \begin{pmatrix} x & y \\ 0 & 0 \end{pmatrix}$ es un isomorfismo entre $\mathbb{R}^2$ y $M$

Justificación. Sean $u = (x_1, y_1)$, $v = (x_2, y_2)$ en $\mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

1) P.D. $\varphi$ es lineal.

$\varphi(\lambda u + v) = \varphi(\lambda x_1 + x_2, \lambda y_1 + y_2)$ $= \begin{pmatrix} \lambda x_1 + x_2 & \lambda y_1 + y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \begin{pmatrix} x_1 & y_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} x_2 & y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \varphi(u) + \varphi(v)$

Teorema (2.7.3.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita. Entonces:
$V\cong W$ si y sólo si $\dim V=\dimW$.

Demostración: Veamos cada implicación.

$\Rightarrow$) Sup. que $V\cong W$.

Por def. existe $\varphi\in\mathcal{L}(V,W)$ invertible.

Por el teorema (2.7.2.), $\dim V=\dim W$.

$\Leftarrow$) Sup. $\dim V=\dim W$.

Digamos que $\dim V=n=\dim W$ donde $n\in\mathbb{N}$.

Sean $\{ v_1,v_2,…,v_n\}$ base de $V$ y $\{ w_1,w_2,…,w_n\}$ de $W$.
Sabemos que existe $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n \}(S(v_i)=w_i)$.
Así, $\{ w_1,w_2,…,w_n\}=\{ T(v_1),T(v_2),…,T(v_n)\}$ y por lo tanto, $\{ T(v_1),T(v_2),…,T(v_n)\}$ es base de $W$.

Por el teorema (2.7.1.), $S$ es invertible. Así, $S$ es un isomorfismo de $V$ en $W$.

Por lo tanto $V\cong W$.

Corolario (2.7.4.): Si $V$ es un $K$ espacio vectorial de dimensión finita $n$. Entonces $V\cong K^{n}$.

Tarea Moral

  1. Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ tal que $\forall (x,y) \in \mathbb{R}^2 (T (x,y) = (5x + 2y , 3x-y) )$
    Prueba que $T$ es invertible y encuentra $T^{-1}$
  2. Sean $K$ campo y $V = \left\{ \begin{pmatrix} a & a+b \\ 0 & c \end{pmatrix} | a,b,c \in K \right\}$
    Determina si $V$ es isomorfismo a $K^3$ y si lo es construye un isomorfismo de $V$ a $K^3$
  3. Demuestra que la transformación $\varphi$ definida en la demostración del corolario (1.7.4.) es un isomorfismo.

Más adelante…

Veremos muy brevemente los conceptos de base ordenada y vector de coordenadas.

Entenderemos por qué a veces conviene manejar conjuntos con un orden determinado en lugar de solo manejarlo como un listado indistinto… Al fin y al cabo, manejar transformaciones con matrices resulta muy útil y al hablar de matrices, es natural solicitar orden.

Entradas relacionadas