Archivo del Autor: Jennyfer Paulina Bennetts Castillo

2.7. TRANSFORMACIONES LINEALES INVERTIBLES E ISOMORFISMOS: definiciones, equivalencias y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

«Ir y venir» de un espacio a otro da ventajas enormes
En estos casos, las transformaciones no crean un cambio permanente, podemos pensarlo también como un puente que permite retornar

Teorema (2.7.1.): Sean $V$ y $W$ dos $K$ – espacios vectoriales de dimensión finita con $\dim V=\dim W$ y $T\in\mathcal{L}(V,W)$. Las siguientes condiciones son equivalentes:

a) $T$ es invertible
b) $T$ es inyectiva
c) $T$ es suprayectiva
d) Para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$
e) Existe $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$

Demostración: Veamos la cadena de implicaciones.

a) $\Rightarrow$ b) Sup. que $T$ es invertible.

Por lo visto en la entrada anterior, tenemos que $T$ es biyectiva.
En particular, $T$ es inyectiva.

b) $\Rightarrow$ c) Sup. que $T$ es inyectiva.

Entonces $Núc T=\{ \theta_V\}$. De modo que $\dim Núc T=0$.
Por el Teorema de la dimensión (2.3.1.), $\dim V =\dim NúcT+\dim ImT=\dim ImT$.

Como $\dim W=\dim V$, entonces $\dim W=\dim ImT$.
Y sabemos que $ImT\leqslant W$, así que al tener la misma dimensión resulta que $ImT=W$.
Por lo tanto, $T$ es suprayectiva.

c) $\Rightarrow$ d) Sup. que $T$ es suprayectiva.

Sea $\beta =\{ v_1,v_2,…,v_n\}$ una base de $V$.

Sabemos que $\langle T(v_1),T(v_2),…,T(v_n) \rangle\subseteq W$.
Veamos que tenemos también la otra igualdad.
Sea $w\in W$.

Como $T$ es suprayectiva, $\exists v\in V(T(v)=w)$.
Y como $\beta$ es base de $V$, entonces existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.

Entonces $w=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))$$=\sum_{i=1}^{n}(\lambda_i T(v_i))\in \langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Así, $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle$.

Y como $\dim W=\dim V$ y es finita, entonces $\{ T(v_1),T(v_2),…,T(v_n) \}$ debe ser l.i.
Por tanto, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$.

d) $\Rightarrow$ e) Sup. que para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Como todo espacio vectorial tiene al menos una base, entonces es inmediato concluir que existe al menos una base $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

e) $\Rightarrow$ a) Sup. que $\beta =\{ v_1,v_2,…,v_n \}$ es una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.

Entonces $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle\leqslant Im(T)\leqslant W$.
De donde, $W=Im(T)$.
Por lo tanto, $T$ es suprayectiva.

Ahora, sea $v\in NúcT$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.
Entonces $\theta_W=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))=\sum_{i=1}^{n}(\lambda_i T(v_i))$.
Y como $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$, resulta que $\theta\notin \{ T(v_1),T(v_2),…,T(v_n) \}$.

Así, $\theta_W=\sum_{i=1}^{n}(\lambda_i T(v_i))$ implica que $\forall i\in\{1,2,…,n\}(\lambda_1=\lambda_2=…=\lambda_n=0)$. Y $v=\sum_{i=1}^{n}(\lambda_i v_i)=\sum_{i=1}^{n}(0 v_i)=\theta_V$.
De donde, $NúcT=\{\theta_V\}$.
Por lo tanto $T$ es inyectiva.

Por lo tanto, $T$ es biyectiva.

Teorema (2.7.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita.
Si existe $T\in\mathcal{L}(V,W)$ invertible. Entonces $W$ es de dimensión finita y $\dim V=\dim W.$

Demostración: Sup. que existe $T\in\mathcal{L}(V,W)$ invertible.

Por el teorema 2.7.1., $T$ es biyectiva.
Como es suprayectiva, $Im T=W$. Por lo que $\dim (ImT)=\dim W$.
Como es inyectiva, $Núc T=\{\theta_V \}$. Por lo que $\dim(Núc T)=0$.

Por el teorema de la dimensión (2.3.1.) $\dim V=\dim (Núc T)+\dim (Im T)$$=0+\dim (ImT)=\dim (ImT)=\dim W$.

Como $V$ es de dimensión finita y $\dim V=\dim W$, entonces $W$ es de dimensión finita.

ISOMORFISMO

Definición: Sean $V,W$ $K$ – espacios vectoriales. Decimos que $V$ es isomorfo a $W$, denotado como $V\cong W$, si existe $\varphi \in\mathcal{L}(V,W)$ invertible. A $\varphi$ le llamamos isomorfismo de $V$ en $W$.

Ejemplos

  • Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$.
    $\varphi(x, y) = (x + y, x – y)$ es un isomorfismo entre $\mathbb{R}^2$ y $\mathbb{R}^2$

Justificación. Sean $u = (x_1, y_1) , v = (x_2, y_2) \in \mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

  • Sea $M = \left\{ \begin{pmatrix} a & b \\ 0 & 0 \end{pmatrix} | a, b \in \mathbb{R} \right\} \leqslant M_{2 \times 2}(\mathbb{R})$.
    $\varphi : \mathbb{R}^2 \longrightarrow M$ definida para cada $(x,y) \in \mathbb{R}^2$ como $\varphi(x, y) = \begin{pmatrix} x & y \\ 0 & 0 \end{pmatrix}$ es un isomorfismo entre $\mathbb{R}^2$ y $M$

Justificación. Sean $u = (x_1, y_1)$, $v = (x_2, y_2)$ en $\mathbb{R}^2$ y $\lambda \in \mathbb{R}$.

1) P.D. $\varphi$ es lineal.

$\varphi(\lambda u + v) = \varphi(\lambda x_1 + x_2, \lambda y_1 + y_2)$ $= \begin{pmatrix} \lambda x_1 + x_2 & \lambda y_1 + y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \begin{pmatrix} x_1 & y_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} x_2 & y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \varphi(u) + \varphi(v)$

Teorema (2.7.3.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita. Entonces:
$V\cong W$ si y sólo si $\dim V=\dimW$.

Demostración: Veamos cada implicación.

$\Rightarrow$) Sup. que $V\cong W$.

Por def. existe $\varphi\in\mathcal{L}(V,W)$ invertible.

Por el teorema (2.7.2.), $\dim V=\dim W$.

$\Leftarrow$) Sup. $\dim V=\dim W$.

Digamos que $\dim V=n=\dim W$ donde $n\in\mathbb{N}$.

Sean $\{ v_1,v_2,…,v_n\}$ base de $V$ y $\{ w_1,w_2,…,w_n\}$ de $W$.
Sabemos que existe $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n \}(S(v_i)=w_i)$.
Así, $\{ w_1,w_2,…,w_n\}=\{ T(v_1),T(v_2),…,T(v_n)\}$ y por lo tanto, $\{ T(v_1),T(v_2),…,T(v_n)\}$ es base de $W$.

Por el teorema (2.7.1.), $S$ es invertible. Así, $S$ es un isomorfismo de $V$ en $W$.

Por lo tanto $V\cong W$.

Corolario (2.7.4.): Si $V$ es un $K$ espacio vectorial de dimensión finita $n$. Entonces $V\cong K^{n}$.

Tarea Moral

  1. Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ tal que $\forall (x,y) \in \mathbb{R}^2 (T (x,y) = (5x + 2y , 3x-y) )$
    Prueba que $T$ es invertible y encuentra $T^{-1}$
  2. Sean $K$ campo y $V = \left\{ \begin{pmatrix} a & a+b \\ 0 & c \end{pmatrix} | a,b,c \in K \right\}$
    Determina si $V$ es isomorfismo a $K^3$ y si lo es construye un isomorfismo de $V$ a $K^3$
  3. Demuestra que la transformación $\varphi$ definida en la demostración del corolario (1.7.4.) es un isomorfismo.

Más adelante…

Veremos muy brevemente los conceptos de base ordenada y vector de coordenadas.

Entenderemos por qué a veces conviene manejar conjuntos con un orden determinado en lugar de solo manejarlo como un listado indistinto… Al fin y al cabo, manejar transformaciones con matrices resulta muy útil y al hablar de matrices, es natural solicitar orden.

Entradas relacionadas

2.6. COMPOSICIÓN DE TRANSFORMACIONES LINEALES E IDENTIDAD: definiciones y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Cuando preparamos un platillo para comer, podemos simplificar diciendo el nombre, pero no es tan simple como suena, en realidad tuvimos que seguir una serie de pasos, una receta en cierto orden
Pues así sucede con la composición de transformaciones

COMPOSICIÓN DE TRANSFORMACIONES LINEALES

Definición: Sean $U,V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$, $S\in\mathcal{L}(W,U)$. Definimos la composición de $S$ con $T$ como $S\circ T:V\longrightarrow U$ donde $\forall v\in V((S\circ T)(v)=S(T(v)))$

Ejemplos

  • Sean $T_1 , T_2 \in \mathcal{L}(\mathbb{R}^2 , \mathbb{R}^2)$ definidas para todo $(x,y) \in \mathbb{R}^2$ como:
    $T_1 (x,y) = (3x , 3y)$
    $T_2 (x,y) = (-y , x)$
    $(T_1 \circ T_2)(x,y) = (-3y , 3x) = (T_2 \circ T_1)(x,y)$

Justificación. Sea $(x,y) \in \mathbb{R}^2$

$(T_1 \circ T_2)(x,y) = T_1 (T_2 (x,y) )$ $= T_1 (-y , x) = (-3y , 3x)$

$(T_2 \circ T_1)(x,y) = T_2 (T_1 (x,y) )$ $= T_2 (3x , 3y) = (-3y , 3x)$

  • Sean $T_1 , T_2 \in \mathcal{L}(\mathbb{R}^2 , \mathbb{R}^2)$ definidas para todo $(x,y) \in \mathbb{R}^2$ como:
    $T_1 (x,y) = (y , x)$
    $T_2 (x,y) = (x , 2y)$
    $(T_1 \circ T_2)(x,y) = (2y , x)$
    $(T_2 \circ T_1)(x,y) = (y , 2x)$

Justificación. Sea $(x,y) \in \mathbb{R}^2$

$(T_1 \circ T_2)(x,y) = T_1 (T_2 (x,y) )$ $= T_1 (x , 2y) = (2y , x)$

$(T_2 \circ T_1)(x,y) = T_2 (T_1 (x,y) )$ $= T_2 (y , x) = (y , 2x)$

Teorema (2.6.1.): La composición de transformaciones lineales es lineal.

Demostración: Sean $U,V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$, $S\in\mathcal{L}(W,U)$.

P.D. $S\circ T\in\mathcal{L}(V,U)$.

Sean $x,y\in V$ y $\lambda\in K$.
Entonces $(S\circ T)(\lambda x + y)=S(T(\lambda x + y))$$=S(\lambda T(x) + T(y))=\lambda S(T(x)) + S(T(y))$$=\lambda (S\circ T)(x) + (S\circ T)(y)$.

Como $(S\circ T)(\lambda x + y)=\lambda (S\circ T)(x) + (S\circ T)(y)$, entonces $S\circ T\in\mathcal{L}(V,U)$.

Observación: La composición de transformaciones lineales es asociativa.

Proposición (2.6.2.): Sean $U,V,W$ $K$ – espacios vectoriales, $T_1, T_2\in\mathcal{L}(V,W)$ y $S_1,S_2\in\mathcal{L}(W,U)$. Se cumple que:

a) $(S_1+S_2)\circ T_1=(S_1\circ T_1)+(S_2\circ T_1)$
b) $S_1\circ (T_1+T_2)=(S_1\circ T_1)+(S_1\circ T_2)$

Demostración: Sea $v\in V$.

a) $((S_1+S_2)\circ T_1)(v)=(S_1+S_2)(T_1(v))=S_1(T_1(v))+S_2(T_1(v))$$=(S_1\circ T_1)(v)+(S_2\circ T_1)(v)=((S_1\circ T_1)+(S_2\circ T_1))(v)$

Como $\forall v\in V(((S_1+S_2)\circ T_1)(v)=((S_1\circ T_1)+(S_2\circ T_1))(v))$, entonces $(S_1+S_2)\circ T_1=(S_1\circ T_1)+(S_2\circ T_1)$.

b) $(S_1\circ (T_1+T_2))(v)=S_1((T_1+T_2)(v))=S_1(T_1(v)+T_2(v))$$=S_1(T_1(v))+S_1(T_2(v))=(S_1\circ T_1)(v) + (S_1\circ T_2)(v)$$=((S_1\circ T_1)+(S_1\circ T_2))(v)$

Como $\forall v\in V ((S_1\circ (T_1+T_2))(v)=(S_1\circ T_1)+(S_1\circ T_2))$

Observación: Si $V$ es un $K$ – espacio vectorial y definimos $T:V\longrightarrow V$ como $T(v)=v$ para toda $v\in V$, entonces $T\in\mathcal{L}(V,V)$. Porque para cualesquiera $u, v\in V$ y $\lambda\in K$ tenemos que $T (\lambda u + v)=\lambda u + v = \lambda T (u) + T (v)$.

TRANSFORMACIÓN IDENTIDAD

Definición: Sea $V$ un $K$ – espacio vectorial. Definimos la transformación identidad en $V$ como $id_V:V\longrightarrow V$ donde $\forall v\in V(id_V (v)=v)$

Observación: Sean $V,W$ $K$ – espacios vectoriales y $T\mathcal{L}(V,W)$. Se tiene que $id_W\circ T=T$ y $T\circ id_V=T$. Porque para cualquier $v\in V$ tenemos que $(id_W\circ T)(v)=id_W(T(v))=T(v)$ y $(T\circ id_V)(v)=T(id_V(v))=T(v)$.

Nota: En los cursos básicos de Cálculo se demuestra que si tenemos dos conjuntos $A$ y $B$ y una función $f:A\longrightarrow B$, entonces $f$ es invertible si y sólo si $f$ es biyectiva. Donde se define $f$ invertible como una función para la cual existe una función, denotada como $f^{-1}:B\longrightarrow A$, tal que $f^{-1}\circ f=id_A$ y $f\circ f^{-1}=id_B$.

Proposición (2.6.3.): Sean $V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Si $T$ es invertible, entonces $T^{-1}\in\mathcal{L}(W,V)$.

Demostración: Sup. $T$ es invertible, i.e. $\exists T^{-1}:W\longrightarrow V$ tal que $T^{-1}\circ T=id_V$ y $T\circ T^{-1}=id_W$.
Entonces la Nota nos asegura que $T$ es biyectiva.

Sean $w_1,w_2\in W$ y $\lambda\in K$.
Como $T$ es suprayectiva, entonces $\exists v_1,v_2\in V$ tales que $T(v_1)=w_1$ y $T(v_2)=w_2$.

Así, $T^{-1}(\lambda w_1+w_2)=T^{-1}(\lambda T(v_1)+T(v_2))$$=T^{-1}(T(\lambda v_1+v_2))=(T^{-1}\circ T)(\lambda v_1+v_2)=id_V(\lambda v_1+v_2)$$=\lambda v_1+v_2$.

Tenemos que $T^{-1}(\lambda w_1+w_2)=\lambda v_1+v_2$.
Ahora bien, $v_1=Id_V(v_1)=(T^{-1}\circ T)(v_1)=T^{-1}(T(v_1))=T^{-1}(w_1)$ y análogamente $v_2=T^{-1}(w_2)$.

Entonces $T^{-1}(\lambda w_1+w_2)=\lambda v_1+v_2=\lambda T^{-1}(w_1)+T^{-1}(w_2)$.

Por lo tanto, $T^{-1}\in\mathcal{L}(V,W)$.

Tarea Moral

  1. Demuestra que la composición de transformaciones lineales es asociativa.
  2. Sean $T, S : \mathbb{R}[x] \longrightarrow \mathbb{R}[x]$ definidas para todo $f(x) \in \mathbb{R}[x]$:
    $T ( f(x) ) = \int_0^x f(t) dt$
    $S ( f(x) ) = \int f(x) dx$ con constante de integración $C = 0$
    Demuestra si $S \circ T = T \circ S$ o da un contraejemplo.

Más adelante…

Ahora veremos la equivalencia que existe entre $5$ breves enunciados que ya dominamos y que comprendemos bien lo que nos dicen sobre la estructura de las transformaciones.

Además aparecerá un nuevo concepto vital no solo en Álgebra Lineal, sino en las Matemáticas como ciencia… posiblemente ya lo haz visto antes: Isomorfismo.

Entradas relacionadas

2.5. TRANSFORMACIONES LINEALES ENTRE DOS ESPACIOS: operaciones para formar un espacio vectorial

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Haz operado funciones? Podemos sumar, restar, multiplicar, hacer producto por escalar, componer y en cada caso se estudia si el resultado es una función, cuál es su dominio y su codominio, y nos preguntamos para cada caso qué condiciones se requieren para conservar esa propiedad.

La suma de funciones se hace entrada a entrada en $\mathbb{R}^n$
Gráficamente muestra un desplazamiento punto a punto

Veremos la suma de transformaciones y la multiplicación por escalar.
Pero más que eso, veremos que dados dos espacios vectoriales, si para el conjunto de transformaciones lineales entre esos espacios, consideramos estas dos operaciones, formamos un nuevo espacio vectorial. Los dos grandes pilares del Álgebra Lineal por fin se unifican.

SUMA Y PRODUCTO DE TRANSFORMACIONES LINEALES

Definición: Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Definimos las siguientes operaciones:

  • La suma de $T$ y $S$ es $T +_{\mathcal{L}} S: V \longrightarrow W$ donde $\forall v\in V ((T +_{\mathcal{L}} S)(v)=T(v) +_{\mathcal{W}} S(v))$.
  • El producto de $T$ por el escalar $\lambda$ es $\lambda \cdot_{\mathcal{L}} T: V \longrightarrow W$ donde $\forall v\in V ((\lambda \cdot_{\mathcal{L}} T)(v)=\lambda \cdot_{\mathcal{W}} T(v))$.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\{a+bx+cx^2+dx^3|a,b,c,d\in\mathbb{R}\}$ y $W=\mathbb{R}^3$.
    Sean $T:V\longrightarrow W$ dada por $T(a+bx+cx^2+dx^3)=(a-b+2c,b-d,2a+c)$ y $S:V\longrightarrow W$ dada por $S(a+bx+cx^2+dx^3)=(b,2c,3d)$. Entonces:
    $T+S:V\longrightarrow W$ es $(T+S)(a+bx+cx^2+dx^3)=(a+2c,b-d+2c,2a+c+3d)$
    $4\cdot S:V\longrightarrow W$ es $(4\cdot S)(a+bx+cx^2+dx^3)=(4b,8c,12d)$

Justificación. Sea $a+bx+cx^2+dx^3\in V$.

$(T+S)(a+bx+cx^2+dx^3)$$=T(a+bx+cx^2+dx^3)+S(a+bx+cx^2+dx^3)$$=(a-b+2c,b-d,2a+c)+(b,2c,3d)$$=(a-b+2c+b,b-d+2c,2a+c+3d)$$=(a+2c,b+2c-d,2a+c+3d)$

  • Sean $F$ un campo, $V=\mathcal{M}_{2\times 3}(F)$ y $W=\mathcal{M}_{2\times 2}(F)$.
    Sean $T:V\longrightarrow W$ dada por $T \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix}$ y $S:V\longrightarrow W$ dada por $S \begin{pmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 2b_{21} – 2b_{22} & b_{23} – 2b_{22} \end{pmatrix}$. Entonces
    $T+2S:V\longrightarrow W$ es $(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Justificación. $2S\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$=2 \begin{pmatrix} 0 & 0 \\ 2a_{21} – 2a_{22} & a_{23} – 2a_{22} \end{pmatrix}$$= \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

$(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Nota: Para las demostraciones de los siguientes teoremas, se considerará a $T_0 : V\longrightarrow W$ como la transformación donde $\forall v\in V(T_0(v)=\theta_W)$.

Proposición (2.5.1.): Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Entonces $T+S\in\mathcal{L}(V,W)$ y $\lambda T\in\mathcal{L}(V,W)$.

Demostración: Sean $V,W$ $K$ – espacios vectoriales. Sean $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$.

P.D. 1) $T+S\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\lambda\in K$.
Entonces $(T+S)(\lambda u + v)=T(\lambda u + v)+S(\lambda u + v)$$=(\lambda T(u)+T(v))+(\lambda S(u)+S(v))$$=\lambda(T(u)+S(u))+(T(v)+S(v))=\lambda (T+S)(u)+(T+S)(v)$.
Como $(T+S)(\lambda u + v)=\lambda (T+S)(u)+(T+S)(v)$, entonces $T+S\in\mathcal{L}(V,W)$.

P.D. 2) $\lambda T\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\mu\in K$.

Entonces $(\lambda T)(\mu u + v)=\lambda T(\mu u + v)$$=\lambda (\mu T(u)+T(v))=\mu (\lambda T(u))+\lambda T(v)$$=\mu (\lambda T)(u)+(\lambda T)(v)$.
Como $(\lambda T)(\mu u + v)=\mu (\lambda T)(u)+(\lambda T)(v)$, entonces $\lambda T\in\mathcal{L}(V,W)$.

Teorema (2.5.2.): Sean $V,W$ $K$ – espacios vectoriales. Entonces $\mathcal{L}(V,W)$ con la suma y el producto escalar definidos es un $K$ – espacio vectorial.

Demostración: Sean $T,S,R\in\mathcal{L}(V,W)$ y $\lambda, \mu \in K$.

P.D. 1) $T+(S+R)=(T+S)+R$

Sea $v\in V$.
$(T+(S+R))(v)=T(v)+(S+R)(v)=T(V)+(S(v)+R(v))$$=(T(v)+S(v))+R(v)=(T+S)(v)+R(v)$$=((T+S)+R)(v)$.

Así, $\forall v\in V((T+(S+R))(v)=((T+S)+R)(v))$.
Por lo tanto, $T+(S+R)=(T+S)+R$.

P.D. 2) $T+S=S+T$

Sea $v\in V$.

$(T+S)(v)=T(v)+S(v)=S(v)+T(v)=(S+T)(v)$.

Así, $\forall v\in V((T+S)(v)=(S+T)(v))$.
Por lo tanto, $T+S=S+T$.

P.D. 3) $T+T_0=T_0+T=T$.

Sea $v\in V$.

$(T+T_0)(v)=T(v)+T_0(v)=T(v)+\theta_W=T(v)$.
$(T_0+T)(v)=(T+T_0)(v)=T(v)$.

Así, $\forall v\in V((T+T_0)(v)=(T_0+T)(v)=T(v))$.
Por lo tanto, $T+T_0=T_0+T=T$.
De este modo, $T_0$ cumple la función de neutro en $\mathcal{L}(V,W)$.

P.D. 4) Si $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$, entonces $T+\tilde{T}=\tilde{T}+T=T_0$.

Sea $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$.
Sea $v\in V$.

$(T+\tilde{T})(v)=T(v)+\tilde{T}(v)=T(v)+(-T(v))=\theta_W$.
$(\tilde{T}+T)(v)=(T+\tilde{T})(v)=\theta_W$.

Así, $\forall v\in V((T+\tilde{T})(v)=(\tilde{T}+T)(v)=\theta_W)$.
Por lo tanto, $T+\tilde{T}=\tilde{T}+T=T_0$.
De este modo, $\tilde{T}=-T=(-1)T\in\mathcal{L}(V,W)$ cumple la función de inverso de $T$ en $\mathcal{L}(V,W)$.

P.D. 5) $(1)T=T$.

Sea $v\in V$.

$(1T)(v)=(1)T(v)=T(v)$.

Así, $\forall v\in V((1T)(v)=T(v))$.
Por lo tanto, $(1)T=T$.

P.D. 6) $\lambda (\mu T)=(\lambda\mu)T$

Sea $v\in V$.

$(\lambda (\mu T))(v)=(\lambda )(\mu T)(V)$$=(\lambda )(\mu T(v))=(\lambda\mu )T(v)$$=((\lambda\mu )T)(v)$.

Así, $\forall v\in V((\lambda (\mu T))(v)=((\lambda\mu )T)(v))$.
Por lo tanto, $\lambda (\mu T)=(\lambda\mu )T$.

P.D. 7) $(\lambda + \mu)T=\lambda T + \mu T$.

Sea $v\in V$.

$((\lambda + \mu )T)(v)=(\lambda + \mu)T(v)=\lambda T(v)+\mu T(v)$$=(\lambda T)(v)+(\mu T)(v)=(\lambda T + \mu T)(v)$.

Así, $\forall v\in V((\lambda +\mu ) T)(v)=(\lambda T + \mu T)(v))$.
Por lo tanto, $(\lambda +\mu )T=\lambda T + \mu T$.

P.D. 8) $\lambda (T+S)=\lambda T + \lambda S$.

Sea $v\in V$.

$(\lambda (T+S))(v)=(\lambda )(T+S)(v)=\lambda (T(v)+S(v))$$=\lambda T(v)+ \lambda S(v)=(\lambda T)(v)+(\lambda S)(v)$$=(\lambda T + \lambda S)(v)$.

Así, $\forall v\in V((\lambda (T+S))(v)=(\lambda T + \lambda S)(v))$.
Por lo tanto, $\lambda (T+S)=\lambda T + \lambda S$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre el campo $K$ y $S\subseteq V$.
    Defina $S^0 = \{ T \in \mathcal{L}(V,W) | \forall x\in S(T(x) = \theta_W) \}$.
    ¿Es $S^0$ un subespacio de $\mathcal{L}(V,W)$ con las operaciones anteriormente vistas?
  2. Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    a) Demuestra que $v + W$ es un subespacio de $V$ si y sólo si $v \in W$
    b) Demuestra que $v_1 + W = v_2 + W$ si y sólo si $v_1 – v_2 \in W$

Más adelante…

En la siguiente entrada veremos una nueva operación: la composición.
Y al igual que en las funciones reales, esta operación da lugar a un nuevo concepto: la identidad
¿Qué propiedades cumple la composición? ¿Cómo funciona en este caso la identidad?

Entradas relacionadas

2.4. TRANSFORMACIÓN LINEAL: descripción a partir de su efecto en una base

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

En ocasiones se tiene desde un inicio la regla de correspondencia de una función y a partir de ella analizamos su comportamiento y los valores que se obtienen al aplicar la función. Sin embargo, a veces sólo se conoce su comportamiento y/o su evaluación en algunos elementos de su dominio y a partir de ello se busca describir la función por completo. En el caso de las transformaciones lineales entenderemos qué información nos ayuda a comprenderlas por completo y para ello las bases de un espacio jugarán un papel fundamental, veamos de qué forma.

En una función cuadrática, sabemos cómo cada coeficiente influye en el comportamiento de la gráfica.
En una ecuación lineal, sabemos cómo la pendiente y el término independiente determinan la gráfica.
Podemos identificar las cónicas y cada uno sus elementos de acuerdo a la ecuación que se describa.

Teorema (2.4.1.): Sean $V,W$ $K$ – espacios vectoriales donde $V$ es de dimensión finita $n$. Si $\beta =\{ v_1,v_2,…,v_n\}$ es una base de $V$, entonces para cualesquiera $w_1,w_2,…,w_n\in W$ existe una única $T\in\mathcal{L}(V,W)$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Demostración: Sea $\beta =\{v_1,v_2,…,v_n\}$ una base arbitraria de $V$.
Sean $w_1,w_2,…,w_n\in W$.

Entonces para cada $v\in V$ hay una única combinación lineal de elementos de $\beta$ que es igual a $v.$ Es decir, existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Primero propondremos una función que cumpla que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.
Después veremos que esa función es una transformación lineal.
Por último probaremos que es única.

Definamos $T:V\longrightarrow W$ como $T(v)=\sum_{i=1}^{n}\lambda_iw_i$.
Como $\lambda_1,\lambda_2,…,\lambda_n$ son únicos (y por tanto ya son fijos), entonces $T$ le asigna un único valor a cada $v\in V$ y así aseguramos que $T$ está bien definida.

Notemos que para cada $i\in\{1,2,…,n\}$ tenemos que $$v_i=0v_1+0v_2+…+0v_{i-1}+1v_i+0v_{i+1}+…+0v_n,$$ lo que implica por la forma en que se definió $T$ que para cada $i\in\{1,2,…,n\}$ $$T(v_i)=0w_1+0w_2+…+0w_{i-1}+1w_i+0w_{i+1}+…+0w_n=w_i.$$ Por lo tanto, $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Sabemos que $T$ es lineal si y sólo si para cualquier $\delta\in K$ y cualesquiera $v,u\in V$ se cumple que $T(\delta v+u)=\delta T(v)+T(u)$.

Sean $\delta\in K$ y $v,u\in V$. Como $\beta$ es una base de $V$ podemos escribir a $v$ y a $u$ como combinación lineal de los elementos de $\beta$, es decir existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ y $\mu_1,\mu_2,…,\mu_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$ y $u=\sum_{i=1}^{n}\mu_iv_i$.
Entonces:

\begin{align*}
\delta v+u & =\delta \left( \sum_{i=1}^{n}\lambda_i v_i\right) + \sum_{i=1}^{n}\mu_i v_i\\
&= \sum_{i=1}^{n}\delta(\lambda_i v_i) +\sum_{i=1}^{n}\mu_i v_i
\\&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\\
\therefore \delta v+u&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i
\end{align*}

Así,

\begin{align*}T(\delta v+u)&=T\left( \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\right)\\&=\sum_{i=1}^{n}(\delta\lambda_i+\mu_i) w_i\\&=\delta\left( \sum_{i=1}^{n}\lambda_i w_i\right) + \sum_{i=1}^{n}\mu_i w_i\\ &=\delta T(v)+T(u).\end{align*}

Por lo tanto, $T\in\mathcal{L}(V,W)$.

Para ver que la transformación lineal es única, tomemos $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n\}(S(v_i)=w_i)$. Sea $v\in V$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Entonces $S(v)=S\left( \sum_{i=1}^{n}\lambda_iv_i \right)$$=\sum_{i=1}^{n}\lambda_i S(v_i)=\sum_{i=1}^{n}\lambda_iw_i=T(v)$.
Por lo tanto $S=T$.

Corolario (2.4.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita $n$ y $\beta =\{v_1,v_2,…,v_n\}$ una base de $V$. Se cumple que si $T,S\in\mathcal{L}(V,W)$ son tales que $\forall i\in \{1,2,…,n\}(T(v_i)=S(v_i))$, entonces $T=S$.

Demostración: Sean $T,S\in\mathcal{L}(V,W)$ tales que $\forall i\in\{1,2,…,n\}(T(v_i)=S(v_i))$.

Para cada $i\in\{1,2,…,n\}$ $T(v_i)$ es un elemento de $W$ al que denotaremos por $w_i$. Con esta notación tenemos que $\forall i\in\{1,2,…,n\}(T(v_1)=w_i).$

Por el teorema 2.4.1., $T$ es la única transformación lineal de $V$ a $W$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Y como por hipótesis $\forall i\in\{1,2,…,n\}(T(v_1)=S(v_i))$, entonces $\forall i\in\{1,2,…,n\}(S(v_i)=w_i)$. Por lo que $T=S$.

Tarea Moral

  1. Exhibe dos transformaciones lineales diferentes $T, U$ tales que $Núc\,T=Núc\,U$ y $Im\,T=Im\,U.$
  2. Da un ejemplo de transformación lineal $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $Núc\,T=Im\,T$.
  3. Exhibe explícitamente la regla de correspondencia de la transformación lineal tal que $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $T(2,3)=(5,-14)$ y $T(-2,3)=(-2,3)$.

Más adelante…

Veremos cómo operar transformaciones lineales y qué espacio vectorial podemos definir gracias a éstas.

Entradas relacionadas

2.3. TEOREMA DE LA DIMENSIÓN: demostración e implicaciones

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

El primero de los teoremas en esta entrada es uno de los más importantes del curso. Este teorema nos simplifica cálculos, ya que en ocasiones nos permite calcular la dimensión de ciertos subespacios sin necesidad de hacer una descripción explícita de una de sus bases.

El segundo de los teoremas resulta también muy útil ya que nos da otra manera de estudiar si una transformación lineal es o no inyectiva.

Para dibujar un cuadrado solo necesitamos largo y ancho, es decir, está en 2D
Para dibujar un cubo necesitamos largo, ancho y alto, es decir, está en 3D

Teorema (2.3.1.): Sean $K$ un campo y $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$.
Si $V$ es de dimensión finita, entonces se cumple que:

a) $Núc\,T$ es de dimensión finita
b) $Im\,T$ es de dimensión finita
c) $dim_K Núc\,T+dim_KIm\,T=dim_KV.$

Demostración: Supongamos que $V$ es de dimensión finita, digamos $dim_K\,V=n$.

a) Como $Núc\,T\subseteq V$ y $V$ es de dimensión finita, entonces $Núc\,T$ también es de dimensión finita, digamos que $dim_KNúc\,T=m$.

b) Consideremos $\Delta =\{v_1,v_2,…,v_m\}$ una base de $Núc\,T$.
Como es un conjunto linealmente independiente en $V,$ podemos completar $\Delta$ a una base de $V,$ digamos $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$.

Veamos que $\Gamma = \{ T(v_{m+1}),T(v_{m+2}),…,T(v_{n})\}$ es una base de $Im\,T$ con $n-m$ elementos:

  1. P.D. $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i.

Sean $\lambda_{m+1},\lambda_{m+2},…,\lambda_n\in K$ tales que $\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.

Como $T$ es lineal $T \left( \sum_{i=m+1}^n \lambda_iv_i \right) =\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.
Por lo cual, $\sum_{i=m+1}^n \lambda_iv_i\in Núc\,T$.

Como $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$, existen $\mu_1,\mu_2,…,\mu_m\in K$ tales que $\sum_{i=m+1}^n \lambda_iv_i=\sum_{j=1}^m \mu_jv_j$.
De donde $- \sum_{j=1}^m \mu_jv_j + \sum_{i=m+1}^n \lambda_iv_i =\theta_W$.

Tenemos igualada a $\theta_W$ una combinación lineal de elementos de $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$ que es linealmente independiente.
Por lo tanto, todos los coeficientes de esta combinación lineal son $0_K$ y en particular llegamos a que $\lambda_{m+1}=\lambda_{m+2}=…=\lambda_n=0_K$.

Concluimos que $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i., en consecuencia el conjunto $\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$ es l.i. y tiene $n-m$ elementos.

  1. P.D. $\langle\Gamma\rangle =Im\,T$

Sabemos que $\Gamma\subseteq Im\,T$ y que $Im\,T$ es un espacio vectorial. Por lo tanto, $\langle\Gamma\rangle\subseteq Im\,T$.

Ahora bien, sea $w\in Im\,T$. Por definición de $Im\,T$, existe $v\in V$ tal que $T(v)=w$.

Como $\beta =\{v_1,v_2,…,v_n\}$ es base de $V$, entonces existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^n \lambda_iv_i$.

Así, obtenemos que $w=T(v)=T\left( \sum_{i=1}^n \lambda_iv_i\right)$.
Y como $T$ es lineal, podemos concluir de las igualdades anteriores que $w=\sum_{i=1}^n \lambda_iT(v_i)$.

Tenemos que $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$ y por lo tanto $\Delta\subseteq Núc(T)$. Es decir, $T(v_1)=T(v_2)=…=T(v_m)=\theta_W$.

Así, $w=\sum_{i=1}^n \lambda_iT(v_i)=\sum_{i=1}^m \lambda_iT(v_i)+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i=1}^m \lambda_i\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)=\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i={m+1}}^n \lambda_iT(v_i)$.

Obtuvimos a $w$ expresado como una combinación lineal de términos de $\Gamma =\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$. Por lo tanto, $Im\,T\subseteq\Gamma$.

Concluimos que $\Gamma$ es base de $Im\,T$.
Como $|\Gamma|=n-m$, entonces $Im\,T$ es de dimensión finita y $dim_KIm\,T=n-m.$

c) Tenemos por el inciso anterior que $dim_KNúc\,T=m$, $dim_KIm\,T=n-m$ y $dim_K\,V=n$.
Así, $dim_KV-dim_KNúc\,T=n-m=dim_KIm\,T$, lo que implica que $dim_KV=dim_KNúc\,T+dim_KIm\,T$.

Teorema (2.3.2.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Entonces $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}.$

Demostración: Veamos ambas implicaciones.

$\Longrightarrow$ Supongamos que $T$ es inyectiva.
P.D. $Núc\,T=\{\theta_V\}$.

Dado que $\theta_V\in Núc\,T$ se tiene que $\{\theta_V\}\subseteq Núc\,T$ por lo que basta en realidad verificar la otra contención.

Sea $v\in Núc\,T$.
Por definición de núcleo tenemos que $T(v)=\theta_W$.
Además, sabemos que $T(\theta_V)=\theta_W$.
Así, tenemos que $T(v)=T(\theta_V)$ con $T$ inyectiva.
Por lo tanto, $v=\theta_V$.

Llegamos a que el único elemento del núcleo de $T$ es $\theta_V$.

$\Longleftarrow$ Supongamos que $Núc\,T=\{\theta_V\}$.
P.D. $T$ es inyectiva.

Sean $u,v\in V$ tales que $T(u)=T(v)$.
Entonces $T(u)-T(v)=\theta_W$.
Como $T$ es lineal, tenemos que $T(u-v)=T(u)-T(v)$.
Así que $T(u-v)=\theta_W$ y por lo tanto, $u-v\in Núc\,T$ donde (por hipótesis) el único elemento que existe es $\theta_V$.
Así, $u-v=\theta_V$ y concluimos que $u=v$.

Partiendo de que $T(u)=T(v)$ llegamos a que $u$ debe ser igual a $v$ y por lo tanto, $T$ es inyectiva.

Corolario (2.3.3.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$. Si $V,W$ son de dimensión finita y de la misma dimensión, entonces $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Demostración: Supongamos que $V,W$ son $K$-espacios vectoriales de dimensión finita y $dim_KV=dim_KW.$

Tenemos por el teorema anterior que $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}$.
Podemos utilizar este resultado porque nuestras nuevas hipótesis no afectan.

Observemos además que $Núc\,T=\{\theta_V\}$ si y sólo si $dim_KNúc\,T=0$ porque el único conjunto que no tiene elementos es el conjunto vacío, que es una base del espacio trivial.

Por el teorema de la dimensión tenemos que $dim_KNúc\,T+dim_hIm\,T=dim_KV$.
Así, que $dim_KNúc\,T=0$ si y sólo si $dim_KIm\,T=dim_KV$.

Como tenemos por hipótesis que $dim_KV=dim_KW$, entonces $dim_KIm\,T=dim_KV$ si y sólo si $dim_KIm\,T=dim_KW$.

Recordando que $Im\,T\leqslant W$ se cumple que $dim_KIm\,T=dim_KW$ si y sólo si $Im\,T=W$.

Y dentro de las equivalencias de que $T$ sea suprayectiva está que $Im\,T=W$.

Por la cadena de dobles implicaciones concluimos que, bajo nuestras hipótesis, $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Tarea Moral

  1. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ verifica que se cumple el primer teorema de esta entrada y determina si $T$ es inyectiva o suprayectiva.
  2. Si $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ es lineal y sabemos que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. ¿Es $T$ inyectiva?

Más adelante…

El último ejercicio de la Tarea Moral en la entrada anterior, 2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos, pregunta la existencia de una transformación lineal de acuerdo a dos valores dados y a continuación veremos cómo podemos plantear y resolver este problema de manera más general.

Entradas relacionadas