Archivo del Autor: Jennyfer Paulina Bennetts Castillo

2.6. COMPOSICIÓN DE TRANSFORMACIONES LINEALES E IDENTIDAD: definiciones y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Cuando preparamos un platillo para comer, podemos simplificar diciendo el nombre, pero no es tan simple como suena, en realidad tuvimos que seguir una serie de pasos, una receta en cierto orden
Pues así sucede con la composición de transformaciones

COMPOSICIÓN DE TRANSFORMACIONES LINEALES

Definición: Sean $U,V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$, $S\in\mathcal{L}(W,U)$. Definimos la composición de $S$ con $T$ como $S\circ T:V\longrightarrow U$ donde $\forall v\in V((S\circ T)(v)=S(T(v)))$

Ejemplos

  • Sean $T_1 , T_2 \in \mathcal{L}(\mathbb{R}^2 , \mathbb{R}^2)$ definidas para todo $(x,y) \in \mathbb{R}^2$ como:
    $T_1 (x,y) = (3x , 3y)$
    $T_2 (x,y) = (-y , x)$
    $(T_1 \circ T_2)(x,y) = (-3y , 3x) = (T_2 \circ T_1)(x,y)$

Justificación. Sea $(x,y) \in \mathbb{R}^2$

$(T_1 \circ T_2)(x,y) = T_1 (T_2 (x,y) )$ $= T_1 (-y , x) = (-3y , 3x)$

$(T_2 \circ T_1)(x,y) = T_2 (T_1 (x,y) )$ $= T_2 (3x , 3y) = (-3y , 3x)$

  • Sean $T_1 , T_2 \in \mathcal{L}(\mathbb{R}^2 , \mathbb{R}^2)$ definidas para todo $(x,y) \in \mathbb{R}^2$ como:
    $T_1 (x,y) = (y , x)$
    $T_2 (x,y) = (x , 2y)$
    $(T_1 \circ T_2)(x,y) = (2y , x)$
    $(T_2 \circ T_1)(x,y) = (y , 2x)$

Justificación. Sea $(x,y) \in \mathbb{R}^2$

$(T_1 \circ T_2)(x,y) = T_1 (T_2 (x,y) )$ $= T_1 (x , 2y) = (2y , x)$

$(T_2 \circ T_1)(x,y) = T_2 (T_1 (x,y) )$ $= T_2 (y , x) = (y , 2x)$

Teorema (2.6.1.): La composición de transformaciones lineales es lineal.

Demostración: Sean $U,V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$, $S\in\mathcal{L}(W,U)$.

P.D. $S\circ T\in\mathcal{L}(V,U)$.

Sean $x,y\in V$ y $\lambda\in K$.
Entonces $(S\circ T)(\lambda x + y)=S(T(\lambda x + y))$$=S(\lambda T(x) + T(y))=\lambda S(T(x)) + S(T(y))$$=\lambda (S\circ T)(x) + (S\circ T)(y)$.

Como $(S\circ T)(\lambda x + y)=\lambda (S\circ T)(x) + (S\circ T)(y)$, entonces $S\circ T\in\mathcal{L}(V,U)$.

Observación: La composición de transformaciones lineales es asociativa.

Proposición (2.6.2.): Sean $U,V,W$ $K$ – espacios vectoriales, $T_1, T_2\in\mathcal{L}(V,W)$ y $S_1,S_2\in\mathcal{L}(W,U)$. Se cumple que:

a) $(S_1+S_2)\circ T_1=(S_1\circ T_1)+(S_2\circ T_1)$
b) $S_1\circ (T_1+T_2)=(S_1\circ T_1)+(S_1\circ T_2)$

Demostración: Sea $v\in V$.

a) $((S_1+S_2)\circ T_1)(v)=(S_1+S_2)(T_1(v))=S_1(T_1(v))+S_2(T_1(v))$$=(S_1\circ T_1)(v)+(S_2\circ T_1)(v)=((S_1\circ T_1)+(S_2\circ T_1))(v)$

Como $\forall v\in V(((S_1+S_2)\circ T_1)(v)=((S_1\circ T_1)+(S_2\circ T_1))(v))$, entonces $(S_1+S_2)\circ T_1=(S_1\circ T_1)+(S_2\circ T_1)$.

b) $(S_1\circ (T_1+T_2))(v)=S_1((T_1+T_2)(v))=S_1(T_1(v)+T_2(v))$$=S_1(T_1(v))+S_1(T_2(v))=(S_1\circ T_1)(v) + (S_1\circ T_2)(v)$$=((S_1\circ T_1)+(S_1\circ T_2))(v)$

Como $\forall v\in V ((S_1\circ (T_1+T_2))(v)=(S_1\circ T_1)+(S_1\circ T_2))$

Observación: Si $V$ es un $K$ – espacio vectorial y definimos $T:V\longrightarrow V$ como $T(v)=v$ para toda $v\in V$, entonces $T\in\mathcal{L}(V,V)$. Porque para cualesquiera $u, v\in V$ y $\lambda\in K$ tenemos que $T (\lambda u + v)=\lambda u + v = \lambda T (u) + T (v)$.

TRANSFORMACIÓN IDENTIDAD

Definición: Sea $V$ un $K$ – espacio vectorial. Definimos la transformación identidad en $V$ como $id_V:V\longrightarrow V$ donde $\forall v\in V(id_V (v)=v)$

Observación: Sean $V,W$ $K$ – espacios vectoriales y $T\mathcal{L}(V,W)$. Se tiene que $id_W\circ T=T$ y $T\circ id_V=T$. Porque para cualquier $v\in V$ tenemos que $(id_W\circ T)(v)=id_W(T(v))=T(v)$ y $(T\circ id_V)(v)=T(id_V(v))=T(v)$.

Nota: En los cursos básicos de Cálculo se demuestra que si tenemos dos conjuntos $A$ y $B$ y una función $f:A\longrightarrow B$, entonces $f$ es invertible si y sólo si $f$ es biyectiva. Donde se define $f$ invertible como una función para la cual existe una función, denotada como $f^{-1}:B\longrightarrow A$, tal que $f^{-1}\circ f=id_A$ y $f\circ f^{-1}=id_B$.

Proposición (2.6.3.): Sean $V,W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Si $T$ es invertible, entonces $T^{-1}\in\mathcal{L}(W,V)$.

Demostración: Sup. $T$ es invertible, i.e. $\exists T^{-1}:W\longrightarrow V$ tal que $T^{-1}\circ T=id_V$ y $T\circ T^{-1}=id_W$.
Entonces la Nota nos asegura que $T$ es biyectiva.

Sean $w_1,w_2\in W$ y $\lambda\in K$.
Como $T$ es suprayectiva, entonces $\exists v_1,v_2\in V$ tales que $T(v_1)=w_1$ y $T(v_2)=w_2$.

Así, $T^{-1}(\lambda w_1+w_2)=T^{-1}(\lambda T(v_1)+T(v_2))$$=T^{-1}(T(\lambda v_1+v_2))=(T^{-1}\circ T)(\lambda v_1+v_2)=id_V(\lambda v_1+v_2)$$=\lambda v_1+v_2$.

Tenemos que $T^{-1}(\lambda w_1+w_2)=\lambda v_1+v_2$.
Ahora bien, $v_1=Id_V(v_1)=(T^{-1}\circ T)(v_1)=T^{-1}(T(v_1))=T^{-1}(w_1)$ y análogamente $v_2=T^{-1}(w_2)$.

Entonces $T^{-1}(\lambda w_1+w_2)=\lambda v_1+v_2=\lambda T^{-1}(w_1)+T^{-1}(w_2)$.

Por lo tanto, $T^{-1}\in\mathcal{L}(V,W)$.

Tarea Moral

  1. Demuestra que la composición de transformaciones lineales es asociativa.
  2. Sean $T, S : \mathbb{R}[x] \longrightarrow \mathbb{R}[x]$ definidas para todo $f(x) \in \mathbb{R}[x]$:
    $T ( f(x) ) = \int_0^x f(t) dt$
    $S ( f(x) ) = \int f(x) dx$ con constante de integración $C = 0$
    Demuestra si $S \circ T = T \circ S$ o da un contraejemplo.

Más adelante…

Ahora veremos la equivalencia que existe entre $5$ breves enunciados que ya dominamos y que comprendemos bien lo que nos dicen sobre la estructura de las transformaciones.

Además aparecerá un nuevo concepto vital no solo en Álgebra Lineal, sino en las Matemáticas como ciencia… posiblemente ya lo haz visto antes: Isomorfismo.

Entradas relacionadas

2.5. TRANSFORMACIONES LINEALES ENTRE DOS ESPACIOS: operaciones para formar un espacio vectorial

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Haz operado funciones? Podemos sumar, restar, multiplicar, hacer producto por escalar, componer y en cada caso se estudia si el resultado es una función, cuál es su dominio y su codominio, y nos preguntamos para cada caso qué condiciones se requieren para conservar esa propiedad.

La suma de funciones se hace entrada a entrada en $\mathbb{R}^n$
Gráficamente muestra un desplazamiento punto a punto

Veremos la suma de transformaciones y la multiplicación por escalar.
Pero más que eso, veremos que dados dos espacios vectoriales, si para el conjunto de transformaciones lineales entre esos espacios, consideramos estas dos operaciones, formamos un nuevo espacio vectorial. Los dos grandes pilares del Álgebra Lineal por fin se unifican.

SUMA Y PRODUCTO DE TRANSFORMACIONES LINEALES

Definición: Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Definimos las siguientes operaciones:

  • La suma de $T$ y $S$ es $T +_{\mathcal{L}} S: V \longrightarrow W$ donde $\forall v\in V ((T +_{\mathcal{L}} S)(v)=T(v) +_{\mathcal{W}} S(v))$.
  • El producto de $T$ por el escalar $\lambda$ es $\lambda \cdot_{\mathcal{L}} T: V \longrightarrow W$ donde $\forall v\in V ((\lambda \cdot_{\mathcal{L}} T)(v)=\lambda \cdot_{\mathcal{W}} T(v))$.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\{a+bx+cx^2+dx^3|a,b,c,d\in\mathbb{R}\}$ y $W=\mathbb{R}^3$.
    Sean $T:V\longrightarrow W$ dada por $T(a+bx+cx^2+dx^3)=(a-b+2c,b-d,2a+c)$ y $S:V\longrightarrow W$ dada por $S(a+bx+cx^2+dx^3)=(b,2c,3d)$. Entonces:
    $T+S:V\longrightarrow W$ es $(T+S)(a+bx+cx^2+dx^3)=(a+2c,b-d+2c,2a+c+3d)$
    $4\cdot S:V\longrightarrow W$ es $(4\cdot S)(a+bx+cx^2+dx^3)=(4b,8c,12d)$

Justificación. Sea $a+bx+cx^2+dx^3\in V$.

$(T+S)(a+bx+cx^2+dx^3)$$=T(a+bx+cx^2+dx^3)+S(a+bx+cx^2+dx^3)$$=(a-b+2c,b-d,2a+c)+(b,2c,3d)$$=(a-b+2c+b,b-d+2c,2a+c+3d)$$=(a+2c,b+2c-d,2a+c+3d)$

  • Sean $F$ un campo, $V=\mathcal{M}_{2\times 3}(F)$ y $W=\mathcal{M}_{2\times 2}(F)$.
    Sean $T:V\longrightarrow W$ dada por $T \begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix}$ y $S:V\longrightarrow W$ dada por $S \begin{pmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 2b_{21} – 2b_{22} & b_{23} – 2b_{22} \end{pmatrix}$. Entonces
    $T+2S:V\longrightarrow W$ es $(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix} = \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Justificación. $2S\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$=2 \begin{pmatrix} 0 & 0 \\ 2a_{21} – 2a_{22} & a_{23} – 2a_{22} \end{pmatrix}$$= \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

$(T+2S)\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0 \\ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$$= \begin{pmatrix} 2a_{11} – 2a_{12} & a_{13} – 2a_{12} \ 4a_{21} – 4a_{22} & 2a_{23} – 4a_{22} \end{pmatrix}$

Nota: Para las demostraciones de los siguientes teoremas, se considerará a $T_0 : V\longrightarrow W$ como la transformación donde $\forall v\in V(T_0(v)=\theta_W)$.

Proposición (2.5.1.): Sean $V,W$ $K$ – espacios vectoriales, $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$. Entonces $T+S\in\mathcal{L}(V,W)$ y $\lambda T\in\mathcal{L}(V,W)$.

Demostración: Sean $V,W$ $K$ – espacios vectoriales. Sean $T,S\in\mathcal{L}(V,W)$ y $\lambda\in K$.

P.D. 1) $T+S\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\lambda\in K$.
Entonces $(T+S)(\lambda u + v)=T(\lambda u + v)+S(\lambda u + v)$$=(\lambda T(u)+T(v))+(\lambda S(u)+S(v))$$=\lambda(T(u)+S(u))+(T(v)+S(v))=\lambda (T+S)(u)+(T+S)(v)$.
Como $(T+S)(\lambda u + v)=\lambda (T+S)(u)+(T+S)(v)$, entonces $T+S\in\mathcal{L}(V,W)$.

P.D. 2) $\lambda T\in\mathcal{L}(V,W)$.

Sean $u,v\in V$ y $\mu\in K$.

Entonces $(\lambda T)(\mu u + v)=\lambda T(\mu u + v)$$=\lambda (\mu T(u)+T(v))=\mu (\lambda T(u))+\lambda T(v)$$=\mu (\lambda T)(u)+(\lambda T)(v)$.
Como $(\lambda T)(\mu u + v)=\mu (\lambda T)(u)+(\lambda T)(v)$, entonces $\lambda T\in\mathcal{L}(V,W)$.

Teorema (2.5.2.): Sean $V,W$ $K$ – espacios vectoriales. Entonces $\mathcal{L}(V,W)$ con la suma y el producto escalar definidos es un $K$ – espacio vectorial.

Demostración: Sean $T,S,R\in\mathcal{L}(V,W)$ y $\lambda, \mu \in K$.

P.D. 1) $T+(S+R)=(T+S)+R$

Sea $v\in V$.
$(T+(S+R))(v)=T(v)+(S+R)(v)=T(V)+(S(v)+R(v))$$=(T(v)+S(v))+R(v)=(T+S)(v)+R(v)$$=((T+S)+R)(v)$.

Así, $\forall v\in V((T+(S+R))(v)=((T+S)+R)(v))$.
Por lo tanto, $T+(S+R)=(T+S)+R$.

P.D. 2) $T+S=S+T$

Sea $v\in V$.

$(T+S)(v)=T(v)+S(v)=S(v)+T(v)=(S+T)(v)$.

Así, $\forall v\in V((T+S)(v)=(S+T)(v))$.
Por lo tanto, $T+S=S+T$.

P.D. 3) $T+T_0=T_0+T=T$.

Sea $v\in V$.

$(T+T_0)(v)=T(v)+T_0(v)=T(v)+\theta_W=T(v)$.
$(T_0+T)(v)=(T+T_0)(v)=T(v)$.

Así, $\forall v\in V((T+T_0)(v)=(T_0+T)(v)=T(v))$.
Por lo tanto, $T+T_0=T_0+T=T$.
De este modo, $T_0$ cumple la función de neutro en $\mathcal{L}(V,W)$.

P.D. 4) Si $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$, entonces $T+\tilde{T}=\tilde{T}+T=T_0$.

Sea $\tilde{T} : V\longrightarrow W$ donde $\forall v\in V(\tilde{T}(v)=-T(v))$.
Sea $v\in V$.

$(T+\tilde{T})(v)=T(v)+\tilde{T}(v)=T(v)+(-T(v))=\theta_W$.
$(\tilde{T}+T)(v)=(T+\tilde{T})(v)=\theta_W$.

Así, $\forall v\in V((T+\tilde{T})(v)=(\tilde{T}+T)(v)=\theta_W)$.
Por lo tanto, $T+\tilde{T}=\tilde{T}+T=T_0$.
De este modo, $\tilde{T}=-T=(-1)T\in\mathcal{L}(V,W)$ cumple la función de inverso de $T$ en $\mathcal{L}(V,W)$.

P.D. 5) $(1)T=T$.

Sea $v\in V$.

$(1T)(v)=(1)T(v)=T(v)$.

Así, $\forall v\in V((1T)(v)=T(v))$.
Por lo tanto, $(1)T=T$.

P.D. 6) $\lambda (\mu T)=(\lambda\mu)T$

Sea $v\in V$.

$(\lambda (\mu T))(v)=(\lambda )(\mu T)(V)$$=(\lambda )(\mu T(v))=(\lambda\mu )T(v)$$=((\lambda\mu )T)(v)$.

Así, $\forall v\in V((\lambda (\mu T))(v)=((\lambda\mu )T)(v))$.
Por lo tanto, $\lambda (\mu T)=(\lambda\mu )T$.

P.D. 7) $(\lambda + \mu)T=\lambda T + \mu T$.

Sea $v\in V$.

$((\lambda + \mu )T)(v)=(\lambda + \mu)T(v)=\lambda T(v)+\mu T(v)$$=(\lambda T)(v)+(\mu T)(v)=(\lambda T + \mu T)(v)$.

Así, $\forall v\in V((\lambda +\mu ) T)(v)=(\lambda T + \mu T)(v))$.
Por lo tanto, $(\lambda +\mu )T=\lambda T + \mu T$.

P.D. 8) $\lambda (T+S)=\lambda T + \lambda S$.

Sea $v\in V$.

$(\lambda (T+S))(v)=(\lambda )(T+S)(v)=\lambda (T(v)+S(v))$$=\lambda T(v)+ \lambda S(v)=(\lambda T)(v)+(\lambda S)(v)$$=(\lambda T + \lambda S)(v)$.

Así, $\forall v\in V((\lambda (T+S))(v)=(\lambda T + \lambda S)(v))$.
Por lo tanto, $\lambda (T+S)=\lambda T + \lambda S$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre el campo $K$ y $S\subseteq V$.
    Defina $S^0 = \{ T \in \mathcal{L}(V,W) | \forall x\in S(T(x) = \theta_W) \}$.
    ¿Es $S^0$ un subespacio de $\mathcal{L}(V,W)$ con las operaciones anteriormente vistas?
  2. Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    Sea $W \leqslant V$ un $K$ – espacio vectorial.
    Definimos la clase lateral de $W$ que contiene a $v$ como $\forall v\in V ( { v } + W = { v+w|w \in W } )$ que para simplificar notación lo escribiremos como $v + W$
    a) Demuestra que $v + W$ es un subespacio de $V$ si y sólo si $v \in W$
    b) Demuestra que $v_1 + W = v_2 + W$ si y sólo si $v_1 – v_2 \in W$

Más adelante…

En la siguiente entrada veremos una nueva operación: la composición.
Y al igual que en las funciones reales, esta operación da lugar a un nuevo concepto: la identidad
¿Qué propiedades cumple la composición? ¿Cómo funciona en este caso la identidad?

Entradas relacionadas

2.4. TRANSFORMACIÓN LINEAL: descripción a partir de su efecto en una base

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

En ocasiones se tiene desde un inicio la regla de correspondencia de una función y a partir de ella analizamos su comportamiento y los valores que se obtienen al aplicar la función. Sin embargo, a veces sólo se conoce su comportamiento y/o su evaluación en algunos elementos de su dominio y a partir de ello se busca describir la función por completo. En el caso de las transformaciones lineales entenderemos qué información nos ayuda a comprenderlas por completo y para ello las bases de un espacio jugarán un papel fundamental, veamos de qué forma.

En una función cuadrática, sabemos cómo cada coeficiente influye en el comportamiento de la gráfica.
En una ecuación lineal, sabemos cómo la pendiente y el término independiente determinan la gráfica.
Podemos identificar las cónicas y cada uno sus elementos de acuerdo a la ecuación que se describa.

Teorema (2.4.1.): Sean $V,W$ $K$ – espacios vectoriales donde $V$ es de dimensión finita $n$. Si $\beta =\{ v_1,v_2,…,v_n\}$ es una base de $V$, entonces para cualesquiera $w_1,w_2,…,w_n\in W$ existe una única $T\in\mathcal{L}(V,W)$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Demostración: Sea $\beta =\{v_1,v_2,…,v_n\}$ una base arbitraria de $V$.
Sean $w_1,w_2,…,w_n\in W$.

Entonces para cada $v\in V$ hay una única combinación lineal de elementos de $\beta$ que es igual a $v.$ Es decir, existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Primero propondremos una función que cumpla que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.
Después veremos que esa función es una transformación lineal.
Por último probaremos que es única.

Definamos $T:V\longrightarrow W$ como $T(v)=\sum_{i=1}^{n}\lambda_iw_i$.
Como $\lambda_1,\lambda_2,…,\lambda_n$ son únicos (y por tanto ya son fijos), entonces $T$ le asigna un único valor a cada $v\in V$ y así aseguramos que $T$ está bien definida.

Notemos que para cada $i\in\{1,2,…,n\}$ tenemos que $$v_i=0v_1+0v_2+…+0v_{i-1}+1v_i+0v_{i+1}+…+0v_n,$$ lo que implica por la forma en que se definió $T$ que para cada $i\in\{1,2,…,n\}$ $$T(v_i)=0w_1+0w_2+…+0w_{i-1}+1w_i+0w_{i+1}+…+0w_n=w_i.$$ Por lo tanto, $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Sabemos que $T$ es lineal si y sólo si para cualquier $\delta\in K$ y cualesquiera $v,u\in V$ se cumple que $T(\delta v+u)=\delta T(v)+T(u)$.

Sean $\delta\in K$ y $v,u\in V$. Como $\beta$ es una base de $V$ podemos escribir a $v$ y a $u$ como combinación lineal de los elementos de $\beta$, es decir existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ y $\mu_1,\mu_2,…,\mu_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$ y $u=\sum_{i=1}^{n}\mu_iv_i$.
Entonces:

\begin{align*}
\delta v+u & =\delta \left( \sum_{i=1}^{n}\lambda_i v_i\right) + \sum_{i=1}^{n}\mu_i v_i\\
&= \sum_{i=1}^{n}\delta(\lambda_i v_i) +\sum_{i=1}^{n}\mu_i v_i
\\&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\\
\therefore \delta v+u&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i
\end{align*}

Así,

\begin{align*}T(\delta v+u)&=T\left( \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\right)\\&=\sum_{i=1}^{n}(\delta\lambda_i+\mu_i) w_i\\&=\delta\left( \sum_{i=1}^{n}\lambda_i w_i\right) + \sum_{i=1}^{n}\mu_i w_i\\ &=\delta T(v)+T(u).\end{align*}

Por lo tanto, $T\in\mathcal{L}(V,W)$.

Para ver que la transformación lineal es única, tomemos $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n\}(S(v_i)=w_i)$. Sea $v\in V$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Entonces $S(v)=S\left( \sum_{i=1}^{n}\lambda_iv_i \right)$$=\sum_{i=1}^{n}\lambda_i S(v_i)=\sum_{i=1}^{n}\lambda_iw_i=T(v)$.
Por lo tanto $S=T$.

Corolario (2.4.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita $n$ y $\beta =\{v_1,v_2,…,v_n\}$ una base de $V$. Se cumple que si $T,S\in\mathcal{L}(V,W)$ son tales que $\forall i\in \{1,2,…,n\}(T(v_i)=S(v_i))$, entonces $T=S$.

Demostración: Sean $T,S\in\mathcal{L}(V,W)$ tales que $\forall i\in\{1,2,…,n\}(T(v_i)=S(v_i))$.

Para cada $i\in\{1,2,…,n\}$ $T(v_i)$ es un elemento de $W$ al que denotaremos por $w_i$. Con esta notación tenemos que $\forall i\in\{1,2,…,n\}(T(v_1)=w_i).$

Por el teorema 2.4.1., $T$ es la única transformación lineal de $V$ a $W$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Y como por hipótesis $\forall i\in\{1,2,…,n\}(T(v_1)=S(v_i))$, entonces $\forall i\in\{1,2,…,n\}(S(v_i)=w_i)$. Por lo que $T=S$.

Tarea Moral

  1. Exhibe dos transformaciones lineales diferentes $T, U$ tales que $Núc\,T=Núc\,U$ y $Im\,T=Im\,U.$
  2. Da un ejemplo de transformación lineal $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $Núc\,T=Im\,T$.
  3. Exhibe explícitamente la regla de correspondencia de la transformación lineal tal que $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $T(2,3)=(5,-14)$ y $T(-2,3)=(-2,3)$.

Más adelante…

Veremos cómo operar transformaciones lineales y qué espacio vectorial podemos definir gracias a éstas.

Entradas relacionadas

2.3. TEOREMA DE LA DIMENSIÓN: demostración e implicaciones

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

El primero de los teoremas en esta entrada es uno de los más importantes del curso. Este teorema nos simplifica cálculos, ya que en ocasiones nos permite calcular la dimensión de ciertos subespacios sin necesidad de hacer una descripción explícita de una de sus bases.

El segundo de los teoremas resulta también muy útil ya que nos da otra manera de estudiar si una transformación lineal es o no inyectiva.

Para dibujar un cuadrado solo necesitamos largo y ancho, es decir, está en 2D
Para dibujar un cubo necesitamos largo, ancho y alto, es decir, está en 3D

Teorema (2.3.1.): Sean $K$ un campo y $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$.
Si $V$ es de dimensión finita, entonces se cumple que:

a) $Núc\,T$ es de dimensión finita
b) $Im\,T$ es de dimensión finita
c) $dim_K Núc\,T+dim_KIm\,T=dim_KV.$

Demostración: Supongamos que $V$ es de dimensión finita, digamos $dim_K\,V=n$.

a) Como $Núc\,T\subseteq V$ y $V$ es de dimensión finita, entonces $Núc\,T$ también es de dimensión finita, digamos que $dim_KNúc\,T=m$.

b) Consideremos $\Delta =\{v_1,v_2,…,v_m\}$ una base de $Núc\,T$.
Como es un conjunto linealmente independiente en $V,$ podemos completar $\Delta$ a una base de $V,$ digamos $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$.

Veamos que $\Gamma = \{ T(v_{m+1}),T(v_{m+2}),…,T(v_{n})\}$ es una base de $Im\,T$ con $n-m$ elementos:

  1. P.D. $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i.

Sean $\lambda_{m+1},\lambda_{m+2},…,\lambda_n\in K$ tales que $\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.

Como $T$ es lineal $T \left( \sum_{i=m+1}^n \lambda_iv_i \right) =\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.
Por lo cual, $\sum_{i=m+1}^n \lambda_iv_i\in Núc\,T$.

Como $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$, existen $\mu_1,\mu_2,…,\mu_m\in K$ tales que $\sum_{i=m+1}^n \lambda_iv_i=\sum_{j=1}^m \mu_jv_j$.
De donde $- \sum_{j=1}^m \mu_jv_j + \sum_{i=m+1}^n \lambda_iv_i =\theta_W$.

Tenemos igualada a $\theta_W$ una combinación lineal de elementos de $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$ que es linealmente independiente.
Por lo tanto, todos los coeficientes de esta combinación lineal son $0_K$ y en particular llegamos a que $\lambda_{m+1}=\lambda_{m+2}=…=\lambda_n=0_K$.

Concluimos que $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i., en consecuencia el conjunto $\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$ es l.i. y tiene $n-m$ elementos.

  1. P.D. $\langle\Gamma\rangle =Im\,T$

Sabemos que $\Gamma\subseteq Im\,T$ y que $Im\,T$ es un espacio vectorial. Por lo tanto, $\langle\Gamma\rangle\subseteq Im\,T$.

Ahora bien, sea $w\in Im\,T$. Por definición de $Im\,T$, existe $v\in V$ tal que $T(v)=w$.

Como $\beta =\{v_1,v_2,…,v_n\}$ es base de $V$, entonces existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^n \lambda_iv_i$.

Así, obtenemos que $w=T(v)=T\left( \sum_{i=1}^n \lambda_iv_i\right)$.
Y como $T$ es lineal, podemos concluir de las igualdades anteriores que $w=\sum_{i=1}^n \lambda_iT(v_i)$.

Tenemos que $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$ y por lo tanto $\Delta\subseteq Núc(T)$. Es decir, $T(v_1)=T(v_2)=…=T(v_m)=\theta_W$.

Así, $w=\sum_{i=1}^n \lambda_iT(v_i)=\sum_{i=1}^m \lambda_iT(v_i)+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i=1}^m \lambda_i\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)=\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i={m+1}}^n \lambda_iT(v_i)$.

Obtuvimos a $w$ expresado como una combinación lineal de términos de $\Gamma =\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$. Por lo tanto, $Im\,T\subseteq\Gamma$.

Concluimos que $\Gamma$ es base de $Im\,T$.
Como $|\Gamma|=n-m$, entonces $Im\,T$ es de dimensión finita y $dim_KIm\,T=n-m.$

c) Tenemos por el inciso anterior que $dim_KNúc\,T=m$, $dim_KIm\,T=n-m$ y $dim_K\,V=n$.
Así, $dim_KV-dim_KNúc\,T=n-m=dim_KIm\,T$, lo que implica que $dim_KV=dim_KNúc\,T+dim_KIm\,T$.

Teorema (2.3.2.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Entonces $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}.$

Demostración: Veamos ambas implicaciones.

$\Longrightarrow$ Supongamos que $T$ es inyectiva.
P.D. $Núc\,T=\{\theta_V\}$.

Dado que $\theta_V\in Núc\,T$ se tiene que $\{\theta_V\}\subseteq Núc\,T$ por lo que basta en realidad verificar la otra contención.

Sea $v\in Núc\,T$.
Por definición de núcleo tenemos que $T(v)=\theta_W$.
Además, sabemos que $T(\theta_V)=\theta_W$.
Así, tenemos que $T(v)=T(\theta_V)$ con $T$ inyectiva.
Por lo tanto, $v=\theta_V$.

Llegamos a que el único elemento del núcleo de $T$ es $\theta_V$.

$\Longleftarrow$ Supongamos que $Núc\,T=\{\theta_V\}$.
P.D. $T$ es inyectiva.

Sean $u,v\in V$ tales que $T(u)=T(v)$.
Entonces $T(u)-T(v)=\theta_W$.
Como $T$ es lineal, tenemos que $T(u-v)=T(u)-T(v)$.
Así que $T(u-v)=\theta_W$ y por lo tanto, $u-v\in Núc\,T$ donde (por hipótesis) el único elemento que existe es $\theta_V$.
Así, $u-v=\theta_V$ y concluimos que $u=v$.

Partiendo de que $T(u)=T(v)$ llegamos a que $u$ debe ser igual a $v$ y por lo tanto, $T$ es inyectiva.

Corolario (2.3.3.): Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$. Si $V,W$ son de dimensión finita y de la misma dimensión, entonces $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Demostración: Supongamos que $V,W$ son $K$-espacios vectoriales de dimensión finita y $dim_KV=dim_KW.$

Tenemos por el teorema anterior que $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}$.
Podemos utilizar este resultado porque nuestras nuevas hipótesis no afectan.

Observemos además que $Núc\,T=\{\theta_V\}$ si y sólo si $dim_KNúc\,T=0$ porque el único conjunto que no tiene elementos es el conjunto vacío, que es una base del espacio trivial.

Por el teorema de la dimensión tenemos que $dim_KNúc\,T+dim_hIm\,T=dim_KV$.
Así, que $dim_KNúc\,T=0$ si y sólo si $dim_KIm\,T=dim_KV$.

Como tenemos por hipótesis que $dim_KV=dim_KW$, entonces $dim_KIm\,T=dim_KV$ si y sólo si $dim_KIm\,T=dim_KW$.

Recordando que $Im\,T\leqslant W$ se cumple que $dim_KIm\,T=dim_KW$ si y sólo si $Im\,T=W$.

Y dentro de las equivalencias de que $T$ sea suprayectiva está que $Im\,T=W$.

Por la cadena de dobles implicaciones concluimos que, bajo nuestras hipótesis, $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Tarea Moral

  1. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ verifica que se cumple el primer teorema de esta entrada y determina si $T$ es inyectiva o suprayectiva.
  2. Si $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ es lineal y sabemos que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. ¿Es $T$ inyectiva?

Más adelante…

El último ejercicio de la Tarea Moral en la entrada anterior, 2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos, pregunta la existencia de una transformación lineal de acuerdo a dos valores dados y a continuación veremos cómo podemos plantear y resolver este problema de manera más general.

Entradas relacionadas

2.2. NÚCLEO, NULIDAD, IMAGEN Y RANGO: definiciones, ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Analizaremos cuatro nuevos conceptos. Dos de ellos son conjuntos y los otros dos son las dimensiones de esos conjuntos.

Representación gráfica del núcleo y la imagen de una transformación lineal $T$.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
El núcleo de $T$ es $Núc\,T=\{v\in V|T(v)=\theta_W\}$.
La imagen de $T$ es $Im\, T=\{T(v)|v\in V\}$.

  • Sean $K$ un campo y $T:K^\infty\longrightarrow K^\infty$ lineal donde $\forall (x_1,x_2,x_3,…)\in K^\infty (T(x_1,x_2,x_3,…)=(x_2,x_3,x_4,…))$.
    $Núc\,T=\{(x_1,0_K,0_K,…)\in K^\infty | x_1\in K\}$ ; $Im\,T=K^\infty$

Justificación. Para el núcleo de $T$:

\begin{align*} T(x_1,x_2,x_3,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow (x_2,x_3,x_4,…)=(0_K,0_K,0_K,…) \\
\Leftrightarrow x_i=0_K \text{ para toda }i\in\{2,3,4,…\}. \end{align*}

Para la imagen de $T$:

Sea $(y_1,y_2,y_3,…)\in K^\infty$.
Tenemos que $T(0_K,y_1,y_2,…)=(y_1,y_2,y_3,…)$, por lo cual $T$ es suprayectiva y su imagen es todo el codominio.

  • Sea $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ donde $\forall (x,y)\in\mathbb{R}^2(T(x,y)=(x,0))$
    $Núc\,T=\{(0,y)\in\mathbb{R}^2|y\in\mathbb{R}\}$ ; $Im\,T=\{(x,0)\mathbb{R}^2|x\in\mathbb{R}\}$

Justificación. Para el núcleo de $T$:

$$T(x,y)=(0,0) \Leftrightarrow (x,0)=(0,0)\Leftrightarrow x=0.$$

Para la imagen de $T$:

Sea $(a,0)\in \{ (x,0)\in\mathbb{R}^2|x\in\mathbb{R}^2\}$. Dado que $T(a,0)=(a,0)$ se tiene que $(a,0)\in Im\,T$.

A la inversa, si $(a,b)\in Im\, T$ se tiene que $T(x,y)=(a,b)$ para alguna $(x,y)\in \mathbb{R}^2$, por lo que $(x,0)=(a,b)$ y así $b=0$.

  • Sean $K$ un campo, $A\in\mathcal{M}_{m\times n}(K)$ y $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$
    $Núc\,T$ es el conjunto de las soluciones del sistema homogéneo con matriz de coeficientes $A$ ; $Im\,T$ es el espacio generado por las columnas de $A$

Justificación. Para el núcleo de $T$:

$T(X)=\theta_{m\times 1}\Leftrightarrow AX=\theta_{m\times 1}$
$\Leftrightarrow X$ es solución del sistema homogéneo con matriz de coeficientes $A$.

Para la imagen de $T$:

\begin{align*}Im\,T&=\{AX:X\in K^n\}\\&=\left\{ \begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ \begin{pmatrix} a_{11}x_1 + … + a_{1n}x_n \\ … \\ a_{m1}x_1 + … + a_{mn}x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ x_1\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} + … + x_n\begin{pmatrix} a_{1n}\\ \vdots \\ a_{mn} \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\langle \begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix},…,\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} \right\rangle\end{align*}

Proposición (2.2.1.): Sean $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$. Se cumple que:

a) $Núc\,T\leqslant V$.
b) $Im\,T\leqslant W$.

Demostración: Para cada inciso es necesario demostrar dos propiedades:

a) P.D. $\theta_V\in Núc\,T$ y $\forall\lambda\in K$ $\forall u,v\in Núc\,T (\lambda u + v\in Núc\,T)$

Como $T$ es una transformación lineal tenemos que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_V\in Núc\,T.$

Sean $\lambda\in K$ y $u,v\in Núc\,T$. Entonces $T(u)=\theta_W=T(v).$ Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal. Así, $$T(\lambda u+v)=\lambda\theta_W +\theta_W=\theta_W$$
de donde $\lambda u + v\in Núc\,T.$

b) P.D. $\theta_W\in Im\,T$ y $\forall\lambda\in K$ $\forall w,z\in Im\,T (\lambda u + v\in Im\,T)$

Como $T$ es una transformación lineal tenemos que $\theta_V\in V$ cumple que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_W\in Im\,T$.

Sean $\lambda\in K$ y $w,z\in Im\,T$. Entonces $\exists u,v\in V (T(u)=w\wedge T(v)=z)$. Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal.
Así, $$T(\lambda u+v)=\lambda w+z$$
de donde $\lambda w+ z\in Im\,T.$

NULIDAD Y RANGO DE UNA TRANSFORMACIÓN LINEAL

Definición: Sea $T$ una transformación lineal con $Núc \,T$ de dimensión finita. Decimos que la dimensión de $Núc\,T$ es la nulidad de $T$.

Definición: Sea $T$ una transformación lineal con $Im \,T$ de dimensión finita. Decimos que la dimensión de $Im\,T$ es el rango de $T$.

Ejemplo

  • Sea $K=\mathbb{R}$ y sean $V=\mathcal{P}_3$ y $W=\mathcal{P}_2$ $K$ – espacios vectoriales.
    Sea $T:V\longrightarrow W$ donde $\forall p(x)\in T(p(x))=p'(x)$.
    La nulidad de $T$ es $1$ y su rango es $3$

Justificación. Los polinomios con derivada cero son únicamente las constantes. Así, $Núc(T)=\{a|a\in\mathbb{R}\}$ que tiene dimensión $1$.

Por otro lado todo polinomio de grado $2$ se puede obtener derivando un polinomio de grado $3$. Basta con integrar el polinomio de grado $2$ para encontrar cómo son los polinomios de grado $3$ que cumplen lo deseado. De modo que $W\subseteq Im(T)$ y como $Im(T)\subseteq W$ por definición, entonces $Im(T)=W$ que tiene dimensión $3$.

Por lo tanto, el núcleo y la imagen son de dimensión finita y la nulidad de $T$ es $1$ y su rango es $3.$

Tarea Moral

  1. Sean $K$ un campo, $V$ y $W$ $K$-espacios vectoriales y $T:V\longrightarrow W$ lineal. Sea $\{ w_1, w_2, …, w_k\}$ un subconjunto l.i. de $Im\,T$.
    Si $S=\{ v_1,v_2,…,v_k \}$ se selecciona de tal forma que $\forall i\in \{ 1,2,…,k\}(T(v_i)=w_i)$, demuestra que $S$ es l.i.
  2. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ encuentra bases para $Núc(T)$ e $Im(T)$.
  3. Sean $K$ un campo y $P: \mathcal{M}_{m\times m}(K) \longrightarrow \mathcal{M}_{m\times m}(K)$ definida por $\forall A\in \mathcal{M}_{m\times m}(K) \left( P(A)=\frac{A + A^{t}}{2} \right)$. Verifica que $T$ es lineal y encuentra su núcleo e imagen.

Más adelante…

En la siguiente entrada veremos el vínculo que existe entre la dimensión del núcleo, de la imagen y del espacio vectorial que aparece como dominio de una transformación lineal. Esta relación numérica nos permite calcular cualquiera de estas dimensiones si tenemos conocimiento de las otras dos.

Entradas relacionadas