Archivo del Autor: Jennyfer Paulina Bennetts Castillo

2.4. TRANSFORMACIÓN LINEAL: descripción a partir de su efecto en una base

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

En ocasiones se tiene desde un inicio la regla de correspondencia de una función y a partir de ella analizamos su comportamiento y los valores que se obtienen al aplicar la función. Sin embargo, a veces sólo se conoce su comportamiento y/o su evaluación en algunos elementos de su dominio y a partir de ello se busca describir la función por completo. En el caso de las transformaciones lineales entenderemos qué información nos ayuda a comprenderlas por completo y para ello las bases de un espacio jugarán un papel fundamental, veamos de qué forma.

En una función cuadrática, sabemos cómo cada coeficiente influye en el comportamiento de la gráfica.
En una ecuación lineal, sabemos cómo la pendiente y el término independiente determinan la gráfica.
Podemos identificar las cónicas y cada uno sus elementos de acuerdo a la ecuación que se describa.

Comencemos con un resultado que nos dice que siempre podemos construir una transformación lineal que mande a los elementos de una base a cualesquiera elementos en el codominio deseado y hay una única manera de hacerlo:

Teorema: Sean $V,W$ $K$ – espacios vectoriales donde $V$ es de dimensión finita $n$. Si $\beta =\{ v_1,v_2,…,v_n\}$ es una base de $V$, entonces para cualesquiera $w_1,w_2,…,w_n\in W$ existe una única $T\in\mathcal{L}(V,W)$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Demostración: Sea $\beta =\{v_1,v_2,…,v_n\}$ una base arbitraria de $V$.
Sean $w_1,w_2,…,w_n\in W$.

Entonces para cada $v\in V$ hay una única combinación lineal de elementos de $\beta$ que es igual a $v.$ Es decir, existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Primero propondremos una función que cumpla que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.
Después veremos que esa función es una transformación lineal.
Por último probaremos que es única.

Definamos $T:V\longrightarrow W$ como $T(v)=\sum_{i=1}^{n}\lambda_iw_i$.
Como $\lambda_1,\lambda_2,…,\lambda_n$ son únicos (y por tanto ya son fijos), entonces $T$ le asigna un único valor a cada $v\in V$ y así aseguramos que $T$ está bien definida.

Notemos que para cada $i\in\{1,2,…,n\}$ tenemos que $$v_i=0v_1+0v_2+…+0v_{i-1}+1v_i+0v_{i+1}+…+0v_n,$$ lo que implica por la forma en que se definió $T$ que para cada $i\in\{1,2,…,n\}$ $$T(v_i)=0w_1+0w_2+…+0w_{i-1}+1w_i+0w_{i+1}+…+0w_n=w_i.$$ Por lo tanto, $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Sabemos que $T$ es lineal si y sólo si para cualquier $\delta\in K$ y cualesquiera $v,u\in V$ se cumple que $T(\delta v+u)=\delta T(v)+T(u)$.

Sean $\delta\in K$ y $v,u\in V$. Como $\beta$ es una base de $V$ podemos escribir a $v$ y a $u$ como combinación lineal de los elementos de $\beta$, es decir existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ y $\mu_1,\mu_2,…,\mu_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$ y $u=\sum_{i=1}^{n}\mu_iv_i$.
Entonces:

\begin{align*}
\delta v+u & =\delta \left( \sum_{i=1}^{n}\lambda_i v_i\right) + \sum_{i=1}^{n}\mu_i v_i= \sum_{i=1}^{n}\delta(\lambda_i v_i) +\sum_{i=1}^{n}\mu_i v_i
\\&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\\
\therefore \delta v+u&= \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i
\end{align*}

Así,

\begin{align*}T(\delta v+u)&=T\left( \sum_{i=1}^{n}(\delta\lambda_i+\mu_i) v_i\right)=\sum_{i=1}^{n}(\delta\lambda_i+\mu_i) w_i\\&=\delta\left( \sum_{i=1}^{n}\lambda_i w_i\right) + \sum_{i=1}^{n}\mu_i w_i=\delta T(v)+T(u).\end{align*}

Por lo tanto, $T\in\mathcal{L}(V,W)$.

Para ver que la transformación lineal es única, tomemos $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n\}(S(v_i)=w_i)$. Sea $v\in V$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}\lambda_iv_i$.

Entonces $S(v)=S\left( \sum_{i=1}^{n}\lambda_iv_i \right)$$=\sum_{i=1}^{n}\lambda_i S(v_i)=\sum_{i=1}^{n}\lambda_iw_i=T(v)$.
Por lo tanto $S=T$.

Como consecuencia del resultado anterior se tiene que lo que una transformación lineal le haga a una base del dominio determina por completo a la transformación:

Corolario: Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita $n$ y $\beta =\{v_1,v_2,…,v_n\}$ una base de $V$. Se cumple que si $T,S\in\mathcal{L}(V,W)$ son tales que $\forall i\in \{1,2,…,n\}(T(v_i)=S(v_i))$, entonces $T=S$.

Demostración: Sean $T,S\in\mathcal{L}(V,W)$ tales que $\forall i\in\{1,2,…,n\}(T(v_i)=S(v_i))$.

Para cada $i\in\{1,2,…,n\}$ $T(v_i)$ es un elemento de $W$ al que denotaremos por $w_i$. Con esta notación tenemos que $\forall i\in\{1,2,…,n\}(T(v_1)=w_i).$

Por el teorema anterior, $T$ es la única transformación lineal de $V$ a $W$ tal que $\forall i\in\{1,2,…,n\}(T(v_i)=w_i)$.

Y como por hipótesis $\forall i\in\{1,2,…,n\}(T(v_1)=S(v_i))$, entonces $\forall i\in\{1,2,…,n\}(S(v_i)=w_i)$. Por lo que $T=S$.

Tarea Moral

  1. Exhibe dos transformaciones lineales diferentes $T, U$ tales que $Núc\,T=Núc\,U$ y $Im\,T=Im\,U.$
  2. Da un ejemplo de transformación lineal $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $Núc\,T=Im\,T$.
  3. Exhibe explícitamente la regla de correspondencia de la transformación lineal tal que $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ tal que $T(2,3)=(5,-14)$ y $T(-2,3)=(-2,3)$.

Más adelante…

Veremos cómo operar transformaciones lineales y qué espacio vectorial podemos definir gracias a éstas.

Entradas relacionadas

2.3. TEOREMA DE LA DIMENSIÓN: demostración e implicaciones

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

El primero de los teoremas en esta entrada es uno de los más importantes del curso. Este teorema nos simplifica cálculos, ya que en ocasiones nos permite calcular la dimensión de ciertos subespacios sin necesidad de hacer una descripción explícita de una de sus bases.

El segundo de los teoremas resulta también muy útil ya que nos da otra manera de estudiar si una transformación lineal es o no inyectiva.

Teorema: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$.
Si $V$ es de dimensión finita, entonces se cumple que:

a) $Núc\,T$ es de dimensión finita
b) $Im\,T$ es de dimensión finita
c) $dim_K Núc\,T+dim_KIm\,T=dim_KV.$

Demostración: Supongamos que $V$ es de dimensión finita, digamos $dim_K\,V=n$.

a) Como $Núc\,T\subseteq V$ y $V$ es de dimensión finita, entonces $Núc\,T$ también es de dimensión finita, digamos que $dim_KNúc\,T=m$.

b) Consideremos $\Delta =\{v_1,v_2,…,v_m\}$ una base de $Núc\,T$.
Como es un conjunto linealmente independiente en $V,$ podemos completar $\Delta$ a una base de $V,$ digamos $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$.
Veamos que $\Gamma = \{ T(v_{m+1}),T(v_{m+2}),…,T(v_{n})\}$ es una base de $Im\,T$ con $n-m$ elementos.

  1. P.D. $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i.

Sean $\lambda_{m+1},\lambda_{m+2},…,\lambda_n\in K$ tales que $\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.

Como $T$ es lineal $T \left( \sum_{i=m+1}^n \lambda_iv_i \right) =\sum_{i=m+1}^n \lambda_i T(v_i)=\theta_W$.
Por lo cual, $\sum_{i=m+1}^n \lambda_iv_i\in Núc\,T$.

Como $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$, existen $\mu_1,\mu_2,…,\mu_m\in K$ tales que $\sum_{i=m+1}^n \lambda_iv_i=\sum_{j=1}^m \mu_jv_j$.
De donde $- \sum_{j=1}^m \mu_jv_j + \sum_{i=m+1}^n \lambda_iv_i =\theta_W$.

Tenemos igualada a $\theta_W$ una combinación lineal de elementos de $\beta =\{v_1,v_2,…,v_m,v_{m+1},…,v_n\}$ que es linealmente independiente.
Por lo tanto, todos los coeficientes de esta combinación lineal son $0_K$ y en particular llegamos a que $\lambda_{m+1}=\lambda_{m+2}=…=\lambda_n=0_K$.

Concluimos que $T(v_{m+1}),T(v_{m+2}),…,T(v_n)$ es una lista l.i., en consecuencia el conjunto $\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$ es l.i. y tiene $n-m$ elementos.

  1. P.D. $\langle\Gamma\rangle =Im\,T$

Sabemos que $\Gamma\subseteq Im\,T$ y que $Im\,T$ es un espacio vectorial. Por lo tanto, $\langle\Gamma\rangle\subseteq Im\,T$.

Ahora bien, sea $w\in Im\,T$. Por definición de $Im\,T$, existe $v\in V$ tal que $T(v)=w$.

Como $\beta =\{v_1,v_2,…,v_n\}$ es base de $V$, entonces existen $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^n \lambda_iv_i$.

Así, obtenemos que $w=T(v)=T\left( \sum_{i=1}^n \lambda_iv_i\right)$.
Y como $T$ es lineal, podemos concluir de las igualdades anteriores que $w=\sum_{i=1}^n \lambda_iT(v_i)$.

Tenemos que $\Delta =\{v_1,v_2,…,v_m\}$ es base de $Núc\,T$ y por lo tanto $\Delta\subseteq Núc(T)$. Es decir, $T(v_1)=T(v_2)=…=T(v_m)=\theta_W$.

Así, $w=\sum_{i=1}^n \lambda_iT(v_i)=\sum_{i=1}^m \lambda_iT(v_i)+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i=1}^m \lambda_i\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)=\theta_W+\sum_{i={m+1}}^n \lambda_iT(v_i)$$=\sum_{i={m+1}}^n \lambda_iT(v_i)$.

Obtuvimos a $w$ expresado como una combinación lineal de términos de $\Gamma =\{T(v_{m+1}),T(v_{m+2}),…,T(v_n)\}$. Por lo tanto, $Im\,T\subseteq\Gamma$.

Concluimos que $\Gamma$ es base de $Im\,T$.
Como $|\Gamma|=n-m$, entonces $Im\,T$ es de dimensión finita y $dim_KIm\,T=n-m.$

c) Tenemos por el inciso anterior que $dim_KNúc\,T=m$, $dim_KIm\,T=n-m$ y $dim_K\,V=n$.
Así, $dim_KV-dim_KNúc\,T=n-m=dim_KIm\,T$, lo que implica que $dim_KV=dim_KNúc\,T+dim_KIm\,T$.

Teorema: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales y $T\in\mathcal{L}(V,W)$.
Entonces $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}.$

Demostración: Veamos ambas implicaciones.

$\Longrightarrow$ Supongamos que $T$ es inyectiva.
P.D. $Núc\,T=\{\theta_V\}$.

Dado que $\theta_V\in Núc\,T$ se tiene que $\{\theta_V\}\subseteq Núc\,T$ por lo que basta en realidad verificar la otra contención.

Sea $v\in Núc\,T$.
Por definición de núcleo tenemos que $T(v)=\theta_W$.
Además, sabemos que $T(\theta_V)=\theta_W$.
Así, tenemos que $T(v)=T(\theta_V)$ con $T$ inyectiva.
Por lo tanto, $v=\theta_V$.

Llegamos a que el único elemento del núcleo de $T$ es $\theta_V$.

$\Longleftarrow$ Supongamos que $Núc\,T=\{\theta_V\}$.
P.D. $T$ es inyectiva.

Sean $u,v\in V$ tales que $T(u)=T(v)$.
Entonces $T(u)-T(v)=\theta_W$.
Como $T$ es lineal, tenemos que $T(u-v)=T(u)-T(v)$.
Así que $T(u-v)=\theta_W$ y por lo tanto, $u-v\in Núc\,T$ donde (por hipótesis) el único elemento que existe es $\theta_V$.
Así, $u-v=\theta_V$ y concluimos que $u=v$.

Partiendo de que $T(u)=T(v)$ llegamos a que $u$ debe ser igual a $v$ y por lo tanto, $T$ es inyectiva.

Corolario: Sean $K$ un campo y $V,W$ $K$-espacios vectoriales, $T\in\mathcal{L}(V,W)$. Si $V,W$ son de dimensión finita y de la misma dimensión, entonces $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Demostración: Supongamos que $V,W$ son $K$-espacios vectoriales de dimensión finita y $dim_KV=dim_KW.$

Tenemos por el teorema anterior que $T$ es inyectiva si y sólo si $Núc\,T=\{\theta_V\}$.
Podemos utilizar este resultado porque nuestras nuevas hipótesis no afectan.

Observemos además que $Núc\,T=\{\theta_V\}$ si y sólo si $dim_KNúc\,T=0$ porque el único conjunto que no tiene elementos es el conjunto vacío, que es una base del espacio trivial.

Por el teorema de la dimensión tenemos que $dim_KNúc\,T+dim_hIm\,T=dim_KV$.
Así, que $dim_KNúc\,T=0$ si y sólo si $dim_KIm\,T=dim_KV$.

Como tenemos por hipótesis que $dim_KV=dim_KW$, entonces $dim_KIm\,T=dim_KV$ si y sólo si $dim_KIm\,T=dim_KW$.

Recordando que $Im\,T\leqslant W$ se cumple que $dim_KIm\,T=dim_KW$ si y sólo si $Im\,T=W$.

Y dentro de las equivalencias de que $T$ sea suprayectiva está que $Im\,T=W$.

Por la cadena de dobles implicaciones concluimos que, bajo nuestras hipótesis, $T$ es inyectiva si y sólo si $T$ es suprayectiva.

Tarea Moral

  1. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ verifica que se cumple el primer teorema de esta entrada y determina si $T$ es inyectiva o suprayectiva.
  2. Si $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ es lineal y sabemos que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. ¿Es $T$ inyectiva?

Más adelante…

El último ejercicio de la Tarea Moral en la entrada anterior, 2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos, pregunta la existencia de una transformación lineal de acuerdo a dos valores dados y a continuación veremos cómo podemos plantear y resolver este problema de manera más general.

Entradas relacionadas

2.2. NÚCLEO, NULIDAD, IMAGEN Y RANGO: definiciones, ejemplos y propiedades

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Analizaremos cuatro nuevos conceptos. Dos de ellos son conjuntos y los otros dos son las dimensiones de esos conjuntos.

Representación gráfica del núcleo y la imagen de una transformación $T$.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales y $T\in\mathcal{L}(V,W)$.
El núcleo de $T$ es $Núc\,T=\{v\in V|T(v)=\theta_W\}$.
La imagen de $T$ es $Im\, T=\{T(v)|v\in V\}$.

  • Sean $K$ un campo y $T:K^\infty\longrightarrow K^\infty$ lineal donde $\forall (x_1,x_2,x_3,…)\in K^\infty (T(x_1,x_2,x_3,…)=(x_2,x_3,x_4,…))$.
    $Núc\,T=\{(x_1,0_K,0_K,…)\in K^\infty | x_1\in K\}$ ; $Im\,T=K^\infty$

Justificación. Para el núcleo de $T$:

\begin{align*} T(x_1,x_2,x_3,…)=(0_K,0_K,0_K,…) \Leftrightarrow \\ (x_2,x_3,x_4,…)=(0_K,0_K,0_K,…)\Leftrightarrow \\x_i=0_K \text{ para toda }i\in\{2,3,4,…\}. \end{align*}


Para la imagen de $T$:

Sea $(y_1,y_2,y_3,…)\in K^\infty$. Tenemos que $T(0_K,y_1,y_2,…)=(y_1,y_2,y_3,…)$, por lo cual $T$ es suprayectiva y su imagen es todo el codominio.

  • Sea $T:\mathbb{R}^2\longrightarrow\mathbb{R}^2$ donde $\forall (x,y)\in\mathbb{R}^2(T(x,y)=(x,0))$
    $Núc\,T=\{(0,y)\in\mathbb{R}^2|y\in\mathbb{R}\}$ ; $Im\,T=\{(x,0)\mathbb{R}^2|x\in\mathbb{R}\}$

Justificación. Para el núcleo de $T$:

$$T(x,y)=(0,0) \Leftrightarrow (x,0)=(0,0)\Leftrightarrow x=0.$$

Para la imagen de $T$:

Sea $(a,0)\in \{ (x,0)\in\mathbb{R}^2|x\in\mathbb{R}^2\}$. Dado que $T(a,0)=(a,0)$ se tiene que $(a,0)\in Im\,T$. A la inversa, si $(a,b)\in Im\, T$ se tiene que $T(x,y)=(a,b)$ para alguna $(x,y)\in \mathbb{R}^2$, por lo que $(x,0)=(a,b)$ y así $b=0$.

  • Sean $K$ un campo, $A\in\mathcal{M}_{m\times n}(K)$ y $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$
    $Núc\,T$ es el conjunto de las soluciones del sistema homogéneo con matriz de coeficientes $A$ ; $Im\,T$ es el espacio generado por las columnas de $A$

Justificación. Para el núcleo de $T$:

$$T(X)=\theta_{m\times 1}\Leftrightarrow AX=\theta_{m\times 1} \Leftrightarrow X \text{ es solución del sistema homogéneo con matriz de coeficientes }A.$$


Para la imagen de $T$:

\begin{align*}Im\,T&=\{AX:X\in K^n\}\\&=\left\{ \begin{pmatrix} a_{11} & … & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & … & a_{mn} \end{pmatrix} \begin{pmatrix} x_1\\ \vdots \\ x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ \begin{pmatrix} a_{11}x_1 + … + a_{1n}x_n \\ … \\ a_{m1}x_1 + … + a_{mn}x_n \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\{ x_1\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} + … + x_n\begin{pmatrix} a_{1n}\\ \vdots \\ a_{mn} \end{pmatrix} : x_1,x_2,…,x_n\in K \right\}\\&=\left\langle \begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix},…,\begin{pmatrix} a_{11}\\ \vdots \\ a_{m1} \end{pmatrix} \right\rangle\end{align*}

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T\in\mathcal{L}(V,W)$. Se cumple que:

a) $Núc\,T\leqslant V$.
b) $Im\,T\leqslant W$.

Demostración: Para cada inciso es necesario demostrar dos propiedades:

a) P.D. $\theta_V\in Núc\,T$ y $\forall\lambda\in K$ $\forall u,v\in Núc\,T (\lambda u + v\in Núc\,T)$

Como $T$ es una transformación lineal tenemos que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_V\in Núc\,T.$

Sean $\lambda\in K$ y $u,v\in Núc\,T$. Entonces $T(u)=\theta_W=T(v).$ Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal. Así, $$T(\lambda u+v)=\lambda\theta_W +\theta_W=\theta_W$$
de donde $\lambda u + v\in Núc\,T.$

b) P.D. $\theta_W\in Im\,T$ y $\forall\lambda\in K$ $\forall w,z\in Im\,T (\lambda u + v\in Im\,T)$

Como $T$ es una transformación lineal tenemos que $\theta_V\in V$ cumple que $T(\theta_V)=\theta_W$, por lo tanto, $\theta_W\in Im\,T$.

Sean $\lambda\in K$ y $w,z\in Im\,T$. Entonces $\exists u,v\in V (T(u)=w\wedge T(v)=z)$. Además, $T(\lambda u+v)=\lambda T(u)+T(v)$ por ser $T$ lineal.
Así, $$T(\lambda u+v)=\lambda w+z$$
de donde $\lambda w+ z\in Im\,T.$

NULIDAD Y RANGO DE UNA TRANSFORMACIÓN LINEAL

Definición: Sea $T$ una transformación lineal con $Núc \,T$ de dimensión finita. Decimos que la dimensión de $Núc\,T$ es la nulidad de $T$.

Definición: Sea $T$ una transformación lineal con $Im \,T$ de dimensión finita. Decimos que la dimensión de $Im\,T$ es el rango de $T$.

Ejemplo

  • Sea $K=\mathbb{R}$ y sean $V=\mathcal{P}_3$ y $W=\mathcal{P}_2$ $K$ – espacios vectoriales.
    Sea $T:V\longrightarrow W$ donde $\forall p(x)\in T(p(x))=p'(x)$.
    La nulidad de $T$ es $1$ y su rango es $3$

Justificación. Los polinomios con derivada cero son únicamente las constantes. Así, $Núc(T)=\{a|a\in\mathbb{R}\}$ que tiene dimensión $1$.

Por otro lado todo polinomio de grado $2$ se puede obtener derivando un polinomio de grado $3$. Basta con integrar el polinomio de grado $2$ para encontrar cómo son los polinomios de grado $3$ que cumplen lo deseado. De modo que $W\subseteq Im(T)$ y como $Im(T)\subseteq W$ por definición, entonces $Im(T)=W$ que tiene dimensión $3$.

Por lo tanto, el núcleo y la imagen son de dimensión finita y la nulidad de $T$ es $1$ y su rango es $3.$

Tarea Moral

  1. Sean $K$ un campo, $V$ y $W$ $K$-espacios vectoriales y $T:V\longrightarrow W$ lineal. Sea $\{ w_1, w_2, …, w_k\}$ un subconjunto l.i. de $Im\,T$.
    Si $S=\{ v_1,v_2,…,v_k \}$ se selecciona de tal forma que $\forall i\in \{ 1,2,…,k\}(T(v_i)=w_i)$, demuestra que $S$ es l.i.
  2. Para la transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ con $T(a_1,a_2,a_3)=(a_1 + 2a_2, 2a_3 – a_1)$ encuentra bases para $Núc(T)$ e $Im(T)$.
  3. Sean $K$ un campo y $P: \mathcal{M}_{m\times m}(K) \longrightarrow \mathcal{M}_{m\times m}(K)$ definida por $\forall A\in \mathcal{M}_{m\times m}(K) \left( P(A)=\frac{A + A^{t}}{2} \right)$. Verifica que $T$ es lineal y encuentra su núcleo e imagen.

Más adelante…

En la siguiente entrada veremos el vínculo que existe entre la dimensión del núcleo, de la imagen y del espacio vectorial que aparece como dominio de una transformación lineal. Esta relación numérica nos permite calcular cualquiera de estas dimensiones si tenemos conocimiento de las otras dos.

Entradas relacionadas

2.1. TRANSFORMACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Por qué el uso de la palabra «transformación»?
Como veremos, una transformación lineal es una función que va de un espacio lineal a otro espacio lineal. Y toda función, básica e informalmente, transforma un elemento del dominio en uno del codominio.

Ahora bien, no es una función «cualquiera». Y aunque sólo son dos condiciones las que se piden, estas transformaciones de un espacio vectorial en sí mismo o en otro espacio vectorial tienen un comportamiento que permite aplicaciones muy útiles tanto en matemáticas, como en física, ingenierías e incluso arte digital. Sus propiedades gracias a esas dos condiciones hacen de este tipo de funciones sea un punto esencial del Álgebra lineal.

TRANSFORMACIÓN LINEAL

Definición: Sean $V$ y $W$ $K$ – espacios vectoriales. Una función $T:V\longrightarrow W$ es una transformación lineal de $V$ en $W$ si:
$1)$ $\forall u,v\in V(T(u+v)=T(u)+T(v))$
$2)$ $\forall \lambda\in K(\forall v\in V(T(\lambda v)=\lambda T(v)))$

Nota: Al conjunto de las transformaciones lineales de $V$ a $W$ se le denota como $\mathcal{L}(V,W)$. Cuando una función cumple la condición $1)$ diremos que abre sumas mientras que si cumple la condición $2)$ diremos que saca escalares.

Observación: Si $T$ abre sumas, entonces manda al neutro de $V$ en el neutro de $W$, pues $\theta_W+T(\theta_V)=T(\theta_V)=T(\theta_V+\theta_V)=T(\theta_V)+T(\theta_V)$$\Rightarrow\theta_W+T(\theta_V)=T(\theta_V)+T(\theta_V)\Rightarrow\theta_W=T(\theta_V).$
En otras palabras, las transformaciones lineales envían el neutro del dominio en el neutro del codominio.

Ejemplos

  • Sea $V$ un $K$ – espacio vectorial.
    $T:V\longrightarrow V$ donde $\forall v\in V(T(v)=\theta_V)$ es una transformación lineal de $V$ en $V$

Justificación. Sean $\lambda\in K$ y $u,v\in V$.

Entonces $T(u+v)=\theta_V=\theta_V+\theta_V=T(u)+T(v)$ y
$\lambda T(v)=\lambda\theta_V=\theta_V=T(\lambda v)$

  • Sea $K$ un campo. $T:K[x]\longrightarrow K[x]$ donde $\forall p(x)\in K[x](T(p(x))=p'(x))$ es una transformación lineal de $K[x]$ en $K[x]$

Justificación. Sean $\lambda\in K$ y $p(x),q(x)\in K[x]$.

Entonces $T(p(x)+q(x))=(p(x)+q(x))’=p'(x)+q'(x)=T(p(x))+T(q(x))$ y
$T(\lambda p(x))=(\lambda p(x))’=\lambda p'(x)=\lambda T(p(x))$

Proposición: Sean $V,W$ $K$ – espacios vectoriales, $T:V\longrightarrow W$.
$T$ es lineal si y sólo si $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$

Demostración: $\Longrightarrow )$ Sean $T:V\longrightarrow W$ lineal, $\lambda\in K$, $u,v\in V$.

$\begin{align*}
T(\lambda u+v)&=T(\lambda u)+T(v)\tag{$1$}\\
&=\lambda T(u)+T(v)\tag{$2$}\\
\therefore T(\lambda u+v)&=\lambda T(u)+T(v)
\end{align*}$

$\Longleftarrow )$ Sea $T$ tal que $\forall\lambda\in K$ $\forall u,v\in V$ $(T(\lambda u+v)=\lambda T(u)+T(v))$. Sean $\lambda\in K$ y $u,v\in V$.

$\begin{align*}
T(u+v)&=T(1_K u+v)\tag{}\\
&=1_KT(u)+T(v)\tag{hip}\\
&=T(u)+T(v)\tag{}\\
\therefore T(u+v)&=T(u)+T(v)
\end{align*}$

$\begin{align*}
T(\lambda u)&=T(\lambda u+\theta_V)\tag{}\\
&=\lambda T(u)+T(\theta_V)\tag{hip}\\
&=\lambda T(u)+\theta_W\tag{Obs.}\\
&=\lambda T(u)\tag{}\\
\therefore T(\lambda u)&=\lambda T(u)
\end{align*}$

$\therefore T$ es lineal

Ejemplos

  • $T:\mathbb{R}^3\longrightarrow\mathbb{R}^2$ donde $\forall (x,y,z)\in\mathbb{R}^3(T(x,y,z)=(x+y+z,2x-7y))$ es una transformación lineal de $\mathbb{R}^3$ en $\mathbb{R}^3$.

Justificación. Sean $(x,y,z),(u,v,w)\in\mathbb{R}^3$ y $\lambda\in\mathbb{R}$.

$T(\lambda(x,y,z)+(u,v,w))=T((\lambda x,\lambda y,\lambda z)+(u,v,w))$$=T(\lambda x + u,\lambda y + v,\lambda z + w)$$=(\lambda x + u+\lambda y + v+\lambda z + w,2(\lambda x + u)-7(\lambda y + v))$$=(\lambda(x+y+z)+u+v+w,2\lambda x-7\lambda y+2u-7v)$$=\lambda (x+y+z,2x-7y)+(u+v+w,2u-7v)$$=\lambda T(x,y,z)+T(u,v,w)$

  • Sea $K$ un campo.
    Si $A\in\mathcal{M}_{m\times n}(K)$, entonces $T:K^n\longrightarrow K^m$ donde $\forall X\in K^n(T(X)=AX)$ es una transformación lineal de $K^n$ en $K^m$.

Justificación. Sean $X,Y\in K^n,\lambda\in K$.

$T(\lambda X+Y)=A(\lambda X+Y)=\lambda AX + AY=\lambda T(X)+T(Y)$.

Tarea Moral

  1. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$.
    Sea $T: V \longrightarrow W$ una transformación lineal. Demuestra que para todo $v_1,v_2,…,v_n\in V$ y para todo $\lambda_1, \lambda_2,…,\lambda_n\in F$ con $n\in\mathbb{N}^{+}$ se tiene que $T(\lambda_1 v_1 + \lambda_2 v_2 + … + \lambda_n v_n) = \lambda_1 T(v_1) + \lambda_2 T(v_2) + … + \lambda_n T(v_n)$.
  2. Sea $T:\mathbb{R}^2 \longrightarrow \mathbb{R}^2$ una transformación lineal tal que $T(1,0)=(2,4)$ y $T(1,1)=(8,5)$. Determina si es posible hallar la regla de correspondencia de $T$, es decir, $T(x,y)$ para todo $(x,y)\in\mathbb{R}^2$. Si no es posible argumenta por qué y si es posible encuéntrala.
  3. ¿Existe una transformación lineal $T:\mathbb{R}^3\longrightarrow \mathbb{R}^2$ tal que $T(1,2,4)=(1,2)$ y $T(-2,-4,-8)=(-2,1)$?

Más adelante…

Veremos ahora cuatro elementos que surgen de una transformación lineal:
Núcleo e imagen, que son dos conjuntos relevantes para dominio y codominio.
Nulidad y rango, que son dos números que nos revelan dimensiones. Comenzaremos por definir el núcleo y la imagen de una transformación lineal y probando que son subespacios vectoriales.

Entradas relacionadas

1.11. SUMA Y SUMA DIRECTA DE SUBESPACIOS: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

La suma entre espacios vectoriales se construye con la suma de vectores, sin embargo, al ser subespacios, lo que resulta de esta operación, dónde vive y cómo se comporta es algo que que debe analizarse de forma particular.

La suma directa, una vez que aprendemos a distinguirla y manejarla, nos permite expresar a nuestro espacio vectorial en términos de algunos de sus subespacios. De este modo es más clara la estructura que tienen todos los elementos del espacio.

SUMA DE SUBESPACIOS

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. La suma de $U$ y $W$ es $U+W=\{u+w|u\in U, w\in W\}$ (donde $+$ es la suma del espacio $V$).

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m=\{u_1+u_2+…+u_m|u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$

Propiedades

Justificación. Veamos que $U+W$ contiene a $\theta_V$ y conserva suma y producto por escalar.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$.
Así, $\theta_V =\theta_V+\theta_V\in U+W$
$\therefore \theta_V\in U+W$

Como $U,W\subseteq V$, entonces $u_1,u_2,w_1,w_2\in V$, así que $$(u_1+w_1)+\lambda (u_2+w_2)=(u_1+w_1)+(\lambda u_2 + \lambda_2 w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) $$ y como $U,W\leqslant V$, entonces tanto $U$ como $W$ conservan suma y producto por escalar así que $u_1+\lambda u_2 \in U$ y $w_1+\lambda w_2 \in W$.
Por lo cual, $(u_1+w_1)+\lambda(u_2+w_2)=(u_1+\lambda u_2)+(w_1+\lambda w_2 ) \in U+W$
$\therefore (u_1+w_1)+\lambda(u_2+w_2)\in U+W$

Justificación. Recordando que $\theta_V\in U,W$ (porque $U,V\leqslant V$) tenemos que $\forall u\in U(u=u+\theta_V\in U+W)$ y $\forall w\in W(w=\theta_V+w\in U+W)$

Justificación. Sea $\tilde{V}\leqslant V$ tal que $U,W\subseteq \tilde{V}$
Sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U\subseteq \tilde{V}$ y $w\in W\subseteq \tilde{V}$.
De donde $u,w\in\tilde{V}$ y como $\tilde{V}\leqslant V$, entonces $\tilde{V}$ es cerrado bajo suma. Así, $u+w\in\tilde{V}$.
$\therefore U+W\subseteq\tilde{V}$

Teorema: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Demostración: Sea $\beta=\{v_1,v_2,…,v_m\}$ una base de $U\cap W$ con $dim_K U\cap W=m$.
Podemos completar a una base de $U$ y a una base de $W$:

Sea $A=\{v_1,v_2,…,v_m,u_1,u_2,…,u_r\}$ una base de $U$.
Sea $\Gamma =\{v_1,v_2,…,v_m,w_1,w_2,…,w_s\}$ una base de $W$.

donde $dim_K U=m+r$ y $dim_K W =m+s$.

Veamos que $\Delta =A\cup\Gamma =\{v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s\}$ es base de $U+W$ con $m+r+s$ elementos.

Tenemos que $A$ es base de $U$, por lo que $A\subseteq U$.
Tenemos que $\Gamma$ es base de $W$, por lo que $\Delta\subseteq W$.
Así, $\Delta =A\cup\Gamma \subseteq U\cup W$. Y como $U,W\subseteq U+W$, entonces $U\cup W\subseteq U+W$.
Por lo tanto $\Delta\subseteq U+W$ y como $U+W\leqslant V$ concluimos que $\langle\Delta\rangle\subseteq U+W.$

Ahora bien, sea $u+w\in U+W$ con $u\in U$ y $w\in W$.
Entonces $u\in U=\langle A\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$ y $w\in W=\langle\Gamma\rangle\subseteq\langle A\cup\Gamma\rangle =\langle\Delta\rangle$.
De donde $u,w\in\langle\Delta\rangle$ y como $\langle\Delta\rangle\leqslant V$, entonces $u+w\in\langle\Delta\rangle$.
Por lo tanto, $U+W\subseteq\langle\Delta\rangle$.

$\therefore\langle\Delta\rangle =U+W$

Veamos que la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. Como consecuencia de ello se tendrá que $\Delta$ es linealmente independiente y $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ son distintos y por lo tanto son $m+r+s$ elementos.

Sean $\kappa_1,\kappa_2,…,\kappa_m,\lambda_1,\lambda_2,…,\lambda_r,\mu_1,\mu_2,…,\mu_s\in K$ tales que:
$\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(1)$

Como $W\leqslant V$, entonces $\sum_{i=1}^s\mu_iw_i\in W$ $…(2)$
Como $U=\langle A\rangle$, entonces $-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i\in U$ $…(3)$

De $(1)$ tenemos que $\sum_{i=1}^s\mu_iw_i=-\sum_{i=1}^m\kappa_iv_i-\sum_{i=1}^r\lambda_iu_i$ y en consecuencia, por $(2)$ y $(3)$, concluimos que $\sum_{i=1}^s\mu_iw_i$ es un elemento que está tanto en $U$ como en $W$.

Así, $\sum_{i=1}^s\mu_iw_i\in U\cap W=\langle\beta\rangle$ y por tanto existen $\gamma_1,\gamma_2,…,\gamma_m\in K$ tales que $\sum_{i=1}^s\mu_iw_i=\sum_{i=1}^m\gamma_iv_i$ $…(4)$

De $(4)$ tenemos que $\sum_{i=1}^s\mu_iw_i-\sum_{i=1}^m\gamma_iv_i=\theta_V$, y como $\Gamma$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,s\}(\mu_i=0_K)$ y $\forall i\in\{1,2,…,m\}(-\gamma_i=0_K)$. Por lo tanto, $\sum_{i=1}^s\mu_iw_i=\theta_V$ $…(5)$

De $(1)$ y $(5)$ tenemos que $\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i +\theta_V=\sum_{i=1}^m\kappa_iv_i +\sum_{i=1}^r\lambda_iu_i+\sum_{i=1}^s\mu_iw_i=\theta_V$. De donde $\sum_{i=1}^m\kappa_iv_i+\sum_{i=1}^r\lambda_iu_i=\theta_V$, y como $A$ es l.i. por ser base, entonces $\forall i\in\{1,2,…,m\}(\kappa_i=0_K)$ y $\forall i\in\{1,2,…,r\}(-\lambda_i=0_K)$ $…(6)$

Hemos probado que $\kappa_1,=\kappa_2=…=\kappa_m=\lambda_1=\lambda_2=…=\lambda_r=\mu_1=\mu_2=…=\mu_s=0_K$.

Así, la lista $v_1,v_2,…,v_m,u_1,u_2,…,u_r,w_1,w_2,…,w_s$ es l.i. y en consecuencia $\Delta$ es un conjunto l.i. con $m+r+s$ elementos.

$\therefore\Delta$ es l.i.

Concluimos que $\Delta$ es base de $U+W$ con $m+r+s$ elementos.

Finalmente sabemos que $dim_KU=m+r$, $dim_KW=m+s$ y $dim_K(U\cap W)=m.$
Además $\Delta$ es base de $U+W$ con $m+r+s$ elementos, entonces $dim_K(U+W)=m+r+s=(m+r)+(m+s)-m.$

Por lo tanto $dim_K(U+W)=dim_KU+dim_KW-dim_K(U\cap W)$

Ejemplos

Justificación. Es claro que $U_1,U_2,U_3\leqslant V$. Veamos el resultado de cada suma entre estos subespacios.
$U_1+U_2=\{(x,0)+(0,y)|x,y\in\mathbb{R}\}=\{(x,y)|x,y\in\mathbb{R}\}=V$
$U_2+U_3=\{(0,y)+(a,a)|y,a\in\mathbb{R}\}=\{(a,a+y)|a,y\in\mathbb{R}\}=\{(a,b)|a,b\in\mathbb{R}\}=V$
$U_3+U_1=\{(a,a)+(x,0)|a,x\in\mathbb{R}\}=\{(a+x,a)|a,x\in\mathbb{R}\}=\{(b,a)|b,a\in\mathbb{R}\}=V$

Verifiquemos para la suma $U_1+U_2$ el teorema previo:

Sabemos que $dim_KV=2$. Además $U_1\cap U_2=\{(0,0)\}$ y así $dim_K(U_1\cap U_2)=dim_K\{(0,0)\}=0$.
Como $\{(1,0)\}$ es base de $U_1$, entonces $dim_KU_1=1$.
Como $\{(0,1)\}$ es base de $U_2$, entonces $dim_KU_2=1$.
Así, $2=dim_KV=dim_K(U_1+U_2)=2=1+1+0=dim_KU_1+dim_KU_2-dim_K(U_1\cap U_2).$

Justificación. Dado que $dim_KV=3$ y $U+W$ es un subespacio de $V$
bastará probar entonces que $dim_K(U+W)=3$.

Como $\{(1,0,0),(0,1,0)\}$ es base de $U$, entonces $dim_KU=2$
Como $\{(0,1,0),(0,0,1)\}$ es base de $W$, entonces $dim_KW=2$
Como $\{(0,1,0)\}$ es base de $U\cap W$, entonces $dim_K(U\cap W)=1$
Así, \begin{align*}dim_K(U+W)&=dim_KU+dim_KW-dim_K(U\cap W)\\&=2+2-dim_K(U\cap W)=4-1=3,\end{align*} de donde $dim_K(U+W)=3=dim_KV$.

$\therefore U+W=V$.

SUMA DIRECTA

Definición: Sean $V$ un $K$ – espacio vetorial y $U,W$ subespacios de $V$. Decimos que $U+W$ es una suma directa si cada $v\in U+W$ se escribe como $v=u+w$ (con $u\in U,w\in W$) de forma única. En ese caso, escribiremos a $U+W$ como $U\oplus W$.

Nota: La generalización para $U_1,U_2,…,U_m$ ($m$ subespacios de $V$) es:
$U_1+U_2+…+U_m$ es suma directa si cada $v\in U_1+U_2+…+U_m$ se escribe como $v=u_1+u_2+…+u_m$ (con $u_1\in U_1,u_2\in U_2,…,u_m\in U_m\}$) de forma única. Se denotará como $U_1\oplus U_2\oplus …\oplus U_m$.

Ejemplo

Justificación. Es claro que $U,W\leqslant V$.
Sea $(a,b)\in\mathbb{R}^2$.
Entonces $a,b\in\mathbb{R}$.

Tenemos que $$(a,b)=\left( \frac{a+b}{2}+\frac{a-b}{2} ,\frac{a+b}{2}-\frac{a-b}{2}\right)=\left( \frac{a+b}{2} ,\frac{a+b}{2}\right)+\left( \frac{a-b}{2} ,-\frac{a-b}{2}\right)\in U+W,$$
de donde $\mathbb{R}^2\subseteq U+W$. Sabemos que $U+W\subseteq V$ y demostramos que $V\subseteq U+W$
$\therefore U+ W=V$

Veamos ahora que dicha suma es directa, es decir que si $u\in U, w\in W$ son tales que $(a,b)=u+w$, entonces $u,w$ son únicos. Bastará para ello verificar que la descomposición anterior de $(a,b)$ como suma de un elemento en $U$ y uno en $W$ es la única posible.

Sean $u\in U, w\in W$ son tales que $(a,b)=u+w$.
Entonces $u=(x,x)$ para algún $x\in\mathbb{R}$ y $w=(y,-y)$ para algún $y\in\mathbb{R}$, donde $(a,b)=(x,x)+(y,-y)=(x+y,x-y)$.

De aquí se deduce que $a=x+y$ y $b=x-y$. Así, $a+b=2x$ y por lo tanto $x=\frac{a+b}{2}$, mientras que $a-b=2y$ y por lo tanto $y=\frac{a-b}{2}$.

$\therefore U+W$ es suma directa.
$\therefore U\oplus W=V$

Proposición: Sean $V$ un $K$ – espacio vectorial y $U,W$ subespacios de $V$. Entonces $U+W$ es suma directa si y sólo si $U\cap W=\{\theta_V\}$

Demostración: Veamos ambas implicaciones.

$\Rightarrow )$ Supongamos que $U+W$ es suma directa.

Como $U,W\leqslant V$, entonces $\theta_V\in U,W$. Por lo que $\{\theta_V\}\subseteq U\cap W$.

Sea $v\in U\cap W$.
Sabemos que $\theta_V+v,v+\theta_V\in U\oplus W$ y son formas de escribir a $v$.
Como $U+W$ es suma directa, entonces la forma de escribir a $v$ debe ser única.
Por lo tanto, $v=\theta_V$

$\therefore U\cap W=\{\theta_V\}$

$\Leftarrow )$ Supongamos que $U\cap W=\theta_V$

Sea $v\in U+W$ tal que $u_1+w_1=v=u_2+w_2$ con $u_1,u_2\in U$ y $w_1,w_2\in W$

Como $U,W\leqslant V$, entonces $u_1-u_2\in U$ y $w_2-w_1\in W$.
Como $u_1+w_1=u_2+w_2$, entonces $u_1-u_2=w_2-w_1$.
Por lo tanto, $u_1-u_2,w_2-w_1\in U\cap W=\{\theta_V\}$

Así, $u_1-u_2=\theta_V$ lo que implica que $ u_1=u_2$T ambién $w_2-w_1=\theta_V$ lo que implica que $w_2=w_1$.
Es decir, cada elementos en $U+W$ se escribe de forma única.

$\therefore U+W$ es una suma directa.

Tarea Moral

Más adelante…

A partir de la siguiente entrada, analizaremos un tipo de funciones muy especial y útil que va de espacios vectoriales a espacios vectoriales y aunque la definición sólo le pide abrir dos operaciones, esto implica muchas propiedades que otorgan a este tipo de funciones un papel central en el Álgebra lineal.

Entradas relacionadas