Archivo de la etiqueta: imagen

Cálculo Diferencial e Integral I: Concepto de función

Por Karen González Cárdenas

Introducción

En la unidad anterior desarrollamos todo lo concerniente a los números reales, ahora comenzaremos a ver funciones. Para ello recordemos de nuestros cursos de álgebra cómo se define el producto cartesiano de un par de conjuntos $A$ y $B$:
$$ A\times B := \left\{ (a,b) : a \in A, b \in B \right\},$$
así vemos que sus elementos son pares ordenados.

Por lo que decimos que cualquier subconjunto $R \subseteq A\times B$, es llamado una relación entre $A$ y $B$.

Basándonos en este par de conceptos daremos la definición formal de función entre un par de conjuntos.

Definición de función

Definición (función): Una función $f$ entre los conjuntos $A$ y $B$ es una relación tal que:

  • Para todo $a \in A$ existe $b \in B$ donde $(a,b) \in f$.
  • Si $(a, b_{1}), (a, b_{2})$ entonces $b_{1}= b_{2}$.

Notación:

  • $f : A \rightarrow B$ es una función con dominio $A$ y codominio $B$.
  • $f(a)=b$ es llamada la regla de correspondencia de f.

En resumen, a una función $f : A \rightarrow B$ la conforman tres cosas:

  • Su dominio.
  • Su codominio.
  • Su regla de correspondencia.

El conjunto imagen de una función

Definición (Conjunto imagen): Sea $f : A \rightarrow B$ una función. La imagen de f se define como:
$$Im_{f}:= \left\{ b \in B : \exists a \in A (f(a) =b) \right\}.$$
Simplificado sería:
$$Im_{f}:= \left\{ f(a) \in B : a \in A \right\}.$$

Ejemplo: Sea $f: \r \rightarrow \r$. Si $f(x)=|x|$ entonces $Im_{f}=[0, \infty)$.

Demostración:
$\subseteq )$ Sea $x \in \r$. Vemos que $f(x)= |x|\geq 0$ por lo que $f(x) \in [0, \infty)$.

$\supseteq )$ Tomemos $y \in [0, \infty)$. Debemos probar que existe $x \in \r$ tal que $f(x)= y$.
Sea $x=y \in \r$ con $y \geq 0$. Así se sigue que $f(y)= |y|=y$ por lo que $f(y)=x$.

$\square$

Ejemplo

Encuentra el dominio y la imagen de la siguiente función:
$$f(x)= \sqrt{1-x^{2}}\quad \text{.}$$

Dominio:
Vemos que $y=\sqrt{1-x^{2}}$ está bien definido
\begin{align*}
&\Leftrightarrow 1-x^{2} \geq 0\\
&\Leftrightarrow 1 \geq x^{2}\\
&\Leftrightarrow 1 \geq |x|\\
\end{align*}
Así concluimos que el dominio es el conjunto:
$$D_{f}= [-1,1]\quad \text{.}$$
Imagen:
Como $x \in [-1,1]$ entonces
\begin{align*}
-1 \leq x \leq 1 &\Leftrightarrow 0 \leq x^{2} \leq 1\\
&\Leftrightarrow 0 \geq -x^{2} \geq -1\\
&\Leftrightarrow 1\geq 1-x^{2} \geq 1-1\\
&\Leftrightarrow 1\geq 1-x^{2} \geq 0\\
&\Leftrightarrow 1\geq \sqrt{1-x^{2}} \geq 0\\
\end{align*}

Por lo anterior tenemos:
$$Im_{f} = [0,1]\quad \text{.}$$

Ejercicio 1

Encuentra el dominio de la siguiente función:
\begin{equation*} f(x)= \frac{1}{4-x^{2}} \end{equation*}

Vemos que la función está bien definido si y sólo si:
\begin{align*}
4-x^{2} \neq 0 &\Leftrightarrow (2-x)(2+x) \neq 0\\
&\Leftrightarrow x \neq 2 \quad \text{y} \quad x\neq -2
\end{align*}
Por lo que su dominio sería:
$$D_{f}= \r – \left\{-2,2 \right\}\quad \text{.}$$
es decir, todos los reales quitando el $-2$ y el $2$.

Ejercicio 2

Encuentra el dominio de la siguiente función:
$$f(x)= \sqrt{x-x^{3}}\quad \text{.}$$

Dominio:
Vemos ahora que para $y=\sqrt{x-x^{3}}$ está bien definido
\begin{align*}
&\Leftrightarrow x-x^{3} \geq 0\\
&\Leftrightarrow x(1-x^{2}) \geq 0\\
&\Leftrightarrow x(1-x)(1+x) \geq 0\\
&\Leftrightarrow x \geq 0,\quad x\leq 1, \quad x \geq -1
\end{align*}

De las condiciones anteriores vemos que tenemos los siguientes posibles intervalos que cumplen la desigualdad inicial:

  • $(-\infty, -1]$
    Vemos que al sustituir $x= -1 \in (-\infty,-1]$ tenemos que:
    $$-1-(-1)^{3} = -1-(-1)= 0 \geq 0$$
    por lo que se cumple la desigualdad $x-x^{3} \geq 0$.
  • $(-1,0)$
    Tomando $x=-\frac{1}{2}$ vemos que:
    $$-\frac{1}{2} -\left(-\frac{1}{2} \right) ^{3} = -\frac{1}{2} + \frac{1}{8} = -\frac{3}{8}$$
    Por lo que no se cumple ser mayor o igual que cero.
  • $[1,0]$
    Ahora si tomamos $x=1$ observamos:
    $$1- 1^{3} =1-1 =0$$
    por lo que cumple la desigualdad.
  • $(1,\infty)$
    Por último si consideramos $x= 2$ ocurre que:
    $$2- (2)^{3} =2-8 =-6$$
    que no cumple la desigualdad.

Del análisis anterior vemos que los intervalos que cumplen con $x-x^{3} \geq 0$ son:
$$(-\infty, -1] \cup [1,0]\quad \text{.}$$
Por lo que el dominio de la función sería:
$$D_{f}=(-\infty, -1] \cup [1,0]\quad \text{.}$$

Gráfica de una función

Definición (gráfica): Sea $f:D_{f} \subseteq \r \rightarrow \r$ Definimos a la gráfica de f como el conjunto:
$$ Graf(f)= \left\{ (x,y)\in {\mathbb{R}}^2: x \in D_{f}, \quad y=f(x) \right\},$$
que es equivalente a decir:
$$Graf(f)= \left\{(x, f(x)): x \in D_{f} \right\}\quad \text{.}$$

Ejemplos

  • Para la función constante tenemos:
    $$f(x)=c ,$$
    donde $D_{f}= \r$ y $Im_{f}= {c}$.

    Por lo que su gráfica se vería como:
  • Para la función identidad tenemos:
    $$Id(x)=x ,$$
    donde $D_{f}= \r$ y $Im_{f}= \r$.

    Así su gráfica se vería:

Más adelante

En la próxima entrada veremos las definiciones relacionadas con las operaciones entre funciones: suma, producto, cociente y composición.

Tarea moral

A continuación encontrarás una serie de ejercicios que te ayudarán a repasar los conceptos antes vistos:

  • Sea $f: \r \rightarrow \r$. Demuestra que si $f(x)=x^{2}$ entonces $Im_{f}=[0, \infty).$
  • Encuentra el dominio de las siguientes funciones:
    • $\begin{multline*} f(x)= \sqrt{x+1} \end{multline*}$
    • $\begin{multline*} f(x)= x \sqrt{x^{2}-2} \end{multline*}$
    • $\begin{multline*} f(x)= \sqrt{-x}+ \frac{1}{\sqrt{x+2}} \end{multline*}$
    • $\begin{multline*} f(x)= \sqrt{2+x-x^{2}} \end{multline*}$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Ortogonalidad y transformación transpuesta

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya estudiamos la noción de espacio dual y la de ortogonalidad. También vimos cómo a partir de la ortogonalidad podemos definir subespacios como intersección de hiperplanos. Como veremos a continuación, la ortogonalidad también nos permite definir qué quiere decir que consideremos la «transformación transpuesta» de una transformación lineal.

Antes de comenzar, vale la pena recordar también que cada transformación lineal entre espacios de dimensión finita puede ser expresada mediante una matriz que depende de la elección de bases de los espacios vectoriales. Como tal vez te imaginarás, la transformación transpuesta tendrá como matriz a la matriz transpuesta de la transformación original.

Esta intuición nos dice que hay que tener cuidado. Supongamos que estamos trabajando sobre un campo $F$. Si tenemos espacios vectoriales $V$ de dimensión $n$, $W$ de dimensión $m$ y una tranformación lineal $T:V\to W$, recordemos que, tras elegir bases, $T$ está representada por una matriz $A$ en $M_{m,n}(F)$, es decir, con $m$ filas y $n$ columnas.

Pero la matriz transpuesta $^t A$ es de $n$ filas y $m$ columnas, así que típicamente no representará a una transformación de $V$ a $W$, pues las dimensiones no necesariamente coinciden. Podríamos intentar construir una transformación de $W$ a $V$ para que las dimensiones coincidan, pero resulta que esto no es «tan natural», por razones en las que no profundizaremos.

Lo que sí resulta muy natural y fácil de definir es una transformación de $W^\ast$ a $V^\ast$, lo cual tendrá sentido pues ya probamos que $\dim W^\ast = \dim W$ y $\dim V^\ast = \dim V$, así que será representada por una matriz en $M_{n,m}$. Es un poco más difícil conceptualmente, pero las consecuencias matemáticas son más bonitas y útiles. Sin decir más, comenzamos con la teoría.

Definición y ejemplo de transformación transpuesta

Para definir «transformación transpuesta», le hacemos como sigue.

Definición. Sean $V$ y $W$ espacios vectoriales sobre un campo $F$ y sea $T:V\to W$ una transformación lineal. Definimos la transformación transpuesta de $T$, como la transformación $^tT:W^\ast \to V^\ast$ tal que a cada forma lineal $l$ en $W^\ast$ la manda a la forma lineal $^tT(l)$ en $V^\ast$ para la cual $$(^tT(l))(v)=l(T(v)).$$

Otra forma de escribir a la definición es mediante la notación de emparejamiento canónico: $$\langle ^tT(l),v\rangle=\langle l, T(v)\rangle.$$

Veamos un ejemplo para entender mejor la definición.

Ejemplo. Considera a $V=M_{2}(\mathbb{R})$ y $W=\mathbb{R}^2$. Considera la transformación lineal $T:V\to W$ dada por $$T\begin{pmatrix} a& b\\ c&d\end{pmatrix}=(a+b,c+d).$$

La transformación $^t T$ va a mandar a una forma lineal $l$ de $W$ a una forma lineal $^tT(l)$ de $V$. Las formas lineales $l$ en $W$ se ven de la siguiente forma $$l(x,y)=rx+sy.$$ La forma lineal $^tT(l)$ en $V$ debe satisfacer que $^tT(l)=l\circ T$. En otras palabras, para cualquier matriz $\begin{pmatrix} a& b\\ c&d\end{pmatrix}$ se debe tener
\begin{align*}
(^t T(l)) \begin{pmatrix} a& b\\ c&d\end{pmatrix} &= l(a+b,c+d)\\
&=r(a+b)+s(c+d)\\
&=ra+rb+sc+sd.
\end{align*}

Si tomamos la base canónica $E_{11}$, $E_{12}$, $E_{21}$, $E_{22}$ de $V$ y la base canónica $e_1,e_2$ de $W$, observa que la transformación $T$ tiene como matriz asociada a la matriz $$\begin{pmatrix} 1 & 1 & 0 & 0\\ 0 & 0 & 1 & 1\end{pmatrix}$$ (recuerda que se obtiene poniendo como columnas a los vectores coordenada de las imágenes de la base).

Por otro lado, los vectores de la base dual $e_1^\ast$ y $e_2^\ast$ «leen las coordenadas», de modo que $e_1^\ast(x,y)=x$ y $e_2^\ast(x,y)=y$. Por lo que vimos arriba, $(^t T)(e_1)$ es entonces la forma lineal $a+b$ y $(^t T)(e_2)$ es la forma lineal $c+d$. En términos de la base dual en $V^\ast$, estos son $E_{11}^\ast + E_{12}^\ast$ y $E_{21}^\ast+ E_{22}^\ast$ respectivamente. De esta forma, la transformación $^t T$ tiene matriz asociada $$\begin{pmatrix}1&0\\1&0\\0&1\\0&1\end{pmatrix}.$$

$\triangle$

Nota que en el ejemplo la transformación transpuesta tiene como matriz a la matriz transpuesta de la transformación original. Esto es algo que queremos que pase siempre, y más abajo lo demostramos.

Propiedades básicas de transformación transpuesta

Observa que la definición no necesita que $V$ y $W$ sean de dimensión finita. A continuación enunciamos y probamos algunos resultados que se valen también en el contexto de dimensión infinita.

Teorema 1. Tomemos $V$,$W$,$Z$ espacios vectoriales sobre un campo $F$ y $c$ en $F$. Sean $T_1,T_2: V \to W$ transformaciones lineales. Sea $T_3:W\to Z$ una transformación lineal. Se cumple todo lo siguiente:

  1. $^tT_1$ es una transformación lineal.
  2. $^t(T_1+cT_2)= {^tT_1} + c^tT_2$.
  3. $^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3$.
  4. Si $V=W$ y $T_1$ es invertible, entonces $^t T_1$ también lo es y $(^t T_1)^{-1}= {^t (T_1^{-1})}$.

Para tener un poco más de intuición, observa cómo estas propiedades son análogas a las de transposición para matrices.

Demostración. Las partes 1 y 2 se demuestran usando cuidadosamente las definiciones. Haremos la demostración de $1$ y la demostración de $2$ queda como tarea moral. Para probar $1$, necesitamos probar que $^tT_1:W^\ast \to V^\ast$ es lineal, así que tomemos $l_1$, $l_2$ en $W^\ast$ y $a$ un escalar en $F$. Tenemos que demostrar que $$ ^tT_1(l_1+a l_2)= {^tT_1(l_1)}+ a ^tT_1(l_2).$$

Ésta es una igualdad de formas lineales en $V^\ast$, y para mostrar su validez tenemos que mostrar que se vale en cada $v\in V$. Por un lado,
\begin{align*}
^tT_1(l_1+a l_2)(v) &= (l_1+a l_2)(T_1(v))\\
&=l_1(T_1(v))+a l_2(T_1(v)).
\end{align*}

Por otro lado,
\begin{align*}
(^tT_1(l_1)+ a ^tT_1(l_2))(v)&= {^tT_1(l_1)(v)}+ a ^tT_1(l_2)(v)\\
&= l_1(T_1(v)) + a l_2(T_1(v)).
\end{align*}

En ambos casos obtenemos el mismo resultado, así que $^tT_1(l_1+a l_2)$ y $^tT_1(l_1)+ a ^tT_1(l_2)$ son iguales, mostrando que $^t T_1$ es lineal.

Pasemos a la parte 3. La igualdad $^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3$ es una igualdad de transformaciones de $Z^\ast$ a $V^\ast$. Para verificar su veracidad, hay que ver que son iguales en cada elemento en su dominio. Tomemos entonces una forma lineal $l$ en $Z^\ast$. Queremos verificar la veracidad de $$ ^t(T_3\circ T_1)(l) = (^t T_1 \circ ^t T_3)(l),$$ que es una igualdad de formas lineales en $V^\ast$, de modo que tenemos que verificarla para cada $v$ en $V$. Por un lado,

\begin{align*}
^t(T_3\circ T_1)(l)(v)&=l((T_3\circ T_1)(v))\\&=l(T_3(T_1(v))),
\end{align*}

Por otro,
\begin{align*}
(^t T_1 \circ ^t T_3)(l)(v)&=(^tT_1(^t T_3 (l)))(v)\\&=(^t T_3 (l))(T_1(v))\\&=l(T_3(T_1(v))).
\end{align*}

En ambos casos obtenemos el mismo resultado.

Para la parte 4 basta notar que si $V=W$ y $T_1$ es invertible, entonces tiene una inversa $S:V\to V$, y por la parte $3$ tenemos que $$^t S\circ ^t T_1 = {^t(T_1\circ S)} = {^t \text{Id}_V} = \text{Id}_{V^\ast},$$

mostrando que $^t T_1$ tiene inversa $^tS$. Observa que estamos usando que la transpuesta de la transformación identidad es la identidad. Esto no lo hemos probado, pero lo puedes verificar como tarea moral.

$\square$

La matriz transpuesta es la matriz de la transformación transpuesta

Cuando estamos trabajando en espacios de dimensión finita, podemos mostrar que la matriz que le toca a la transformación transpuesta es precisamente la transpuesta de la matriz que le toca a la transformación original. Hacemos esto más preciso en el siguiente resultado.

Teorema 2. Sea $T:V\to W$ una transformación lineal entre espacios de dimensión finita y $B$ y $B’$ bases de $V$ y $W$ respectivamente. Si $A$ es la matriz de $T$ con respecto a $B$ y $B’$, entonces $^t A$ es la matriz de la transformación $^t T:W^\ast \to V^\ast$ con respecto a las bases duales $B’^\ast$ y $B^\ast$.

Demostración. Necesitamos definir algo de notación. Llamemos $n=\dim V$, $m=\dim W$, $B=\{b_1,\ldots, b_n\}$, $B’=\{c_1,\ldots, c_m\}$ y $A=[a_{ij}]$. Recordemos que la matriz $A$ está hecha por las coordenadas de las imágenes de la base $B$ en términos de la base $B’$, es decir, que por definición tenemos que para toda $j=1,\ldots, n$: \begin{equation}T(b_j)=\sum_{i=1}^{m} a_{ij} c_i.\end{equation}

La transformación $^t T:W^\ast \to V^\ast$ va de un espacio de dimensión $m$ a uno de dimensión $n$, así que en las bases $B’^\ast$ y $B^\ast$ se puede expresar como una matriz de $n$ filas y $m$ columnas. Afirmamos que ésta es la matriz $^t A$. Para ello, basta mostrar que las coordenadas de las imágenes de la base $B’^\ast$ en términos de la base $B^\ast$ están en las filas de $A$, es decir, que para todo $i=1, \ldots, m$ tenemos que $$^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast.$$

La anterior es una igualdad de formas lineales en $V^\ast$, de modo que para ser cierta tiene que ser cierta evaluada en todo $v$ en $V$. Pero por linealidad, basta que sea cierta para todo $b_j$ en la base $B$. Por un lado, usando (1),

\begin{align*}
^tT(c^\ast_i)(b_j)&=c^\ast_i(T(b_j))\\
&=c^\ast_i \left(\sum_{k=1}^{m} a_{kj} c_i\right)\\
&=\sum_{k=1}^{m} a_{kj} c^\ast_i(c_k)\\
&=a_{ij},
\end{align*}

en donde estamos usando que por definición de base dual $c_i^\ast (c_i)= 1$ y $c_j^\ast (c_i)=0$ si $i\neq j$. Por otro lado,

\begin{align*}
\left(\sum_{k=1}^{n} a_{ik} b_k^\ast\right)(b_j)&= \sum_{k=1}^{n} a_{ik} b_k^\ast(b_j)\\
&=a_{ij},
\end{align*}

en donde estamos usando linealidad y la definición de base dual para $B$.

Con esto concluimos la igualdad $$^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast,$$ que muestra que podemos leer las coordenadas de las evaluaciones de $^t T$ en $B’^\ast$ en términos de la base $B^\ast$ en las filas de $A$, por lo tanto podemos leerlas en las columnas de $^t A$. Esto muestra que $^t A$ es la matriz correspondiente a esta transformación en términos de las bases duales.

$\square$

Kernel e imagen de la transformación transpuesta

Finalmente, el siguiente resultado nos habla acerca de cómo están relacionadas las transformaciones transpuestas y la ortogonalidad.

Teorema 3. Sea $T:V\to W$ una transformación lineal entre espacios vectoriales de dimensión finita. Entonces

$$\ker (^t T) = (\Ima (T))^\bot,\quad \ker (T)=(\Ima (^t T))^\bot$$

y

$$\Ima (^t T) = (\ker(T))^\bot\,\quad \Ima (T)=(\ker(^t T))^\bot.$$

Demostración. Demostraremos la igualdad $\ker (^t T) = (\Ima (T))^\bot$. Notemos que $l \in \ker(^t T)$ si y sólo si $(^t T)(l)=0$, lo cual sucede si y sólo si $l\circ T = 0$. Pero esto último sucede si y sólo si para todo $v$ en $V$ se tiene que $l(T(v))=0$, que en otras palabras quiere decir que $l(w)=0$ para todo $w$ en $\Ima (T)$. En resumen, $l\in \ker(^t T)$ pasa si y sólo si $l$ se anula en todo $\Ima (T)$ es decir, si y sólo si está en $(\Ima (T))^\bot$.

El resto de las igualdades se demuestran de manera análoga, o alternativamente, usando la bidualidad canónica. Es un buen ejercicio hacerlo y se deja como tarea moral.

$\square$

Más adelante…

En esta entrada enunciamos un resultado muy importante: dada una transformación lineal $T$, su transformación transpuesta tiene como matriz asociada la matriz transpuesta de la matriz asociada de $T$. Este resultado nos permitirá calcular fácilmente la transpuesta de una transformación, como veremos en la entrada de problemas de este tema.

En la siguiente entrada del blog hablaremos por primera vez de formas bilineales: vamos a ver cómo nuestra discusión de transformaciones lineales facilitará mucho abordar este tema.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transpuesta de la transformación lineal $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T(x,y)=T(7x+8y,6x+7y)$ es invertible. Encuentra a su transpuesta y a la inversa de la transpuesta explícitamente.
  • Muestra la parte $2$ del Teorema 1.
  • Muestra que la transpuesta de la transformación identidad es la identidad.
  • Demuestra el resto de las igualdades del Teorema 3.
  • Encuentra la transpuesta de la transformación traza que va de $M_n(\mathbb{R})$ a los reales. Recuerda que esta transformación manda a una matriz $A=[a_{ij}]$ a la suma de sus entradas en la diagonal principal, es decir $$A\mapsto a_{11}+a_{22}+\ldots+a_{nn}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que $V$ es un espacio vectorial de dimensión $n$ y que $W$ es un espacio vectorial sobre el mismo campo que $V$. Una transformación lineal $T:V\to W$ puede «guardar mucha independencia lineal» o «muy poquita». Si $T$ es inyectiva, ya vimos antes que $T$ manda linealmente independientes a linealmente independientes. Si $T$ es la transformación $0$, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}^3$. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano $xy$, entonces «perdemos» al vector $(0,0,1)$, pues se va al $(0,0,0)$. Si es la proyección al eje $x$, «perdemos» al $(0,1,0)$ y al $(0,0,1)$ pues ambos se van a $(0,0,0)$. Y si es la transformación $0$, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango $3$, $2$, $1$ y $0$ respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo $F$.

Definición. Sean $V$ y $W$ espacios de dimensión finita. El rango de una transformación lineal $T:V\to W$ es la dimensión de la imagen de $T$, es decir, $$\rank(T)=\dim\Ima T.$$

Si $B$ es una base de $V$, entonces genera a $V$. La transformación $T$ es suprayectiva de $V$ a $\Ima T$, de modo que $T(B)$ es generador de $\Ima T$. De esta forma, para encontrar el rango de una transformación lineal $T:V\to W$ basta:

  • Tomar una base $B$ de $V$.
  • Aplicar $T$ a cada elemento de $B$.
  • Determinar un conjunto linealmente independiente máximo en $T(B)$.

Para hacer este último paso, podemos poner a los vectores coordenada de $T(B)$ con respecto a una base de $W$ como los vectores fila de una matriz $A$ y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de $T$ es el número de vectores fila no cero en la forma escalonada reducida $A_{\text{red}}$ de $A$.

Ejemplo. Encuentra el rango de la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$

Solución. Tomemos $e_1,e_2,e_3$ la base canónica de $\mathbb{R}^3$. Tenemos que $T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}$, $T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix}$ y $T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}$.

Tomando la base canónica $E_{11},E_{12},E_{21},E_{22}$ de $M_2(\mathbb{R})$, podemos entonces poner a las coordenadas de $T(e_1),T(e_2),T(e_2)$ como vectores fila de una matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.$$ Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.$$ De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es $2$.

$\triangle$

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean $U$, $V$ y $W$ espacios de dimensión finita. Sean $S:U\to V$, $T:V\to W$, $T’:V\to W$ transformaciones lineales. Entonces:

  1. $\rank(T)\leq \dim V$
  2. $\rank(T)\leq \dim W$
  3. $\rank(T\circ S)\leq \rank(T)$
  4. $\rank(T\circ S)\leq \rank(S)$
  5. $\rank(T+T’)\leq \rank(T) + \rank(T’)$

Demostración. (1) Pensemos a $T$ como una transformación $T:V\to \Ima(T)$. Haciendo esto, $T$ resulta ser suprayectiva, y por un resultado anterior tenemos que $\dim V\geq \dim \Ima T = \rank (T)$.

(2) Sabemos que $\Ima (T)$ es un subespacio de $W$, así que $\rank(T)=\dim \Ima T \leq \dim W$.

(3) La imagen de $T$ contiene a la imagen de $T\circ S$, pues cada vector de la forma $T(S(v))$ es de la forma $T(w)$ (para $w=S(v)$). Así, \begin{align*}\rank(T) &=\dim \Ima T \geq \dim \Ima T\circ S\\ &= \rank (T\circ S).\end{align*}

(4) La función $T\circ S$ coincide con la restricción $T_{\Ima S}$ de $T$ a $\Ima S$. Por el inciso (1), $\rank(T_{\Ima S})\leq \dim \Ima S = \rank(S)$, así que $\rank (T\circ S) \leq \rank(S)$.

(5) Tenemos que $\Ima (T+T’) \subseteq \Ima T + \Ima T’$. Además, por un corolario de la fórmula de Grassman, sabemos que
\begin{align*}
\dim (\Ima T + \Ima T’)&\leq \dim \Ima T + \dim \Ima T’\\
&= \rank(T) + \rank(T’).
\end{align*}

Así,
\begin{align*}
\rank(T+T’)&\leq \rank(\Ima T + \Ima T’)\\
&\leq \rank(T)+\rank(T’).
\end{align*}

$\square$

Proposición. Sean $R:U\to V$, $T:V\to W$ y $S:W\to Z$ transformaciones lineales con $R$ suprayectiva y $S$ inyectiva. Entonces $$\rank(S\circ T\circ R)=\rank (T).$$

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que $\rank(S\circ T)\leq \rank (T)$. La restricción $S_{\Ima T}$ de $S$ a la imagen de $T$ es una transformación lineal de $\Ima T$ a $\Ima (S\circ T)$ que es inyectiva, de modo que $\dim \Ima T \leq \dim \Ima (S\circ T)$, que es justo $\rank(T)\leq \rank(S\circ T)$, de modo que tenemos la igualdad $\rank(S\circ T)=\rank (T)$.

Como $R$ es suprayectiva, $\Ima R= V$, de modo que $\Ima(S\circ T \circ R)=\Ima(S\circ T)$. Así, \begin{align*}\rank (S\circ T \circ R) &= \rank (S\circ T)\\&=\rank(T).\end{align*}

$\square$

Teorema de rango-nulidad

Una transformación lineal $T:V\to W$ determina automáticamente dos subespacios de manera natural: el kernel $\ker T$ y la imagen $\Ima T$. Resulta que las dimensiones de $\ker T$, de $\Ima T$ y de $V$ están fuertemente relacionadas entre sí.

Teorema. Sean $V$ y $W$ espacios de dimensión finita. Sea $T:V\to W$ una transformación lineal. Entonces $$\dim\ker T + \rank(T) = \dim V.$$

Demostración. Supongamos que $\dim V=n$ y $\dim \ker T = k$. Queremos mostrar que $\rank(T)=n-k$. Para ello, tomemos una base $B$ de $\ker T$ y tomemos $B’=\{v_1,\ldots,v_{n-k}\}$ tal que $B\cup B’$ sea base de $V$. Basta mostrar que $T(B’)=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T$ es base de $\Ima T$. Sea $U$ el generado por $B’$, de modo que $V=U \oplus \ker T$.

Veamos que $T(B’)$ es generador de $\Ima T$. Tomemos $T(v)$ en $\Ima T$. Podemos escribir $v=z+u$ con $z\in \ker T$ y $u\in U$. Así, $T(v)=T(z)+T(u)=T(u)$, y este último está en el generado por $T(B’)$.

Ahora veamos que $T(B’)$ es linealmente independiente. Si $$\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,$$ entonces $T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0$, de modo que $\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k}$ está en $U$ y en $\ker T$, pero la intersección de estos espacios es $\{0\}$. Como esta combinación lineal es $0$ y $B’$ es linealmente independiente, $\alpha_1=\ldots=\alpha_n=0$.

De esta forma, $T(B’)$ es linealmente independiente y genera a $\Ima T$, de modo que $\rank(T) =|B’|=n-k$.

$\square$

Ejemplo. Consideremos de nuevo la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$ Muestra que $T$ no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango $2$. Por el teorema de rango-nulidad, su kernel tiene dimensión $1$. Así, hay un vector $v\neq (0,0,0)$ en el kernel, para el cual $T(v)=0=T(0)$, de modo que $T$ no es inyectiva.

$\square$

Problema. Demuestra que para cualquier entero $n$ existe una terna $(a,b,c)\neq (0,0,0)$ con $a+b+c=0$ y tal que $$\int_0^1 at^{2n}+bt^n+c \,dt = 0.$$

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales $T:\mathbb{R}^3\to \mathbb{R}$ y $S:\mathbb{R}^3\to \mathbb{R}$ dadas por
\begin{align*}
T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\
S(x,y,z)&=x+y+z.
\end{align*}
Notemos que $T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1)$, de modo que ni $T$ ni $S$ son la transformación $0$. Como su rango puede ser a lo más $\dim\mathbb{R}=1$, entonces su rango es $1$. Por el teorema de rango-nulidad, $\dim \ker S= \dim \ker T = 2$. Como ambos son subespacios de $\mathbb{R}^3$, es imposible que $\ker S \cap \ker T=\{0\}$, de modo que existe $(a,b,c)$ no cero tal que $T(a,b,c)=S(a,b,c)=0$. Esto es justo lo que buscábamos.

$\square$

Rango para matrices

Definición. El rango de una matriz $A$ en $M_{m,n}(F)$ es el rango de la transformación lineal asociada de $F^n$ a $F^m$ dada por $X\mapsto AX$. Lo denotamos por $\rank(A)$.

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz $A$ en $M_{m,n}(F)$, podemos aplicar esta idea con los vectores $e_1,\ldots,e_n$ de la base canónica de $F^{n}$. Como hemos visto con anterioridad, para cada $i=1,\ldots, n$ tenemos que el vector $Ae_i$ es exactamente la $i$-ésima columna de $A$. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^m$ generado por sus vectores columna.

Problema. Determina el rango de la matriz $$\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.$$

Solución. Como es una matriz con $3$ filas, el rango es a lo más $3$. Notemos que entre las columnas están los vectores $(3,0,0)$, $(0,2,0)$ y $(0,0,-2)$, que son linealmente independientes. De esta forma, el rango de la matriz es $3$.

$\triangle$

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices $A$, $B$ en $M_n(F)$ se tiene que $$\rank(AB)\geq \rank(A)+\rank(B)-n.$$

Solución. Tomemos $T_1:F^n\to F^n$ y $T_2:F^n\to F^n$ tales que $T_1(X)=AX$ y $T_2(X)=BX$. Lo que tenemos que probar es que $$\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) – n.$$

Consideremos $S_1$ como la restricción de $T_1$ a $\Ima T_2$. Tenemos que $\ker S_1 \subset \ker T_1$, así que $\dim \ker S_1 \leq \dim \ker T_1$. Por el teorema de rango-nulidad en $S_1$, tenemos que
\begin{align*}
rank(T_2) &= \dim \Ima T_2 \\
&= \dim \ker S_1 + \rank(S_1) \\
&= \dim \ker S_1 + \rank(T_1\circ T_2)\\
&\leq \dim \ker T_1 + \rank(T_1\circ T_2),
\end{align*} así que $$\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).$$

Por el teorema de rango-nulidad en $T_1$ tenemos que $$\dim \ker T_1 + \rank(T_1)=n.$$

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

$\square$

El teorema $PJQ$ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea $A$ una matriz en $M_{m,n}(F)$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P\in M_m(F)$ y $Q\in M_n(F)$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz en $M_{m,n}$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & 0 \\
0 & 0
\end{pmatrix}.$$

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema 1. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos $r$ al rango de $A$. Escribimos $A=PJ_rQ$ usando el teorema $PJQ$, con $P$ y $Q$ matrices invertibles. Tenemos que $^tA=^tQ\, ^tJ_r \,^tP$, con $^tQ$ y $^tP$ matrices invertibles. Además, $^t J_r$ es de nuevo de la forma de $J_r$. Así, por el teorema $PJQ$, tenemos que $^t A$ es de rango $r$.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^n$ generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema $PJQ$.

Problema 2. Muestra que una matriz $A$ de rango $r$ se puede escribir como suma de $r$ matrices de rango $1$. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos $A=PJ_rQ$ usando el teorema $PJQ$. Si definimos $A_i=PE_{ii}Q$ para $i=1,\ldots,r$, donde $E_{ii}$ es la matriz cuya entrada $(i,i)$ es uno y las demás cero, claramente tenemos que $J_r=E_{11}+E_{22}+\ldots+E_{rr}$, por lo que $$A=PJ_rQ=A_1+A_2+\ldots+A_r.$$ Además, como $E_{ii}$ es de rango $1$, por el teorema $PJQ$ cada matriz $A_i$ es de rango $1$.

Veamos que es imposible con menos. Si $B_1,\ldots,B_s$ son matrices de rango $1$, como el rango es subaditivo tenemos que $\rank (B_1+\ldots+B_s)\leq s$. Así, si sumamos menos de $r$ matrices, no podemos obtener a $A$.

$\square$

Más adelante…

Esta entrada es solamente una breve introducción al concepto de rango y a algunas propiedades que pueden ser de utilidad al momento de calcular el rango de una matriz o una transformación lineal. Más adelante, veremos que el rango de una matriz está también relacionado con las soluciones de su sistema lineal homogéneo asociado.

El teorema de rango-nulidad es fundamental para el álgebra lineal. Muchas veces necesitamos calcular el rango de la imagen de una transformación lineal, pero es mucho más fácil calcular la dimensión de su kernel. O viceversa. En estas situaciones es muy importante recordar la forma en la que dicho teorema las relaciona.

Con este tema termina la segunda unidad del curso. Ahora estudiaremos aspectos un poco más geométricos de espacios vectoriales. En la siguiente unidad, hablaremos de dualidad, ortogonalidad, formas bilineales y productos interiores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea $T$ una transformación de un espacio vectorial $V$ de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si $T$ es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz $$\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.$$
  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices $A_1,\ldots, A_n$ del mismo tamaño tenemos que $$\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).$$
  • Escribe la demostración de la última proposición de la sección del teorema $PJQ$
  • Revisa la demostración del teorema de descomposición $PJQ$ en el libro de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas pasadas ya platicamos de espacios vectoriales y de subespacios. También desarrollamos teoría de dimensión para espacios vectoriales de dimensión finita. Para ello, hablamos de conjuntos generadores, de independientes y de bases. Esto nos ayuda a entender a los espacios vectoriales «uno por uno». Lo que queremos entender ahora es cómo interactúan los espacios vectoriales entre sí. Para ello, hablaremos de transformaciones lineales entre espacios vectoriales.

Ya platicamos un poco de transformaciones lineales cuando estudiamos $F^n$ a detalle. En esa parte del curso, vimos cómo cualquier matriz en $M_{m,n}(F)$ se podía ver como una transformación lineal de $F^n$ a $F^m$ y viceversa. Retomaremos varias de estas ideas, pues son fundamentales para esta unidad y las siguientes.

La idea de esta entrada es:

  • Dar la intuición y definición de transformaciones lineales en general.
  • Probar propiedades básicas de las transformaciones lineales.
  • Dar varios ejemplos de transformaciones lineales.
  • Dar las definiciones de kernel (o núcleo) y de imagen para una transformación lineal.
  • Ver un ejemplo que abarque ambas definiciones.
  • Finalmente, probar que el kernel y la imagen son subespacios vectoriales.

A grandes rasgos, las transformaciones lineales se pueden pensar como «funciones bonitas» entre espacios vectoriales que «preservan las operaciones de suma y multiplicación por escalar».

Definición de transformaciones lineales

Definición. Para $V$ y $W$ espacios vectoriales sobre un campo $F$, una transformación lineal entre $V$ y $W$ es una función $T:V\to W$ tal que:

  • Para todo $v_1$ y $v_2$ en $V$ se tiene que $T(v_1+v_2)=T(v_1)+T(v_2)$. Esto informalmente se le conoce como que «$T$ abre sumas».
  • Para todo $v$ en $V$ y $c$ en el campo $F$ se tiene que $T(cv)=cT(v)$. A esto se le conoce como que «$T$ saca escalares».

En la primer condición la suma de la izquierda (dentro del paréntesis) es «la suma de $V$» y la suma de la derecha es «la suma de $W$». De manera similar, en la segunda condición el producto por escalar de la izquierda (dentro del paréntesis) es el de $V$ y el de la derecha es el de $W$.

En lo que resta de esta entrada, supondremos que los espacios vectoriales son sobre un mismo campo $F$.

Ejemplos de tranformaciones lineales

Ejemplo 1. La función $T:\mathbb{R}^2 \to \mathbb{R}$ dada por $T(x,y)=x+y+1$ no es una transformación lineal. De hecho falla en ambas condiciones. Falla en abrir sumas pues, por ejemplo, $T(1,1)=3$, $T(2,2)=5$, pero $(1,1)+(2,2)=(3,3)$ y $$T(3,3)=7\neq 5 = T(1,1)+T(2,2.)$$ También falla en sacar escalares pues, por ejemplo $$T(4,2)=7\neq 8 = 2T(2,1).$$

$\triangle$

Ejemplo 2. La función $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $T(x,y,z)=(2x,2y,2z)$ es una transformación lineal.

Para convencernos de que esto es cierto, notemos que si $v=(x,y,z)$ entonces la transformación está dada por $T(v)=2v$. Ahora, tomemos dos vectores $v_1$ y $v_2$ en $V$, y un real $c$. Tenemos por la asociatividad y conmutatividad de multiplicar por escalares en $\mathbb{R}^3$ que: \begin{align*}T(v_1+v_2)&=2(v_1+v_2)\\&=2v_1+2v_2\\&=T(v_1)+T(v_2),\end{align*} y que $$T(cv_1)=2(cv_1)=c(2v_1)=cT(v_1).$$ Esto muestra que $T$ es transformación lineal.

$\triangle$

Ejemplo 3. De hecho, para cualquier espacio vectorial $V$ sobre el campo $F$ y $c$ un escalar de $F$, la función $T:V\to V$ dada por $T(v)=cv$ es una transformación lineal. El argumento es similar.

$\triangle$

Recuerda que $F_n[x]$ es el espacio vectorial de polinomios con coeficientes en $F$ y grado a lo más $n$. Recuerda también que hemos visto muchos tipos de espacios vectoriales, los $F^n$, los de polinomios, los de matrices, etc. Entre cualesquiera de ellos se pueden tener transformaciones lineales. La única condición es que sean espacios vectoriales sobre el mismo campo $F$.

Ejemplo 4. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $x^2+(a-b)x+ab$ no es una transformación lineal. Esto lo podemos verificar viendo que falla la parte de sacar escalares. Por un lado $$2(T(1,1))=2(x^2+1)=2x^2+2,$$ mientras que por otro lado $$T(2,2)=x^2+4,$$ así que $2(T(1,1))\neq T(2,2)$, de modo que $T$ no saca escalares.

$\triangle$

En cambio, si tomamos la función que manda al vector $(a,b)$ al polinomio $ax^2+(a-b)x+a+b$, puedes verificar por tu cuenta que sí es una transformación lineal.

Ejemplo 5. La función $T:M_{2,3}(\mathbb{R})\to \mathbb{R}^3$ que manda a la matriz $$M=\begin{pmatrix}
a & b & c\\
d & e & f
\end{pmatrix}$$ al vector $$T(M):= (a-d, b-e, c-f)$$ es una transfomación lineal.

Veamos que $T$ abre sumas. Tomemos dos matrices $M_1=\begin{pmatrix}
a_1 & b_1 & c_1\\
d_1 & e_1 & f_1
\end{pmatrix}$ y $M_2=\begin{pmatrix}
a_2 & b_2 & c_2\\
d_2 & e_2 & f_2
\end{pmatrix}.$ Por un lado \begin{align*}T(M_1)&=(a_1-d_1,b_1-e_1,c_1-f_1)\\T(M_2)&=(a_2-d_2,b_2-e_2,c_2-f_2),\end{align*} de modo que sumando los vectores y reacomodando tenemos que $$T(M_1)+T(M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$

Por otro lado, si primero sumamos las matrices, obtenemos la matriz $$M_1+M_2=\begin{pmatrix}
a_1+a_2 & b_1+b_2 & c_1+c_2\\
d_1+d_2 & e_1+e_2 & f_1+f_2
\end{pmatrix}.$$

Así, $$T(M_1+M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$ Esto muestra que $T(M_1+M_2)=T(M_1)+T(M_2)$, es decir, que $T$ abre sumas. Con un argumento parecido se puede mostrar que saca escalares.

$\triangle$

Ejemplo 6. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $T(a,b)=(a+b)x^2+(a-b)x+b$ es una transformación lineal.

$\triangle$

Recuerda que $C[0,1]$ es el espacio vectorial de funciones $f:[0,1]\to \mathbb{R}$ continuas.

Ejemplo 7. La función $T:C[0,1]\to \mathbb{R}$ que manda a la función $f$ al real $$T(f):=\int_0^1 f(x)\, dx$$ es una transformación lineal. En efecto, para dos funciones $f$ y $g$ continuas en el $[0,1]$ y un real $c$ se tiene por definición de suma de funciones, de multiplicación por escalar y de propiedades de la integral que \begin{align*}\int_0^1 (f+g)(x)\, dx&=\int_0^1 f(x)+g(x)\, dx\\&=\int_0^1 f(x) \, dx+\int_0^1 g(x)\, dx\end{align*} y que \begin{align*}\int_0^1 (cf)(x)\, dx &= \int_0^1 cf(x)\, dx \\&=c \int_0^1 f(x)\, dx.\end{align*}

En otras palabras, $T(f+g)=T(f)+T(g)$ y $T(cf)=cT(f)$.

$\triangle$

Propiedades básicas de transformaciones lineales

La definición de «transformación lineal» pide dos cosas por separado: abrir sumar y sacar escalares. Es bueno tenerlas por separado para referirnos a ellas individualmente. Sin embargo, la siguiente proposición nos ayuda a probar de manera más práctica que $T$ es una transformación lineal.

Proposición (verificación abreviada). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo $F$. $T:V\to W$ es una transformación lineal si y sólo si para todo $v_1,v_2$ en $V$ y $c$ en $F$ se tiene que $$T(cv_1+v_2)=cT(v_1)+T(v_2).$$

Demostración. En efecto, si $T$ es transformación lineal, entonces $T(cv_1)=cT(v_1)$ porque $T$ saca escalares y así \begin{align*}T(cv_1+v_2)&=T(cv_1)+T(v_2)\\&=cT(v_1)+T(v_2).\end{align*} Por otro lado, si se cumple $T(cv_1+v_2)=cT(v_1)+T(v_2)$ para todos $v_1$ y $v_2$ vectores en $V$ y $c$ escalar en $F$, entonces con $v_2=0$ recuperamos que $T$ saca escalares y con $c=1$ recuperamos que $T$ abre sumas.

$\square$

Las transformaciones lineales mandan al cero de un espacio vectorial al cero del otro.

Proposición (cero va a cero). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(0)=0$.

Demostración. El truco es encontrar $T(0+0)$ de dos formas distintas. Por un lado, como $0+0=0$, tenemos que $T(0+0)=T(0)$. Por otro lado, como $T$ abre sumas, tenemos que $T(0+0)=T(0)+T(0)$. Así, tenemos que $$T(0)+T(0)=T(0).$$ Restando $T(0)$ de ambos lados obtenemos $T(0)=0$.

$\square$

De hecho, hay otra forma de probar la proposición anterior usando que $T$ saca escalares: $T(0)=T(0\cdot 0)=0T(0)=0$. Piensa en por qué cada una de estas igualdades se vale y por qué adentro del paréntesis que hay dos ceros, uno de ellos es vector y el otro escalar.

Las transformaciones lineales también «respetan» inversos aditivos.

Proposición (inversos aditivos van a inversos aditivos). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(-v)=-T(v)$.

La demostración es sencilla y la puedes pensar por tu cuenta.

El haber enunciado estas proposiciones nos puede ayudar para decir, de golpe, que algunas funciones no son transformaciones lineales: si una función falla en tener alguna de las propiedades anteriores, entonces no es transformación lineal.

Ejemplo 1. Sea $V$ el espacio vectorial $\mathbb{R}^2$ y $W$ el espacio vectorial de matrices de $2\times 2$ con entradas complejas, pero visto como espacio vectorial sobre $\mathbb{R}$ (sólo se permite usar reales para la multiplicación escalar).

La transformación $T:V\to W$ que manda al vector real $(a,b)$ a la matriz de entradas complejas $T(a,b)=\begin{pmatrix}
a+ib & a-ib \\
a-ib & 1+abi\end{pmatrix}$ no es una transformación lineal pues manda al $(0,0)$ a la matriz $\begin{pmatrix}
0 & 0 \\
0 & 1\end{pmatrix},$ la cual no es la matriz $0$.

$\triangle$

Sin embargo, una pequeña advertencia. Es posible que $T$ sí mande el $0$ al $0$, pero que de cualquier forma no sea una transformación lineal, debido a que falle por otras razones.

Ejemplo 2. La transformación $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(x+y+z,xy+yz+zx,xyz)$$ cumple que $T(0,0,0)=(0,0,0)$, pero no es una transformación lineal pues no saca escalares. Por ejemplo, $$T(3,3,3)=(9,27,27)\neq 3(3,3,1)= 3T(1,1,1).$$

$\triangle$

Kernel e imagen de una transformación lineal

Tomemos $T:V\to W$ una transformación lineal. Hay dos conjuntos muy importantes relacionados con $T$.

El kernel (o núcleo) de $T$ es el conjunto de vectores en $V$ que se van al vector $0$ de $W$ cuando les aplicamos $T$. En símbolos, $$\ker(T)=\{v\in V: T(v)=0\}.$$

La imagen de $T$ son los vectores en $W$ que se pueden escribir de la forma $T(v)$ para algún $v$ en $V$, es decir, es la imagen en el sentido clásico de teoría de conjuntos o de cálculo. En símbolos, $$\Ima(T)=\{T(v): v\in V\}.$$

Haciendo énfasis de nuevo: $\ker(T)$ es un subconjunto de vectores de $V$ e $\Ima(T)$ es un subconjunto de vectores de $W$. Veamos un ejemplo que nos ayudará a repasar varios de los conceptos clave de esta entrada.

Problema. Consideremos la transformación $T:M_2(\mathbb{R})\to M_{2,3}(\mathbb{R})$ dada por $$T\begin{pmatrix}a & b \\ c & d\end{pmatrix}=\begin{pmatrix}a & b \\ c & d \end{pmatrix} \begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}.$$

Muestra que $T$ es una transformación lineal y determina $\ker(T)$ e $\Ima(T)$.

Intenta resolver este problema por tu cuenta antes de seguir.

Solución. Sean $A$ y $B$ matrices de $2\times 2$ con entradas reales y $r$ un real. Nombremos $C=\begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}$. Por propiedades de producto de matrices, tenemos que \begin{align*}T(rA+B)&=(rA+B)C \\ &=r(AC)+BC\\ &=rT(A)+T(B),\end{align*} así que por la proposición de verificación abreviada, tenemos que $T$ es una transformación lineal.

Ahora, tomemos una matriz $A=\begin{pmatrix}
a & b \\
c & d \end{pmatrix}$ y notemos al hacer la multiplicación de manera explícita, obtenemos que $T(A)$ es la matriz $$\begin{pmatrix}
a+b & a+b & a+b\\
c+d & c+d & c+d \end{pmatrix}.$$

Determinemos quién es $\Ima(T)$. Para que una matriz $M:=\begin{pmatrix}
e & f & g\\
h & i & j \end{pmatrix}$ esté en la imagen de $T$, se tiene que cumplir que $e=f=g$ y que $h=i=j$.

Y viceversa, si $e=f=g$ y $h=i=j$, entonces $M$ está en la imagen de $T$ pues, por ejemplo $$T\begin{pmatrix}
e & 0\\
h & 0 \end{pmatrix}=\begin{pmatrix}
e & e & e\\
h & h & h\end{pmatrix}=M.$$

Esto muestra que $$\Ima (T) = \left\{\begin{pmatrix}
e & e & e\\
h & h & h \end{pmatrix}: e,h \in \mathbb{R}\right\}.$$

Ahora determinemos quién es $\ker(T)$. Para que $A$ esté en el kernel de $T$, necesitamos que todas las entradas de $T(A)$ sean $0$. Para esto es suficiente y necesario que $a+b=0$ y que $c+d=0$, o dicho de otra forma, que $A$ sea de la forma $A=\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}$. Así, concluimos que $$\ker(T)=\left\{\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}: a,c \in \mathbb{R}\right\}.$$

$\square$

Con esto ya terminamos lo que pide el problema. Sin embargo, hagamos una observación clave. En el problema anterior, $\ker(T)$ e $\Ima(T)$ no solamente son subconjuntos de $M_2(\mathbb{R})$ y de $M_{2,3}(\mathbb{R})$ respectivamente, sino que además son subespacios. Esto no es casualidad.

Los kernels e imágenes de transformaciones lineales son subespacios

Teorema. Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $\ker(T)$ es un subespacio de $V$ e $\Ima(T)$ es un subespacio de $W$.

Demostración. Demostraremos primero que $\ker(T)$ es un subespacio de $V$. Para ello basta con tomar $v_1,v_2$ en $\ker(T)$ y $c$ en el campo $F$ y mostrar que $cv_1+v_2$ también está en $\ker(T)$, es decir, que también sucede que $T(cv_1+v_2)=0$. Esto se debe a la siguiente cadena de igualdades, que justificamos abajo \begin{align*}
T(cv_1+v_2)&=T(cv_1)+T(v_2)\\
&=cT(v_1)+T(v_2)\\
&=c\cdot 0 + 0 \\
&= 0.
\end{align*}

La primera igualdad se debe a que $T$ abre sumas. La segunda a que $T$ saca escalares. La tercera a que $v_1$ y $v_2$ están en el kernel de $T$ y por lo tanto sabemos que $T(v_1)=T(v_2)=0$. La última es simplemente hacer la operación. Con esto mostramos que $\ker(T)$ es un subespacio de $V$.

Ahora, veremos que $\Ima(T)$ es un subespacio de $W$. Tomemos $w_1$ y $w_2$ en $\Ima(T)$, y un escalar $c$ en el campo $F$. De nuevo, basta mostrar que $cw_1+w_2$ está en $\Ima(T)$. Como $w_1$ y $w_2$ están en la imagen de $T$, esto quiere decir que existen vectores $v_1$ y $v_2$ en $V$ tales que $T(v_1)=w_1$ y $T(v_2)=w_2$. Notemos que entonces:
\begin{align*}
cw_1+w_2&=cT(v_1)+T(v_2)\\
&=T(cv_1)+T(v_2)\\
&=T(cv_1+v_2).
\end{align*}

La segunda y tercera igualdad vienen de que $T$ saca escalares y abre sumas respectivamente. Esta cadena de igualdades muestra que podemos poner a $cw_1+w_2$ como imagen de alguien en $V$ bajo $T$, es decir, que $cw_1+w_2$ pertenece a $\Ima(T)$. Esto es lo que queríamos mostrar.

$\square$

Más adelante…

En esta entrada definimos los conceptos de transformación lineal, de imagen y de kernel. También vimos que la imagen y kernel de transformaciones lineales son subespacios. Más adelante veremos que $\ker(T)$ e $\Ima(T)$ están de hecho relacionados más profundamente.

Por ahora, nota que en el ejemplo antes del teorema tenemos que $\begin{pmatrix}
1 & 1 & 1\\
0 & 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 & 0\\
1 & 1 & 1 \end{pmatrix}$ forman una base de $\Ima(T)$ pues son linealmente independientes y todo elemento en la imagen es combinación lineal de estas matrices. Además, nota que de manera similar $\begin{pmatrix}
1 & -1 \\
0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 \\
1 & -1 \end{pmatrix}$ forman una base de $\ker(T)$.

Esto nos dice que $\dim(\Ima(T))=2$ y que $\dim(\ker(T))=2$. Si sumamos ambos, nos da la dimensión de $M_2(\mathbb{R})$. ¿Será casualidad?

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que las transformaciones lineales que se pusieron como ejemplo en efecto abren sumas y sacan escalares.
  • Asegúrate de entender los detalles de la prueba de la proposición de la verificación abreviada. Úsala para mostrar que la función que manda al vector $(a,b,c)$ a la matriz $$\begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a \end{pmatrix}$$ es una transformación lineal de $\mathbb{R}^3$ a $M_3(\mathbb{R})$.
  • Muestra la proposición de que inversos aditivos van a inversos aditivos.
  • Determina el kernel y la imagen de las transformaciones lineales $T:V\to W$ que se dieron como ejemplo.
  • Para cada kernel e imagen que encuentres, convéncete de que son subespacios. Determina si tienen dimensión finita y, en ese caso, determina la dimensión. Para estos casos, ¿cómo están relacionados $\dim(\Ima(T)),\dim(\ker(T)),\dim(V)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»