(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)
INTRODUCCIÓN
En el mundo de las transformaciones lineales, algunas tienen una propiedad muy especial: no solo transforman el espacio, sino que permiten deshacer esa transformación sin perder nada en el camino. Estas son las transformaciones invertibles, y entenderlas es como tener la llave que abre y cierra una puerta sin cambiar lo que hay al otro lado. Nos permiten movernos entre espacios de forma reversible, conservando toda la información.

En estos casos, las transformaciones no crean un cambio permanente, podemos pensarlo también como un puente que permite retornar
Cuando una transformación lineal no solo es invertible, sino que además conecta completamente dos espacios —sin dejar nada fuera y sin repetir información— decimos que es un isomorfismo. Estudiar estas transformaciones nos ayuda a ver cuándo dos espacios son, en esencia, «el mismo» desde el punto de vista de la estructura lineal. Reconocer estas equivalencias abre la puerta a simplificar problemas complejos y entender mejor la relación entre distintos espacios matemáticos.
Teorema (2.7.1.): Sean $V$ y $W$ dos $K$ – espacios vectoriales de dimensión finita con $\dim V=\dim W$ y $T\in\mathcal{L}(V,W)$. Las siguientes condiciones son equivalentes:
a) $T$ es invertible
b) $T$ es inyectiva
c) $T$ es suprayectiva
d) Para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$
e) Existe $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$
Demostración: Veamos la cadena de implicaciones.
a) $\Rightarrow$ b) Sup. que $T$ es invertible.
Por lo visto en la entrada anterior, tenemos que $T$ es biyectiva.
En particular, $T$ es inyectiva.
b) $\Rightarrow$ c) Sup. que $T$ es inyectiva.
Entonces $Núc T=\{ \theta_V\}$. De modo que $\dim Núc T=0$.
Por el Teorema de la dimensión (2.3.1.), $\dim V =\dim NúcT+\dim ImT=\dim ImT$.
Como $\dim W=\dim V$, entonces $\dim W=\dim ImT$.
Y sabemos que $ImT\leqslant W$, así que al tener la misma dimensión resulta que $ImT=W$.
Por lo tanto, $T$ es suprayectiva.
c) $\Rightarrow$ d) Sup. que $T$ es suprayectiva.
Sea $\beta =\{ v_1,v_2,…,v_n\}$ una base de $V$.
Sabemos que $\langle T(v_1),T(v_2),…,T(v_n) \rangle\subseteq W$.
Veamos que tenemos también la otra igualdad.
Sea $w\in W$.
Como $T$ es suprayectiva, $\exists v\in V(T(v)=w)$.
Y como $\beta$ es base de $V$, entonces existen únicos $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.
Entonces $w=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))$$=\sum_{i=1}^{n}(\lambda_i T(v_i))\in \langle T(v_1),T(v_2),…,T(v_n) \rangle$.
Así, $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle$.
Y como $\dim W=\dim V$ y es finita, entonces $\{ T(v_1),T(v_2),…,T(v_n) \}$ debe ser l.i.
Por tanto, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$.
d) $\Rightarrow$ e) Sup. que para toda $\beta =\{ v_1,v_2,…,v_n\}$ base de $V$, $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.
Como todo espacio vectorial tiene al menos una base, entonces es inmediato concluir que existe al menos una base $\beta =\{ v_1,v_2,…,v_n \}$ una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.
e) $\Rightarrow$ a) Sup. que $\beta =\{ v_1,v_2,…,v_n \}$ es una base de $V$ tal que $\{ T(v_1),T(v_2),…,T(v_n) \}$ es una base de $W$.
Entonces $W=\langle T(v_1),T(v_2),…,T(v_n) \rangle\leqslant Im(T)\leqslant W$.
De donde, $W=Im(T)$.
Por lo tanto, $T$ es suprayectiva.
Ahora, sea $v\in NúcT$ y sean $\lambda_1,\lambda_2,…,\lambda_n\in K$ tales que $v=\sum_{i=1}^{n}(\lambda_i v_i)$.
Entonces $\theta_W=T(v)=T(\sum_{i=1}^{n}(\lambda_i v_i))=\sum_{i=1}^{n}(\lambda_i T(v_i))$.
Y como $\{ T(v_1),T(v_2),…,T(v_n) \}$ es base de $W$, resulta que $\theta\notin \{ T(v_1),T(v_2),…,T(v_n) \}$.
Así, $\theta_W=\sum_{i=1}^{n}(\lambda_i T(v_i))$ implica que $\forall i\in\{1,2,…,n\}(\lambda_1=\lambda_2=…=\lambda_n=0)$. Y $v=\sum_{i=1}^{n}(\lambda_i v_i)=\sum_{i=1}^{n}(0 v_i)=\theta_V$.
De donde, $NúcT=\{\theta_V\}$.
Por lo tanto $T$ es inyectiva.
Por lo tanto, $T$ es biyectiva.
Teorema (2.7.2.): Sean $V,W$ $K$ – espacios vectoriales con $V$ de dimensión finita.
Si existe $T\in\mathcal{L}(V,W)$ invertible. Entonces $W$ es de dimensión finita y $\dim V=\dim W.$
Demostración: Sup. que existe $T\in\mathcal{L}(V,W)$ invertible.
Por el teorema 2.7.1., $T$ es biyectiva.
Como es suprayectiva, $Im T=W$. Por lo que $\dim (ImT)=\dim W$.
Como es inyectiva, $Núc T=\{\theta_V \}$. Por lo que $\dim(Núc T)=0$.
Por el teorema de la dimensión (2.3.1.) $\dim V=\dim (Núc T)+\dim (Im T)$$=0+\dim (ImT)=\dim (ImT)=\dim W$.
Como $V$ es de dimensión finita y $\dim V=\dim W$, entonces $W$ es de dimensión finita.
ISOMORFISMO
Definición: Sean $V,W$ $K$ – espacios vectoriales. Decimos que $V$ es isomorfo a $W$, denotado como $V\cong W$, si existe $\varphi \in\mathcal{L}(V,W)$ invertible. A $\varphi$ le llamamos isomorfismo de $V$ en $W$.
Ejemplos
- Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$.
$\varphi(x, y) = (x + y, x – y)$ es un isomorfismo entre $\mathbb{R}^2$ y $\mathbb{R}^2$
Justificación. Sean $u = (x_1, y_1) , v = (x_2, y_2) \in \mathbb{R}^2$ y $\lambda \in \mathbb{R}$.
1) P.D. $\varphi$ es lineal.
$\varphi (\lambda u + v) = \varphi (\lambda x_1 + x_2, \lambda y_1 + y_2)$ $= ((\lambda x_1 + x_2) + (\lambda y_1 + y_2), (\lambda x_1 + x_2) – (\lambda y_1 + y_2))$ $= ((\lambda x_1 + \lambda y_1) + (x_2 + y_2), (\lambda x_1 – \lambda y_1) + (x_2 – y_2))$ $= \lambda (x_1 + y_1 , x_1 – y_1) + (x_2 + y_2 , x_2 – y_2) = \lambda \varphi (u) + \varphi(v)$
2) P.D. $\varphi$ es invertible.
Por el teorema (2.7.1.) es suficiente con mostrar que $\varphi$ es inyectiva.
Supongamos que $\varphi(x, y) = (0, 0)$. Entonces $(x+y, x-y) = (0,0)
Así, $x + y = 0 = x – y = 0$
Resolviendo el sistema de ecuaciones tenemos que $x=y=0$
Así, $\ker( \varphi ) = \{ (0, 0) \}$.
Por el teorema (2.3.2.) esto es equivalente a que $\varphi$ es inyectiva.
$\therefore \varphi$ es un isomorfismo entre $\mathbb{R}^2$ y $\mathbb{R}^2$
- Sea $M = \left\{ \begin{pmatrix} a & b \\ 0 & 0 \end{pmatrix} | a, b \in \mathbb{R} \right\} \leqslant M_{2 \times 2}(\mathbb{R})$.
$\varphi : \mathbb{R}^2 \longrightarrow M$ definida para cada $(x,y) \in \mathbb{R}^2$ como $\varphi(x, y) = \begin{pmatrix} x & y \\ 0 & 0 \end{pmatrix}$ es un isomorfismo entre $\mathbb{R}^2$ y $M$
Justificación. Sean $u = (x_1, y_1)$, $v = (x_2, y_2)$ en $\mathbb{R}^2$ y $\lambda \in \mathbb{R}$.
1) P.D. $\varphi$ es lineal.
$\varphi(\lambda u + v) = \varphi(\lambda x_1 + x_2, \lambda y_1 + y_2)$ $= \begin{pmatrix} \lambda x_1 + x_2 & \lambda y_1 + y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \begin{pmatrix} x_1 & y_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} x_2 & y_2 \\ 0 & 0 \end{pmatrix}$ $= \lambda \varphi(u) + \varphi(v)$
2) P.D. $\varphi$ es invertible.
Por el teorema (2.7.1.) es suficiente con mostrar que $\varphi$ es inyectiva.
Supongamos que $\varphi(x, y) = \varphi(x’, y’)$.
Es decir, $\begin{pmatrix} x & y \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} x’ & y’ \\ 0 & 0 \end{pmatrix}$
Por lo tanto, $x = x’$, $y = y’$
Y como llegamos a la conclusión de que necesariamente $(x,y) = (x’,y’)$, entonces $\varphi$ es inyectiva.
$\therefore \varphi$ es un isomorfismo entre $\mathbb{R}^2$ y $M$
Teorema (2.7.3.): Sean $V,W$ $K$ – espacios vectoriales de dimensión finita. Entonces:
$V\cong W$ si y sólo si $\dim V=\dimW$.
Demostración: Veamos cada implicación.
$\Rightarrow$) Sup. que $V\cong W$.
Por def. existe $\varphi\in\mathcal{L}(V,W)$ invertible.
Por el teorema (2.7.2.), $\dim V=\dim W$.
$\Leftarrow$) Sup. $\dim V=\dim W$.
Digamos que $\dim V=n=\dim W$ donde $n\in\mathbb{N}$.
Sean $\{ v_1,v_2,…,v_n\}$ base de $V$ y $\{ w_1,w_2,…,w_n\}$ de $W$.
Sabemos que existe $S\in\mathcal{L}(V,W)$ tal que $\forall i\in\{ 1,2,…,n \}(S(v_i)=w_i)$.
Así, $\{ w_1,w_2,…,w_n\}=\{ T(v_1),T(v_2),…,T(v_n)\}$ y por lo tanto, $\{ T(v_1),T(v_2),…,T(v_n)\}$ es base de $W$.
Por el teorema (2.7.1.), $S$ es invertible. Así, $S$ es un isomorfismo de $V$ en $W$.
Por lo tanto $V\cong W$.
Corolario (2.7.4.): Si $V$ es un $K$ espacio vectorial de dimensión finita $n$. Entonces $V\cong K^{n}$.
Demostración: Como $V$ es un espacio vectorial de dimensión $n$, existe una base ordenada $\beta = { v_1 , v_2 , … , v_n }$ de $V$.
Sea $v \in V$.
Sabemos que $v = \lambda_1v_1 + \lambda_2v_2 + … + \lambda_nv_n$ para ciertas $\lambda_1, \lambda_2, … , \lambda_n \in K$
Definimos entonces la transformación $\varphi: V \longrightarrow K^n$ como $\varphi(v) = (\lambda_1, \lambda_2, …, \lambda_n)$ y así para cada vector en $V$ usaremos la combinación lineal que le corresponde con la base $\beta$.
Viendo que $\varphi$ es lineal y biyectiva, exponemos que es un isomorfismo de espacios vectoriales y por lo tanto, $V \cong K^n$.
Tarea Moral
- Sea $T : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ tal que $\forall (x,y) \in \mathbb{R}^2 (T (x,y) = (5x + 2y , 3x-y) )$
Prueba que $T$ es invertible y encuentra $T^{-1}$ - Sean $K$ campo y $V = \left\{ \begin{pmatrix} a & a+b \\ 0 & c \end{pmatrix} | a,b,c \in K \right\}$
Determina si $V$ es isomorfismo a $K^3$ y si lo es construye un isomorfismo de $V$ a $K^3$ - Demuestra que la transformación $\varphi$ definida en la demostración del corolario (1.7.4.) es un isomorfismo.
Más adelante…
Veremos muy brevemente los conceptos de base ordenada y vector de coordenadas.
Entenderemos por qué a veces conviene manejar conjuntos con un orden determinado en lugar de solo manejarlo como un listado indistinto… Al fin y al cabo, manejar transformaciones con matrices resulta muy útil y al hablar de matrices, es natural solicitar orden.
Entradas relacionadas
- Ir a Álgebra Lineal I
- Entrada anterior del curso: 2.6. COMPOSICIÓN DE TRANSFORMACIONES LINEALES E IDENTIDAD: definiciones y propiedades
- Siguiente entrada del curso: 3.1. BASE ORDENADA Y VECTOR DE COORDENADAS: definiciones y ejemplos




