Archivo de la etiqueta: steinitz

Álgebra Lineal I: Bases duales, recetas y una matriz invertible

Introducción

En la entrada anterior definimos el espacio dual de un espacio vectorial $V$. Así mismo, definimos las formas coordenadas, que son formas lineales asociadas a una base $B$ de $V$. Lo que hace la $i$-ésima forma coordenada en un vector $v$ es «leer» el $i$-ésimo coeficiente de $v$ expresado en la base $B$. Nos gustaría ver que estas formas coordenadas conforman bases del espacio dual.

Más concretamente, el objetivo de esta entrada es mostrar el teorema que enunciamos al final de la entrada anterior, hablar de problemas prácticos de bases duales y de mostrar un resultado interesante que relaciona bases, bases duales y la invertibilidad de una matriz.

Pequeño recordatorio

Como recordatorio, dada una base $B=\{e_1,\ldots,e_n\}$ de un espacio vectorial $V$ de dimensión finita $n$, podemos construir $n$ formas coordenadas $e_1^\ast,\ldots,e_n^\ast$ que quedan totalmente determinadas por lo que le hacen a los elementos de $B$ y esto es, por definición, lo siguiente:

$$
e_i^\ast(e_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$.}
\end{cases}
$$

Recordemos también que dado un vector $v$ en $V$ podíamos construir a la forma lineal «evaluar en $v$», que era la forma $\text{ev}_v:V^\ast \to F$ dada por $\text{ev}_v(f)=f(v)$. Como manda elementos de $V^\ast$ a $F$, entonces pertenece a $V^\ast ^\ast$. A partir de esta definición, construimos la bidualidad canónica $\iota:V\to V^\ast ^\ast$ que manda $v$ a $\text{ev}_v$.

Finalmente, recordemos que dada una forma lineal $l$ y un vector $v$, usamos la notación $\langle l,v\rangle = l(v)$, y que esta notación es lineal en cada una de sus entradas. Todo esto lo puedes revisar a detalle en la entrada anterior.

El teorema de bases duales

El resultado que enunciamos previamente y que probaremos ahora es el siguiente.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B=\{e_1,\ldots,e_n\}$ una base de $V$. Entonces el conjunto de formas coordenadas $B^\ast=\{e_1^\ast, \ldots,e_n^\ast\}$ es una base de $V^\ast$. En particular, $V^\ast$ es de dimensión finita $n$. Además, la bidualidad canónica $\iota:V\to V^\ast ^\ast$ es un isomorfismo de espacios vectoriales.

Antes de comenzar, convéncete de que cada una de las $e_i^\ast$ son formas lineales, es decir, transformaciones lineales de $V$ a $F$.

Demostración. Veremos que $B^\ast=\{e_1^\ast,\ldots,e_n^\ast\}$ es un conjunto linealmente independiente y que genera a $V^\ast$. Veamos lo primero. Tomemos una combinación lineal igual a cero, $$z:=\alpha_1 e_1^\ast + \alpha_2 e_2^\ast+\ldots + \alpha_n e_n^\ast=0.$$ Para cada $i=1,2,\ldots,n$, podemos evaluar la forma lineal $z$ en $e_i$.

Por un lado, $z(e_i)=0$, pues estamos suponiendo que la combinación lineal de $e_i^\ast$’s es (la forma lineal) cero. Por otro lado, analizando término a término y usando que los $e_i^\ast$ son la base dual, tenemos que si $i\neq j$ entonces $e_j^\ast(e_i)$ es cero, y si $i=j$, es $1$.

Así que el único término que queda es $\alpha_i e_i^\ast(e_i)=\alpha_i$. Juntando ambas observaciones, $\alpha_i=z(e_i)=0$, de modo que todos los coeficientes de la combinación lineal son cero. Asi, $B^\ast$ es linealmente independiente.

Ahora veremos que $B^\ast$ genera a $V^\ast$. Tomemos una forma lineal arbitraria $l$, es decir, un elemento en $V^\ast$. Al evaluarla en $e_1,e_2,\ldots,e_n$ obtenemos escalares $$\langle l, e_1\rangle,\langle l, e_2\rangle,\ldots,\langle l, e_n\rangle. $$ Afirmamos que estos son los coeficientes que nos ayudarán a poner a $l$ como combinación lineal de elementos de $B^\ast$. En efecto, para cualquier vector $v$ tenemos que
\begin{align*}
\left(\sum_{i=1}^{n} \langle l, e_i \rangle e_i^\ast\right)(v) &= \sum_{i=1}^{n} \langle l, e_i \rangle \langle e_i^\ast, v \rangle \\
&= \sum_{i=1}^{n} \langle l, \langle e_i^\ast, v \rangle e_i \rangle \\
&=\left \langle l, \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \right \rangle\\
&=\left \langle l, v \rangle\\
&=\left l(v).
\end{align*}

La primer igualdad es por la definición de suma de transformaciones lineales. En la segunda usamos la linealidad de la segunda entrada para meter el escalar $\langle e_i^\ast , v\rangle$. La siguiente es de nuevo por la linealidad de la segunda entrada. En la penúltima igualdad usamos que justo $\langle e_i^\ast , v\rangle$ es el coeficiente que acompaña a $e_i$ cuando escribimos a $v$ con la base $B$. Esto muestra que $B^\ast$ genera a $V^\ast$.

Así, $B^\ast$ es base de $V^\ast$. Como $B^\ast$ tiene $n$ elementos, entonces $V^\ast$ tiene dimensión $n$.

La última parte del teorema consiste en ver que $\iota:V\to V^\ast ^\ast$ es un isomorfismo de espacios vectoriales. Por lo que acabamos de demostrar, $$\dim V = \dim V^\ast = \dim V^\ast ^\ast.$$ Así que basta con mostrar que $\iota$ es inyectiva pues, de ser así, mandaría a una base de $V$ a un conjunto linealmente independiente de $V^{\ast \ast}$ con $n$ elementos, que sabemos que es suficiente para que sea base. Como $\iota$ es transformación lineal, basta mostrar que el único vector que se va a la forma lineal $0$ de $V^\ast$ es el $0$ de $V$.

Supongamos que $v$ es tal que $\text{ev}_v=0$. Vamos a mostrar que $v=0$. Si $\text{ev}_v=0$, en particular para las formas coordenadas $e_i^\ast$ tenemos que $ \text{ev}_v(e_i^\ast)=0$. En otras palabras, $e_i^\ast(v)=0$ para toda $i$. Es decir, todas las coordenadas de $v$ en la base $B$ son $0$. Así, $v=0$. Con esto terminamos la prueba.

$\square$

La demostración anterior muestra cómo encontrar las coordenadas de una forma lineal $l$ en términos de la base $B^\ast$: basta con evaluar $l$ en los elementos de la base $B$. Recopilamos esto y la igualdad dual como una proposición aparte, pues resulta ser útil en varios contextos.

Proposición. Sea $V$ un espacio vectorial de dimensión finita $n$, $B=\{e_1,\ldots, e_n\}$ una base de $V$ y $B^\ast=\{e_1^\ast,\ldots,e_n^\ast\}$ la base dual. Entonces, para todo vector $v$ en $V$ y para toda forma lineal $l:V\to F$, tenemos que
\begin{align*}
v&= \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \quad \text{ y }\\
l&= \sum_{i=1}^{n} \langle l, e_i \rangle e_i^\ast.
\end{align*}

La traza de una matriz en $M_n(F)$ es la suma de las entradas en su diagonal principal. Es sencillo verificar que la función $\text{tr}:M_n(F)\to F$ que manda a cada matriz a su traza es una forma lineal, es decir, un elemento de $M_n(F)^\ast$.

Ejemplo. Considera el espacio vectorial de matrices $M_3(\mathbb{R})$. Sea $B=\{E_{ij}\}$ su base canónica. Expresa a la forma lineal traza en términos de la base dual $B^\ast$.

Solución. Tenemos que $\text{tr}(E_{ii})=1$ y que si $i\neq j$, entonces $\text{tr}(E_{ij})=0$. De esta forma, usando la fórmula de la proposición anterior,
\begin{align*}
\text{tr}&=\sum_{i,j} \text{tr}(E_{ij}) E_{ij}^\ast\\
&=E_{11}^\ast + E_{22}^\ast + E_{33}^\ast.
\end{align*} Observa que, en efecto, esta igualdad es correcta. Lo que hace $E_{ii}^\ast$ por definición es obtener la entrada $a_{ii}$ de una matriz $A=[a_{ij}]$.

La igualdad que encontramos dice que «para obtener la traza hay que extraer las entradas $a_{11}$, $a_{22}$, $a_{33}$ de $A$ y sumarlas». En efecto, eso es justo lo que hace la traza.

$\square$

Algunos problemas prácticos de bases duales

Ya que introdujimos el concepto de espacio dual y de base dual, hay algunos problemas prácticos que puede que queramos resolver.

  • Dada una base $v_1,\ldots,v_n$ de $F^n$, ¿cómo podemos encontrar a la base dual $v_1^\ast, \ldots, v_n^\ast$ en términos de la base dual $e_1^\ast, \ldots, e_n^\ast$ de la base canónica?
  • Dada una base $L=\{l_1,\ldots, l_n\}$ de $V^\ast$, ¿es posible encontrar una base $B$ de $V$ tal que $B^\ast = L$? De ser así, ¿cómo encontramos esta base?

A continuación mencionamos cómo resolver ambos problemas. Las demostraciones se quedan como tarea moral. En la siguiente entrada veremos problemas ejemplo resueltos.

  • La receta para resolver el primer problema es poner a $v_1,\ldots, v_n$ como vectores columna de una matriz $A$. Las coordenadas de $v_1^\ast,\ldots, v_n^\ast$ en términos de la base $e_1^\ast,\ldots,e_n^\ast$ están dados por las filas de la matriz $A^{-1}$.
  • La receta para resolver el segundo problema es tomar una base $B’=\{e_1,\ldots, e_n\}$ cualquiera de $V$ y considerar la matriz $A$ con entradas $A=[l_i(e_j)]$. La matriz $A^{-1}$ tiene como columnas a los vectores de coordenadas de la base $B$ que buscamos con respecto a la base $B’$.

¿Por qué la matriz $A$ de la segunda receta es invertible? Esto lo mostramos en la siguiente sección.

Un teorema de bases, bases duales e invertibilidad de matrices

La demostración del siguiente teorema usa varias ideas que hemos estado desarrollando con anterioridad. Usamos que:

  • Si $V$ es de dimensión finita $n$ y $B$ es un conjunto de $n$ vectores de $V$, entonces basta con que $B$ sea linealmente independiente para ser base. Esto lo puedes repasar en la entrada del lema de intercambio de Steinitz.
  • Una matriz cuadrada $A$ es invertible si y sólo si el sistema de ecuaciones $AX=0$ sólo tiene la solución trivial $X=0$. Esto lo puedes repasar en la entrada de equivalencias de matrices invertibles.
  • Una matriz cuadrada $A$ es invertible si y sólo si su transpuesta lo es.
  • El hecho de que la bidualidad canónica $\iota$ es un isomorfismo entre $V$ y $V^\ast ^\ast$.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ sobre el campo $F$. Sea $B=\{v_1,\ldots, v_n\}$ un conjunto de vectores en $V$ y $L=\{l_1,\ldots, l_n\}$ un conjunto de elementos de $V^\ast$, es decir, de formas lineales en $V$. Consideremos a la matriz $A$ en $M_n(F)$ dada por $$A=[l_i(v_j)].$$ La matriz $A$ es invertible si y sólo si $B$ es una base de $V$ y $L$ es una base de $V^\ast$.

Demostración. Mostraremos primero que si $B$ no es base, entonces $A$ no es invertible. Como $B$ tiene $n$ elementos y no es base, entonces no es linealmente independiente, así que existe una combinación lineal no trivial $$\alpha_1 v_1+\ldots+\alpha_n v_n=0.$$ De esta forma, si definimos $v=(\alpha_1,\ldots, \alpha_n)$, este es un vector no cero, y además, la $i$-ésima entrada de $Av$ es $$\alpha_1 l_i(v_1)+\ldots+\alpha_n l_i(v_n) = l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.$$ De este modo, $AX=0$ tiene una no solución trivial y por lo tanto no es invertible.

De manera similar, si $L$ no es base, entonces hay una combinación lineal no trivial $$\beta_1 L_1 + \ldots + \beta_n L_n =0$$ y entonces el vector $w=(\beta_1,\ldots,\beta_n)$ es una solución no trivial a la ecuación $^t A X=0$, por lo que $^t A$ no es invertible, y por lo tanto $A$ tampoco lo es.

Ahora veremos que si $L$ y $B$ son bases, entonces $A$ es invertible. Si $A$ no fuera invertible, entonces tendríamos una solución no trivial $(\alpha_1,\ldots,\alpha_n)$ a la ecuación $AX=0$. Como vimos arriba, esto quiere decir que para cada $i$ tenemos que $$ l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.$$ Como $l_i$ es base de $V^\ast$, esto implica que $l(\alpha_1 v_1 + \ldots + \alpha_n v_n)=0$ para toda forma lineal $l$, y como la bidualidad canónica es un isomorfismo, tenemos que $$\alpha_1 v_1 + \ldots + \alpha_n v_n=0.$$ Esto es imposible, pues es una combinación lineal no trivial de los elementos de $B$, que por ser base, son linealmente independientes.

$\square$

Tarea moral

  • Usa la definición de linealidad para ver que las formas coordenadas $e_i^\ast$ en efecto son formas lineales.
  • Muestra que $\iota:V \to V^\ast ^\ast$, la bidualidad canónica, es una transformación lineal.
  • Justifica por qué la primer receta resuelve el primer problema práctico de bases duales.
  • Justifica por qué la segunda receta resuelve el segundo problema práctico de bases duales.
  • Sean $a_0,a_1,\ldots,a_n$ reales distintos. Considera el espacio vectorial $V=\mathbb{R}_n[x]$ de polinomios con coeficientes reales y grado a lo más $n$. Muestra que las funciones $\text{ev}_{a_i}:V\to \mathbb{R}$ tales que $\text{ev}_{a_i}(f)=f(a_i)$ son formas lineales linealmente independientes, y que por lo tanto son una base de $V^\ast$. Usa esta base, la base canónica de $V$ y el teorema de la última sección para mostrar que la matriz $$\begin{pmatrix} 1 & a_0 & a_0 ^2 & \ldots & a_0^n\\ 1 & a_1 & a_1^2 & \ldots & a_1^n\\ 1 & a_2 & a_2^2 & \ldots & a_2^n\\ & \vdots & & \ddots & \vdots \\ 1 & a_n & a_n^2 & \ldots & a_n^n\end{pmatrix}$$ es invertible.

Más adelante…

Esta entrada es un poco abstracta, pues habla de bastantes transformaciones aplicadas a transformaciones, y eso puede resultar un poco confuso. Se verán problemas para aterrizar estas ideas. La importancia de entenderlas y manejarlas correctamente es que serán de utilidad más adelante, cuando hablemos de los espacios ortogonales, de transposición de transformaciones lineales y de hiperplanos.

La teoría de dualidad también tiene amplias aplicaciones en otras áreas de las matemáticas. En cierto sentido, la dualidad que vemos aquí es también la que aparece en espacios proyectivos. Está fuertemente relacionada con la dualidad que aparece en teoremas importantes de optimización lineal, que permiten en ocasiones reformular un problema difícil en términos de uno más fácil, pero con el mismo punto óptimo.

Entradas relacionadas

Álgebra Lineal I: Transformaciones lineales en bases, conjuntos independientes y generadores

Introducción

El objetivo de esta entrada es entender qué efecto tienen las transformaciones lineales en bases, en conjuntos linealmente independientes y en conjuntos generadores. En la siguiente lista recordamos brevemente estas nociones:

  • Una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ es una función que «abre sumas» (es decir $T(x+y)=T(x)+T(y)$) y «saca escalares» (es decir $T(cx)=cT(x)$). Recuerda que es necesario que $V$ y $W$ estén sobre el mismo campo, cosa que asumiremos cuando hablemos de transformaciones lineales.
  • Un conjunto de vectores $\{v_1,\ldots, v_n\}$ en $V$ es linealmente independiente si la única combinación lineal de ellos que da $0$ es la trivial, osea en la que todos los coeficientes son $0$.
  • Si cualquier vector de un espacio vectorial $V$ puede escribirse como combinación lineal de un conjunto de vectores $S=\{v_1,\ldots,v_n\}$, entonces decimos que $S$ genera a $V$.
  • Un conjunto de vectores en $V$ es base si es linealmente independiente y genera a $V$.

La idea de esta entrada es entender lo siguiente:

  • ¿Cuándo las imágenes de linealmente independientes/generadores/bases son linealmente independientes/generadores/bases tras aplicar una transformación lineal?
  • ¿Cómo saber si una transformación lineal es inyectiva?
  • ¿Cómo el efecto de transformaciones lineales en bases nos permite determinar exactamente qué le hacen al resto de los vectores?

Exploración

Tomemos espacios vectoriales $V$, $W$ y una transformación lineal $T:V\to W$. Si comenzamos con un conjunto $S=\{v_1,\ldots,v_n\}$ de vectores en $V$ que es linealmente independiente (o generador, o base) en $V$, ¿cuándo sucede que $T(S)=\{T(v_1),\ldots,T(v_n)\}$ es linealmente independiente (o generador, o base, respectivamente) en $W$?

Esto definitivamente no sucede siempre. La tranformación $Z:\mathbb{R}^3\to \mathbb{R}[x]$ que manda a todo vector $(x,y,z)$ al polinomio $0$ es una transformación lineal. Sin embargo, a la base canónica $\{e_1,e_2,e_3\}$ la manda al conjunto $\{0,0,0\}=\{0\}$, que no es un conjunto ni linealmente independiente, ni generador de los polinomios con coeficientes reales.

De esta forma, tenemos que pedirle más a la transformación $T$ para que preserve las propiedades mencionadas.

Intuitivamente, si la imagen de $T$ no cubre a todo $W$, entonces los vectores de la forma $T(v)$ con $v$ en $V$ no deberían de poder generar a $W$. Así, para que $T$ mande generadores a generadores, tiene que pasar que «$T$ pase por todo $W$». Esta noción queda capturada formalmente al pedir que $T$ sea suprayectiva.

Del mismo modo, también intuitivamente si «$T$ manda elementos distintos al mismo elemento», entonces perderemos familias linealmente independientes al aplicarla. Así, para preservar conjuntos linealmente independientes, necesitamos que vectores distintos vayan a valores distintos. En términos formales, necesitamos que $T$ sea inyectiva.

Resultados principales de transformaciones lineales en bases, generadores y linealmente independientes

El primer resultado es que los requisitos que descubrimos intuitivamente en la sección pasada son suficientes.

Teorema. Sea $T:V\to W$ una transformación lineal y $S=\{v_1,\ldots,v_n\}$ un conjunto de vectores de $V$. Entonces:

  • Si $T$ es inyectiva y $S$ es linealmente independiente, entonces $T(S)$ es linealmente independiente.
  • Cuando $T$ es suprayectiva y $S$ es generador, entonces $T(S)$ es generador.
  • Si $T$ es biyectiva y $S$ es base, entonces $T(S)$ es base.

Demostración. Comencemos suponiendo que $T$ es inyectiva y $S$ es linealmente independiente. Entonces $T(v_1),\ldots,T(v_n)$ son todos distintos. Tomemos una combinación lineal de elementos de $T(S)$ igual a cero, es decir, $$a_1T(v_1)+a_2T(v_2)+\ldots+a_nT(v_n)=0.$$ Debemos mostrar que todos los coeficientes son iguales a cero. Como $T$ es transformación lineal, podemos juntar las sumas y productos escalares como sigue: $$T(a_1v_1+a_2v_2+\ldots+a_nv_n)=0=T(0).$$

Como $T$ es inyectiva, esto implica que $$a_1v_1+a_2v_2+\ldots+a_nv_n=0,$$ pero como $S$ es linealmente independiente, concluimos que $$a_1=\ldots=a_n=0.$$ Así, $T(S)$ es linealmente independiente.

Supongamos ahora que $T$ es suprayectiva y $S$ es generador. Tomemos un $w\in W$. Como $T$ es suprayectiva, existe $v\in V$ tal que $T(v)=w$ y como $S$ es generador, existen $a_1,\ldots,a_n$ tales que $$a_1v_1+\ldots+a_nv_n=v.$$ Aplicando $T$ en ambos lados, abriendo las sumas y sacando escalares obtenemos que $$a_1T(v_1)+\ldots+a_nT(v_n)=T(v)=w.$$ Así, todo elemento de $W$ se puede escribir como combinación lineal de elementos de $T(S)$, como queríamos.

Finalmente, supongamos que $T$ es biyectiva y $S$ es base. Como $T$ es inyectiva y $S$ linealmente independiente, entonces $T(S)$ es linealmente independiente. Como $T$ es suprayectiva y $S$ generador, entonces $T(S)$ es generador. Así, $T(S)$ es base.

$\square$

Una consecuencia fudamental del resultado anterior es que si $V$ y $W$ son espacios de dimensión finita y existe una transformación lineal inyectiva $T:V\to W$, entonces $\dim(V)\leq \dim(W)$. En efecto, si $B$ es base de $V$ y $T$ es inyectiva, entonces $T(B)$ es linealmente independiente en $W$ y sabemos que $W$ tiene a lo más $\dim(W)$ vectores linealmente independientes, así que $\dim(V)=|B|=|T(B)|\leq \dim(W)$. De manera similar, si existe una transformación lineal $T:V\to W$ suprayectiva, entonces $\dim(V)\geq \dim(W)$. Demuestra esto. ¿Qué pasa con las dimensiones si existe una transformación lineal biyectiva entre $V$ y $W$?

¿Cuándo una transformación lineal es inyectiva?

El teorema anterior también sugiere que es importante saber cuándo una transformación lineal es inyectiva, suprayectiva o ambas. Resulta que en el caso de la inyectividad hay un criterio que nos ayuda.

Proposición. Sean $V$ y $W$ espacios vectoriales. Una transformación lineal $T:V\to W$ es inyectiva y si sólo si el único vector $v$ de $V$ tal que $T(v)=0$ es el vector $v=0$. En otras palabras $T$ es inyectiva si y sólo si $\ker(T)=\{0\}$.

Demostración. Sean $V$ y $W$ espacios vectoriales y $T:V\to W$ una transformación lineal. Recordemos que sabemos que $T(0)=0$.

Si $T$ es inyectiva y $T(x)=0$, entonces $T(x)=T(0)$ y por inyectividad $x=0$, de modo que $x$ es el único vector que va a $0$ bajo $T$.

Si el único vector que bajo $T$ va a $0$ es el $0$ y tenemos que $T(x)=T(y)$, entonces usando que $T$ es lineal tenemos que $0=T(y)-T(x)=T(y-x)$. Así, por hipótesis $y-x=0$, es decir, $x=y$. Con esto queda mostrado que $T$ es inyectiva.

$\square$

Transformaciones lineales en bases dan toda la información

Conociendo los valores de una transformación lineal en algunos vectores, es posible determinar el valor de la transformación en otros vectores que son combinación lineal de los primeros. Considera el siguiente ejemplo.

Problema. La transformación lineal $T:M_2(\mathbb{R})\to\mathbb{R}^2$ cumple que $T\begin{pmatrix}
1 & 1\\
0 & 0
\end{pmatrix}=(1,0)$, $T\begin{pmatrix}
0 & 1 \\
0 & 1
\end{pmatrix}=(0,-1)$, $T\begin{pmatrix}
0 & 0\\
1 & 1
\end{pmatrix}=(-1,0)$ y $T\begin{pmatrix}
1 & 0\\
1 & 0
\end{pmatrix}=(0,1)$. Determina el valor de $T\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$.

Intenta resolver el problema por tu cuenta antes de ver la solución. Para ello, intenta poner a la matriz $\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$ como combinación lineal de las otras matrices y usar que $T$ es lineal.

Solución. Sean $A$, $B$, $C$ y $D$ las matrices de las cuales conocemos cuánto vale $T$ en ellas y $E$ la matriz con puros $3$’s. Queremos determinar el valor de $T(E)$. Notemos que $E=\frac{3}{2}(A+B+C+D)$. Como $T$ es transformación lineal, tenemos que

\begin{align*}
T(E)&=\frac{3}{2}(T(A)+T(B)+T(C)+T(D))\\
&=\frac{3}{2}((1,0)+(0,-1)+(-1,0)+(0,1))\\
&=(0,0).
\end{align*}

$\square$

En este problema lo que sirvió para encontrar el valor de $T(E)$ fue poner a la matriz $E$ como combinación lineal de las matrices $A,B,C,D$. De hecho, para cualquier matriz que sea combinación lineal de las matrices $A,B,C,D$, pudiéramos haber hecho lo mismo.

A partir de esta observación, podemos intuir que al conocer el efecto de transformaciones lineales en bases, podemos saber qué le hacen a cada elemento del espacio vectorial. El siguiente teorema enuncia esto de manera formal y dice un poco más.

Teorema. Sean $V$, $W$ espacios vectoriales, $B=\{v_1,v_2,\ldots,v_n\}$ una base de $V$ y $w_1,w_2,\ldots, w_n$ vectores cualesquiera de $W$. Entonces, existe una y sólo una transformación lineal $T:V\to W$ tal que $$T(v_1)=w_1,\quad T(v_2)=w_2, \quad \ldots, \quad T(v_n)=w_n.$$

Demostración. Probemos primero la parte de existencia. Como $B$ es base, cualquier vector $v$ de $V$ se puede escribir como $$a_1v_1+a_2v_2+\ldots+a_nv_n.$$ Construyamos la función $T:V\to W$ tal que $$T(v)=a_1w_1+a_2w_2+\ldots+a_nw_n.$$

Como para cada $i=1,\ldots,n$ tenemos que la combinación lineal de $v_i$ en términos de $B$ es $v_i=1\cdot v_i$, tenemos que $T(v_i)=1\cdot w_i=w_i$, que es una de las cosas que queremos. La otra que queremos es que $T$ sea lineal. Mostremos esto. Si $$v=a_1v_1+a_2v_2+\ldots+a_nv_n$$ y $$w=b_1v_1+b_2v_2+\ldots+b_nv_n,$$ entonces $$v+w=(a_1+b_1)v_1+
(a_2+b_2)v_2+\ldots+ (a_n+b_n)v_n,$$ y por definición $$T(v+w)=(a_1+b_1)w_1+ (a_2+b_2)w_2+\ldots+ (a_n+b_n)w_n.$$ Notemos que el lado derecho es igual a $T(v)+T(w)$, de modo que $T$ abre sumas. De manera similar se puede mostrar que $T$ saca escalares.

Esbocemos ahora la demostración de la unicidad. Supongamos que $T$ y $T’$ son transformaciones lineales de $V$ a $W$ tales que $T(v_i)=T'(v_i)=w_i$ para toda $i=1,\ldots,n$. Tenemos que mostrar que $T(v)=T'(v)$ para toda $v$. Para ello procedemos como en el problema antes de este teorema: escribimos a $v$ como combinación lineal de elementos de $B$. Esto se puede hacer de una única forma. El valor de $T(v)$ a su vez depende únicamente de $w_1,\ldots,w_n$ y de la los coeficientes en combinación lineal. El de $T'(v)$ también. Por lo tanto son iguales.

$\square$

Una consecuencia del teorema anterior, en la que no es necesario enunciar a las imágenes de la base, es la siguiente.

Corolario. Sean $V$ y $W$ espacios vectoriales, $B$ una base de $V$, y $T$ y $T’$ transformaciones lineales de $V$ a $W$. Si $T(v)=T'(v)$ para toda $v\in B$, entonces $T(v)=T'(v)$ para toda $v\in V$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra qué le hace al vector $(7,3)$ una transformación lineal $T:\mathbb{R}^2\to \mathbb{R}$ tal que $T(2,1)=20$ y $T(7,2)=5$.
  • Determina si las matrices $A,B,C,D$ del problema de la entrada son una base para $M_2(\mathbb{R})$. Si no son una base, ¿cuál es la dimensión del subespacio que generan?
  • En el último teorema se afirma que la función que construimos saca escalares. Muestra esto.
  • De ese mismo teorema, escribe los detalles de que dicha función es única.
  • Demuestra el corolario enunciado en la entrada.

Más adelante…

Las propiedades que demostramos en esta entrada se usan con tanta frecuencia que muchas veces se aplican sin siquiera detenerse a argumentar por qué son válidas. Por esta razón, es importante que te familiarices con ellas. Otra ventaja de conocerlas a profundidad es que muchas veces ayudan a dar demostraciones sencillas o elegantes para algunos problemas. Finalmente, los hechos que aquí mostramos los usaremos prácticamente sin demostración en las siguientes entradas, en donde desarrollaremos la teoría de la forma matricial de transformaciones lineales.

Entradas relacionadas

El lema de intercambio de Steinitz

Introducción

En esta entrada platicaré de un lema muy útil en álgebra lineal, sobre todo cuando se están definiendo las nociones de base y de dimensión para espacios vectoriales de dimensión finita. Se trata del lema de intercambio de Steinitz.

Supondré que el lector ya sabe un poco de álgebra lineal, pero muy poquito. Basta con saber la definición de espacio vectorial. Lo demás lo definiremos sobre el camino.

El nombre del lema es en honor al matemático alemán Ernst Steinitz. Sin embargo, personalmente a mi me gusta pensarlo como el lema del «regalo de vectores», por razones que ahorita platicaremos. El enunciado es el siguiente:

Teorema (Lema de intercambio de Steinitz). Sea $V$ un espacio vectorial. Tomemos un conjunto finito y linealmente independiente $L$ de $V$, y un conjunto finito y generador $S$ de $V$. Supongamos que $L$ tiene $m$ elementos y que $S$ tiene $n$ elementos. Entonces:

  • $m\leq n$
  • Se puede tomar un subconjunto $T$ de $S$ de tamaño $n-m$ tal que $L\cup T$ sea generador de $V$.

En pocas palabras, «cualquier conjunto linealmente independiente tiene a lo mucho tantos elementos como cualquier conjunto generador y, además, cualquier generador le puede regalar vectores al linealmente independiente para volverlo generador».

De manera esquemática, está pasando lo siguiente:

Diagrama del lema de intercambio de Steinitz
Diagrama del lema de intercambio de Steinitz

Lo que haremos es hablar de las definiciones necesarias para entender el lema, hablar de la intuición detrás, dar un par de ejemplos y luego dar la demostración. La presentación está ligeramente basada en el libro de álgebra lineal de Titu Andreescu.

Definiciones e intuición

Sea $V$ un espacio vectorial sobre un campo $F$.

Si tenemos vectores $v_1,\ldots,v_n$ de $V$ y escalares $a_1,\ldots,a_n$ en $F$, podemos considerar al vector formado por multiplicar los vectores por los escalares correspondientes y sumarlos todos, es decir al vector $v$ dado por la expresión $a_1v_1+\cdots+a_nv_n$ . En este caso, decimos que $v$ es una combinación lineal de $v_1,\ldots,v_n$, o a veces que $v_1,\ldots,v_n$ generan a $v$.

Un conjunto $S=\{v_1,v_2,\ldots,v_n\}$ de vectores de $V$ es generador si para cualquier $v$ de $V$ existen escalares $a_1,\ldots,a_n$ en $F$ para los cuales $v=a_1v_1+\cdots+a_nv_n$. Dicho de otra forma, «$S$ es generador si cualquier vector del espacio vectorial es combinación lineal de vectores de $S$».

De esta definición es fácil ver que si $S$ es un conjunto generador y $T$ es un conjunto que contiene a $S$ (es decir, $T\supset S$), entonces $T$ también es generador: simplemente para cualquier $v$ usamos la combinación lineal que tenemos en $S$ y al resto de los vectores (los de $T\setminus S$) les ponemos coeficientes cero.

Un conjunto $L=\{w_1,w_2,\ldots,w_m\}$ de vectores de $V$ es linealmente independiente si la única combinación lineal de vectores de $L$ que da $0$ es aquella en la que todos los escalares son $0$. Dicho de otra forma, «$L$ es linealmente independiente si $a_1w_1+\ldots+a_mw_m=0$ implica que $a_1=a_2=\ldots=a_m=0$.»

Con los conjuntos linealmente independientes pasa lo contrario a lo de los generadores. Si $L$ es un conjunto linealmente independiente y $M$ está contenido en $L$ (es decir, ahora $M\subset L$), entonces $M$ es linealmente independiente. Esto sucede pues cualquier combinación lineal de $M$ también es una combinación lineal de $L$. Como no hay ninguna combinación lineal no trivial de elementos de $L$ que sea igual a cero, entonces tampoco la hay para $M$.

Los párrafos anteriores dejan la idea de que «los conjuntos generadores tienen que ser grandes» y que «los conjuntos linealmente independientes tienen que ser chiquitos». El lema de intercambio de Steinitz es una manera en la que podemos formalizar esta intuición.

Como los conjuntos generadores son «grandes», entonces son bien buena onda y bien generosos. Tienen muchos elementos. Como los conjuntos linealmente independientes son «chiquitos», entonces necesitan elementos. Lo que dice el lema de intercambio de Steinitz es que si tenemos a un generador $S$ y a un linealmente independiente $L$, entonces $S$ tiene más elementos y que puede regalar al linealmente independiente $L$ algunos elementos $T$ para que ahora $L\cup T$ tenga tantos elementos como tenía $S$ y además se vuelva generador. Una cosa importante es que no cualquier subconjunto $T$ funciona. Este tiene que estar bien elegido.

Ejemplo concreto del lema de intercamio de Steinitz

Veamos un ejemplo muy concreto. Supongamos que nuestro espacio vectorial es $\mathbb{R}^3$, osea, los vectores con $3$ entradas reales. Tomemos a los siguientes conjuntos de vectores:

  • $L=\{(1,2,3), (0,3,0)\}$
  • $S=\{(0,1,0), (1,0,0), (0,0,-1), (2,4,6)\}$

Por un lado, el conjunto $L$ es linealmente idependiente. Una combinación lineal $a(1,2,3)+b(0,3,0)=(0,0,0)$ implica de manera directa que $a=0$ (por la primer o tercer coordenadas) y de ahí $b=0$ (por la segunda coordenada).

Por otro lado, el conjunto $S$ es generador, pues con $(0,0,-1)$ podemos obtener a $(0,0,1)$ como combinación lineal, de modo que $S$ genera a los tres de la base canónica y por tanto genera a todo $\mathbb{R}^3$.

Notemos que en efecto $L$ tiene menos elementos que $S$. Además, el lema de intercambio de Steinitz garantiza que $S$ puede pasarle $|S|-|L|=4-2=2$ elementos a $L$ para volverlo generador. Pero hay que ser cuidadosos. Si le regala los elementos $(0,1,0)$ y $(2,4,6)$, entonces no funciona (se puede verificar que este conjunto no genera a $\mathbb{R}^3$). Pero si le regala, por ejemplo, los elementos $(1,0,0)$ y $(0,0,-1)$ entonces ahora sí generará (se puede argumentar viendo que entonces ahora genera a los tres de la base canónica).

Demostración del lema de intercambio de Steinitz

Pasemos ahora a la demostración del lema de Steinitz. Lo demostraremos por inducción en la cantidad de elementos que tiene $L$, el linealmente independiente. Si $|L|=m=0$, entonces claramente $m=0\leq n$, y además $S$ le puede pasar $n-0=n$ elementos (todos) a $L$ y volverlo generador.

Supongamos entonces que es cierta la siguiente afirmación.

Hipótesis inductiva Sea $V$ un espacio vectorial. Tomemos un conjunto finito y linealmente independiente $L$ de $V$, y un conjunto finito y generador $S$ de $V$. Supongamos que $L$ tiene $m$ elementos y que $S$ tiene $n$ elementos. Entonces:

  • $m\leq n$
  • Se puede tomar un subconjunto $T$ de $S$ de tamaño $n-m$ tal que $L\cup T$ sea generador de $V$.

Para el paso inductivo, tomemos $L=\{w_1,w_2,\ldots,w_m,w_{m+1}\}$ un linealmente independiente de $V$ y $S=\{v_1,v_2,\ldots,v_n\}$ un generador de $V$. Aplicándole la hipótesis inductiva al linealmente independiente $L’=L\setminus \{w_{m+1}\}=\{w_1,\ldots,w_m\}$ y al generador $S$, tenemos que:

  • $m\leq n$
  • Se puede tomar un subconjunto $T’=\{s_1,s_2,\ldots,s_{n-m}\}$ de $S$ tal que $L’\cup T’= \{w_1,w_2,\ldots,w_m,s_1,\ldots,s_{n-m}\}$ sea generador de $V$.

Como $L’\cup T’$ es generador, entonces podemos poner a $w_{m+1}$ como combinación lineal de elementos de $L’\cup T’$, es decir, existen $a_1,\ldots, a_m, b_1,\ldots,b_{n-m}$ tales que $$w_{m+1}=a_1w_1+\ldots+a_mw_m+b_1s_1+\ldots+b_{n-m}s_{n-m}.$$

Ya sabemos que $m\leq n$. Si $m=n$, la combinación lineal anterior no tendría ningún $s_i$, y entonces sería una combinación lineal no trivial para los elementos de $L$, lo cual es una contradicción pues $L$ es linealmente independiente. Entonces $m\neq n$ y $m\leq n$, así que $m+1\leq n$, que era el primer punto que queríamos probar.

También, como $L$ es linealmente independiente, no se vale que todos los $b_i$ sean iguales a cero. Sin perder generalidad, podemos suponer que $b_1\neq 0$. Así, $s_1$ se puede despejar como combinación lineal en términos de $w_1,\ldots,w_n,w_{n+1}, s_2,\ldots,s_{n-m}$ y por lo tanto $L\cup (T’\setminus \{s_1\})$ genera lo mismo que $L’\cup T’$, que era todo $V$. Así, $T:=T’\setminus \{s_1\}$ es el subconjunto de $S$ de tamaño $n-(m+1)$ tal que $L\cup T$ es generador. Esto termina la prueba del lema.

Algunas aplicaciones

El lema de intecambio de Steinitz se puede utilizar para probar varias afirmaciones con respecto a bases de un espacio vectorial de dimensión finita.

Un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos. Una base de un espacio vectorial es un conjunto que sea simultáneamente generador y linealmente independiente.

Las siguientes afirmaciones se siguen directamente del lema de Steinitz.

  1. Todas las bases de un espacio vectorial finito tienen la misma cantidad de elementos.
  2. En un espacio vectorial de dimensión $d$:
    • Todo conjunto linealmente independiente tiene a lo más $d$ elementos.
    • Todo conjunto generador tiene al menos $d$ elementos.
  3. Si $S$ es un conjunto con $n$ vectores de un espacio vectorial de dimensión $n$, entonces las siguientes tres afirmaciones son equivalentes:
    • El conjunto $S$ es base.
    • $S$ es linealmente independiente.
    • $S$ es generador.

Como primer ejemplo, haremos (1). Tomemos $B_1$ y $B_2$ bases de un espacio vectorial de dimensión finita $B$. Pensando a $B_1$ como linealmente independiente y a $B_2$ como generador, tenemos $|B_1|\leq |B_2|$. Pensando a $B_2$ como linealmente independiente y a $B_1$ como generador, tenemos $|B_2|\leq |B_1|$. Así, $|B_1|=|B_2|$.

Como segundo ejemplo, haremos una parte de (3). Suponiendo que $S$ es un conjunto de $n$ vectores de un espacio vectorial de dimensión $n$, veremos que su independencia lineal implica $S$ es base. Sea $B$ una base de $V$. Por el lema de Steinitz, podemos pasar $|B|-|S|=n-n=0$ elementos de $B$ a $S$ para volverlo generador. Es decir, $S$ ya es generador. Como además es linealmente independiente, entonces es base.

El resto de las demostraciones son igual de sencillas, como puedes verificar.

Tarea moral

  • Replica por tu cuenta la demostración del lema de Steinitz hasta que te sientas cómodo con los argumentos.
  • En el ejemplo que se dio de la aplicación del lema de Steinitz, ¿cuáles son todas las posibilidades de $2$ elementos que se pueden pasar para que $L$ se convierta en generador?
  • Usa el lema de Steinitz para demostrar el resto de consecuencias que mencionamos.
  • ¿Qué te dice el lema de Steinitz cuando $L$ y $S$ son inicialmente del mismo tamaño?
  • Muestra que en el lema de Steinitz la hipótesis de que $L$ sea finito no es necesaria, es decir, que incluso sin esta hipótesis se pueden mostrar todas las conclusiones.

Más adelante…

El lema de Steinitz es la herramienta clave para definir dar la definición de dimensión de espacios vectoriales en el caso de dimensión finita. Lo usaremos una y otra vez. Por esta razón, es muy recomendable repasar su demostración y entender a profundidad qué dice.

Entradas relacionadas

¿Ahora qué?

Si te gustó esta entrada, puedes compartirla o revisar otras relacionadas con matemáticas a nivel universitario: