Archivo de la etiqueta: dimensión

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea V un espacio vectorial que ya sepamos que tiene dimensión finita n. Sea B=\{v_1,v_2,\dots, v_n\} un conjunto de n vectores de v. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. B es un conjunto linealmente independiente en V
  2. B es un conjunto generador para V.
  3. B es una base de V

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión n, y tenemos un conjunto de n vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero n.
  • Argumentar que se está estudiando un conjunto con n vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema. Muestra que las siguientes cuatro matrices A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}, D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} son una base del espacio vectorial M_2(\mathbb{R}).

Solución. Ya sabemos que M_2(\mathbb{R}) es un espacio vectorial de dimensión 4, pues una base está conformada por las matrices E_{11}, E_{12}, E_{21} y E_{22} de la base canónica. El conjunto que tenemos consiste de 4 matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales a,b,c,d tales que

    \[aA+bB+cC+dD=O_2.\]

Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si a,b,c,d son soluciones al sistema de ecuaciones

    \[\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\]

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos 2a=0, de donde a=0 y entonces por la primer ecuación c=0. De manera simétrica, b=d=0. De esta forma, la única combinación lineal de A,B,C,D que da la matriz cero es la trivial. Concluimos que A,B,C,D son linealmente independientes, y por lo tanto son una base de M_2(\mathbb{R}).

\square

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a M_2(\mathbb{R}). Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema. Encuentra una base de \mathbb{R}_4[x] que tenga al polinomio

    \[p(x)=1+x+x^2+x^3+x^4.\]

Solución. Ya sabemos que \mathbb{R}_4[x] tiene dimensión 5, pues una base es el conjunto de polinomios \mathcal{B}=\{1,x,x^2,x^3,x^4\}.

Proponemos al conjunto

    \[\mathcal{B}'=\{1,x,x^2,x^3,p(x)\}\]

como solución al problema.

Como \mathcal{B}' es un conjunto con 5 elementos, basta con mostrar que es un conjunto que genera a \mathbb{R}_4[x]. Para ello, notemos que \mathcal{B}' puede generar al polinomio x^4 pues se obtiene mediante la combinación lineal

    \[x^4=p(x)-1-x-x^2-x^3.\]

De esta forma, \mathcal{B}' puede generar todo lo que puede generar \mathcal{B}. En símbolos:

    \[\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}') \subseteq \mathbb{R}_4[x].\]

Concluimos que \text{span}(\mathcal{B}') = \mathbb{R}_4[x]. Esto muestra que \mathcal{B}' es una base de \mathbb{R}_4[x] que tiene al polinomio p(x).

\square

Problema. Exactamente uno de los vectores u=(9,5,1) y v=(9,-5,1) puede ser escrito como combinación lineal de los vectores columna de la matriz

    \[A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.\]

Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de A.

Solución. Un vector b se puede escribir como combinación lineal de las columnas de una matriz A si y sólo si el sistema lineal de ecuaciones AX=b tiene solución. En efecto, si X=(x,y,z), recordemos que

    \[AX=xC_1+yC_2+zC_3,\]

en donde C_1, C_2 y C_3 son las columnas de la matriz A.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones AX=u y AX=v, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada (A|u|v), en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es

    \begin{align*}\begin{pmatrix}3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

    \begin{align*}(A_{red}|u'|v')=\begin{pmatrix}1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a A_{red} y u'), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para AX=u.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable z es libre. Las variables x y y son pivote. Haciendo z=0 obtenemos x=3 y y=-1. Concluimos que

    \[\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.\]

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas 1, 2, 3, 5 de (A_{red}|u'|v') (correspondientes a A_{red} y v'), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para AX=v.

\square

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema AX=b tiene solución si y sólo si el vector b es combinación lineal de los vectores columna de A. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema. Para n un entero positivo y k un entero de 0 a n, definimos al polinomio P_k(x)=x^k(1-x)^{(n-k)}. Muestra que P_0(x),\ldots, P_n(x) es una base para el espacio \mathbb{R}_n[x].

Solución. Como \mathbb{R}_n[x] tiene dimensión n+1 y estamos considerando un conjunto de n+1 polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.\]

Si evaluamos la expresión anterior en x=1, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que \alpha_n 1^n=0, de donde \alpha_n=0. La expresión se convierte entonces en

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.\]

Factorizando 1-x de todos los sumandos y usando que el polinomio 1-x\neq 0, podemos “cancelar” al factor 1-x. En otras palabras, podemos “dividir” la combinación lineal entre 1-x para obtener

    \[\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.\]

De aquí podemos seguir aplicando el mismo argumento: evaluamos en 1, concluimos que el último coeficiente es igual a 0, y entonces podemos dividir subsecuentemente entre 1-x. De esta forma, obtenemos \alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de \mathbb{R}_n[x].

\square

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre n. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a \mathbb{R}_n[x]. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
V es un espacio vectorial de dimensión finita si existe una familia finita de vectores v_1, v_2, \dots , v_n \in V tal que todos los vectores en V se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm} y \hspace{2mm} \mathbb{R}_n[x] son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial V de todos los polinomios con coeficientes reales no es un espacio vectorial sobre \mathbb{R} de dimensión finita.

Demostración. Supongamos que V tiene un conjunto generador finito, entonces existen polinomios p_1,p_2,\dots,p_n\in V tales que V=\text{span}(p_1,p_2,\dots,p_n). Sea d=\max\{deg(p_1), \dots, deg(p_n)\}. Como todos los p_i tienen grado a lo más d, entonces cualquier combinación lineal de p_1,p_2,\dots,p_n también tiene grado a lo más d. Se sigue que todo vector en V tiene grado a lo más d, pero eso es imposible, pues deg(x^{d+1})=d+1>d. Por lo tanto V no es de dimensión finita.

\square

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en \mathbb{R}^n para distintos valores de n. Una linea (digamos \mathbb{R}) debería tener dimensión 1, un plano (digamos \mathbb{R}^2) debería tener dimensión 2, y en general \mathbb{R}^n debería tener dimensión n.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial V es un subconjunto B de V tal que B es linealmente independiente y generador.

Ejemplos.

  • El conjunto B=\{e_1,\ldots,e_n\} de vectores canónicos en \mathbb{F}^n es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector v en \mathbb{F}^n se puede escribir de manera única como v=x_1e_1+\ldots+x_ne_n con x_1,\ldots,x_n escalares. Como existe al menos una forma, entonces \text{span}(B)=F^n. Como es única, en particular la única forma de escribir al vector 0 es si x_1=\ldots=x_n=0. Esto muestra que B es generador y linealmente independiente.
  • El conjunto B=\{E_{ij}\} de matrices canónicas en M_{m,n}(F) es una base.
  • El conjunto 1,x,\ldots,x^n es una base de \mathbb{R}_n[x].

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema. Dada la matriz A\in M_2(\mathbb{R})

    \begin{align*}A=\begin{pmatrix}2 & 0\\0 & 3\end{pmatrix}\end{align*}


encuentra una base para el subespacio U de M_2(\mathbb{R}) definido por

    \begin{align*}U=\{X\in M_2(\mathbb{R}): XA=AX\}.\end{align*}

Solución. Considera la matriz X=\begin{pmatrix}a_1 & a_2\\a_3 & a_4\end{pmatrix}. Entonces X\in U si y sólo si XA=AX, lo anterior lo escribimos como

    \begin{align*}\begin{pmatrix}2a_1 & 3 a_2\\2a_3 & 3a_4\end{pmatrix} = \begin{pmatrix}2a_1 & 2 a_2\\3a_3 & 3a_4\end{pmatrix}.\end{align*}


De la igualdad anterior obtenemos que a_2=a_3=0. Por lo tanto

    \begin{align*}U=\left\{\begin{pmatrix}a_1 & 0\\0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.\end{align*}


Este es un primer paso, pues nos permite poner al subespacio U en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para U. Proponemos al siguiente conjunto de dos matrices:

    \begin{align*}B=\left\{ \begin{pmatrix}1 & 0\\0 & 0\end{pmatrix} , \begin{pmatrix}0&0\\0 & 1\end{pmatrix}\right\}.\end{align*}

Por un lado, este es un conjunto generador para U, pues cualquier elemento de U se puede escribir como combinación lineal de elementos en B como sigue:

    \[\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.\]

Por otro lado, B es un conjunto linealmente independiente pues si a y b son escalares que tan una combinación lineal igual a cero entonces tendríamos

    \[\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.\]

Igualando la primera y última matriz entrada a entrada, tenemos que a=b=0.

\square

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base B de un subespacio U de un espacio vectorial V. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio U del que hay que dar una base.
  • Expresar a U en términos simples.
  • Ver cómo son los vectores de U, y de ahí proponer una base B. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que B genera a U.
  • Mostrar que B es linealmente independiente en V.

Veamos más ejemplos.

Problema. Determina una base para el subespacio U de \mathbb{R}^4 dado por

    \begin{align*}U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.\end{align*}

Solución. Como b=-a y c=2d, entonces

    \begin{align*}U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},\end{align*}


donde v_1=(1,-1,0,0) y v_2=(0,0,2,1). Por lo tanto v_1,v_2 generan a U. También son linealmente independientes, pues la relación av_1+dv_2=0 es equivalente a (a,-a,2d,d)=(0,0,0,0) e implica a=d=0.Se sigue que \{v_1,v_2\} es una base para U.

\square

Problema. Considera los subespacios U,V de \mathbb{R}^4 definidos por

    \begin{align*}U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}\end{align*}


y

    \begin{align*}V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.\end{align*}


Encuentra una base para cada uno de los subespacios U,V y U\cap V de \mathbb{R}^4.

Solución. Expresando a w en términos de y y z, obtenemos

    \begin{align*}U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},\end{align*}


donde u_1=(1,0,0,0), u_2=(0,1,0,-1) y u_3=(0,0,1,-1).

Veamos si u_1,u_2,u_3 son linealmente independientes. La igualdad xu_1+yu_2+zu_3=0 es equivalente a (x,y,z,-y-z)=(0,0,0,0) e implica x=y=z=0. Por lo tanto, los vectores u_1,u_2,u_3 son linealmente independientes y forman una base de U.

Ahora, para V. Es fácil ver que

    \begin{align*}V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\&=\{yv_1+wv_2| y,w\in \mathbb{R}\},\end{align*}


donde v_1=(-1,1,0,0) \hspace{2mm} y v_2=(0,0,2,1).

Nuevamente, v_1, v_2 son linealmente independientes, pues la relación yv_1+wv_2=0 es equivalente a (-y,y,2w,w)=(0,0,0,0) e implica y=w=0. Por lo tanto v_1,v_2 forman una base de V.

Finalmente, el vector (x,y,z,w)\in\mathbb{R}^4 pertenece a U\cap V si y sólo si

    \begin{align*}x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.\end{align*}


Se sigue que x=3w, \hspace{2mm} z=2w \hspace{2mm} y y=-3w, o bien

    \begin{align*}(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).\end{align*}


Por lo tanto \{(3,-3,2,1)\} es una base de U \cap V.

\square

Problema. Sea V el espacio de funciones f:\mathbb{R}\longrightarrow \mathbb{R} generado por las funciones en B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}.

a) Demuestra que B es una base de V.
b) Demuestra que x\mapsto \sin ^2 (x) es una función en V y exprésala como combinación lineal de los elementos de B.

Solución. a) . Como V es el generado de B, por definición B es generador. Así, basta demostrar que los vectores en B son linealmente independientes. En otras palabras, queremos ver que si a,b,c son números reales tales que

    \begin{align*}a+b\sin (2x) + c\cos (2x)=0\end{align*}


para todo x\in \mathbb{R}, entonces a=b=c=0.

Tomando x=0 se obtiene que a+c=0. Si tomamos x=\frac{\pi}{2} obtenemos a-c=0. Por lo tanto a=c=0. Finalmente, si tomamos x=\frac{\pi}{4} obtenemos b=0.

b) Para cada x\in\mathbb{R} se tiene

    \begin{align*}\cos (2x)&=2\cos^2(x)-1\\&=2(1-\sin^2(x))-1\\&=1-2\sin^2(x),\end{align*}


por lo tanto

    \begin{align*}\sin^2(x)=\frac{1-\cos (2x)}{2}.\end{align*}


Por lo tanto x\mapsto \sin^2(x) pertence a V y lo expresamos como combinación lineal de los elementos de B de la siguiente manera:

    \begin{align*}\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) - \frac{1}{2} \cos (2x).\end{align*}

\square

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea V un espacio vectorial de dimensión finita. Entonces
a) V contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de V tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como V es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea B un conjunto generador de V con el menor número posible de elementos. Vamos a demostrar que B es una base para V. B ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que B no es linealmente independiente, entonces existe v\in B tal que v\in \text{span}(B\backslash \{v\}). Por lo tanto

    \[\text{span}(B\setminus\{v\})=\text{span}(B)=V.\]

Pero eso es imposible pues B se tomó de tamaño mínimo. Por lo tanto B es linealmente independiente. Se sigue el resultado deseado.

b) Sea B una base con una cantidad finita de elementos, digamos n. Sea B' otra base de V. Por definición de base, B' es linealmente independiente y B es un conjunto generador con n elementos.

Por el lema de Steinitz, B' es finito y tiene a lo más n elementos. Lo anterior nos muestra que cualquier base tiene a lo más n elementos. De hecho, si B' tiene d elementos, el lema de Steinitz garantiza que n\leq d.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a B como linealmente independiente y a B' como generador. Concluimos que k\leq d. De este modo, k=d y por lo tanto toda base de V tiene la misma cantidad de elementos.

\square

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea V un espacio vectorial de dimensión finita. Definimos la dimensión dim V de V como el número de elementos de una base de V.

Ejemplos y problemas de dimensión

Ejemplo. Considera el espacio vectorial \mathbb{R}^n y su base canónica B=\{e_1,e_2,\dots , e_n\}. Como B es base y tiene n elementos, entonces dim(\mathbb{R}^n)=n.

\square

Ejemplo. Considera el espacio vectorial \mathbb{R}_n[x] de polinomios con coeficientes reales y grado a lo más n. Una base para \mathbb{R}_n[x] es \{1,x,\dots, x^n\}, por lo tanto dim(\mathbb{R}_n[x])=n+1.

\square

Ejemplo. Considera el espacio vectorial M_{m,n}(\mathbb{R}). Sea E_{ij}\in M_{m,n}(\mathbb{R}) la matriz cuya entrada (i,j) es 1 y el resto de sus entradas son 0. Entonces B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \} es una base para M_{m,n}(\mathbb{R}). Así, \dim(M_{m,n}(\mathbb{R}))=mn.

\square

Problema. Encuentra una base y la dimensión del subespacio

    \begin{align*}V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.\end{align*}

Solución. Notemos que V=\text{span}((1,2)), pues (a,2a)=a(1,2). Como (1,2)\neq (0,0), entonces B=\{(1,2)\} es una base de V. Por lo tanto \dim(V)=1.

\square

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea V un espacio vectorial de dimensión finita n. Entonces
a) Cualquier conjunto linealmente independiente de vectores de V tiene a lo más n elementos.
b) Cualquier conjunto generador de V tiene al menos n elementos.
c) Si S es un subconjunto de V con n elementos, entonces las siguientes afirmaciones son equivalentes:

  1. S es linealmente independiente.
  2. S es un conjunto generador.
  3. S es una base de V.

Demostración. Sea V una base de B. Por definición B tiene n elementos.

a) Como B es un conjunto generador con n elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más n elementos.

b) Sea S un conjunto generador de V y supongamos que S tiene d<n elementos. Como B es linealmente independiente, entonces por el lema de intercambio se tiene que n \leq d, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que S es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar n-n=0 vectores a S de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es S mismo, pues no le agregamos nada. Por lo tanto S es un conjunto generador y como estamos bajo el supuesto de que S es linealmente independiente, entonces S es una base de V.

Ahora supongamos que S es un conjunto generador que no es linealmente independiente. Entonces existe v\in S tal que v\in \text{span}(S\setminus \{v\}). Se sigue que S\setminus \{v\} es un conjunto generador de n-1 elementos (al generar a v, genera todo lo que generaba S). Pero esto contradice el inciso b). Por lo tanto S es linealmente independiente y por lo tanto es una base de V.

\square

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes “más grandes”, o bien como los conjuntos generadores “más chicos”. En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea V un espacio vectorial sobre \mathbb{C} y de dimensión n. Demuestra que si ves a V como un espacio vectorial sobre \mathbb{R}, entonces \dim(V)=2n.
  • Sea V un espacio vectorial de dimensión finita y W un subespacio de V. Demuestra que W es de dimensión finita, que \dim(W)\leq \dim(V) y que la igualdad se da si y sólo si W=V.
  • Sean W_1,W_2 subespacios de un espacio vectorial V con dimensiones m y n, respectivamente, con m\geq n.
    a) Demuestra que \dim(W_1\cap W_2)\leq n.
    b) Demuestra que \dim(W_1 + W_2)\leq m+n.
  • Encuentra la dimensión del subespacio de matrices en M_n(\mathbb{R}) que son simétricas.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir “qué tanta información guarda una matriz”. La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Entradas relacionadas

Álgebra Lineal I: Forma matricial de una transformación lineal

Introducción

Durante la primera unidad de este curso vimos que las transformaciones lineales T:F^n \to F^m pueden ser descritas por medio de matrices A\in M_{m,n}(F). Nuestro objetivo ahora es extender este resultado para describir transformaciones lineales T:V\to W entre espacios vectoriales de dimensión finita V y W. Es decir, para cada una de estas transformaciones, queremos ver cómo se ven en forma matricial.

Sin embargo, a diferencia de lo que sucedía antes, la descripción en esta forma no será única. Para construir una matriz que represente a una transformación lineal, necesitaremos fijar bases para V y W. Distintas bases nos darán distintas matrices.

Para esta entrada todos los espacios vectoriales que usemos son de dimensión finita sobre el campo F. Usaremos los resultados de la entrada pasada, en la que estudiamos qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los generadores y a las bases.

Un paréntesis técnico de isomorfismos

Quizás a estas alturas ya te hayas dado cuenta de que, en cierto sentido, los espacios vectoriales con la misma dimensión se parecen mucho entre sí. Por ejemplo, los espacios vectoriales \mathbb{R}^4, M_2(\mathbb{R}) y \mathbb{R}_3[x] pueden pensarse “como el mismo” si identificamos a cada vector (a,b,c,d) con la matriz \begin{pmatrix} a & b \\ c & d \end{pmatrix}, o bien con el polinomio a+bx+cx^2+dx^3. Esta identificación es biyectiva y “respeta las operaciones”.

Con esta motivación, veamos una definición formal.

Definición. Decimos que una transformación lineal T:V\to W es un isomorfismo de espacios vectoriales si es biyectiva. Lo denotamos como V\simeq_{T} W, que se lee “V isomorfo a W mediante T“.

Problema. Sea T:V\to W un isomorfismo de espacios vectoriales. Prueba que su inversa T^{-1}:W\to V es un isomorfismo de espacios vectoriales.

Demostración. La transformación T^{-1} es biyectiva, pues es invertible de inversa T, así que sólo hace falta checar que T^{-1} es lineal. Tomemos w_1, w_2 en W, y c en el campo. Como T es suprayectiva, podemos tomar v_1=T^{-1}(w_1) y v_2=T^{-1}(w_2). Entonces T(v_1)=w_1 y T(v_2)=w_2, así

    \begin{align*}T^{-1}(w_1+cw_2)&=T^{-1}(T(v_1)+cT(v_2))\\&=T^{-1}(T(v_1+cv_2))\\&=v_1+cv_2\end{align*}

En la segunda igualdad estamos usando que T es lineal. De esta forma, concluimos que T^{-1} es lineal también.

\square

Formalicemos ahora sí nuestra intuición de que “todos los espacios vectoriales de la misma dimensión finta n sobre un mismo campo se comportan igual”. En términos matemáticos, decimos que “es posible clasificar los espacios vectoriales de dimensión finita distintos de \{0\}, salvo isomorfismos”. Para mostrar esto, veremos que para cada entero positivo n todos los espacios vectoriales de dimensión n son isomorfos a F^n. El siguiente resultado da el isomorfismo de manera explícita.

Teorema. Sea n un entero positivo y sea V un espacio vectorial de dimensión finita sobre F. Si B={e_1,\dots,e_n} es una base de V, entonces la transformación i_B:F^n\to V definida por

    \[i_B(x_1,\dots,x_n)=x_1e_1+x_2e_2+\dots+x_ne_n\]

es un isomorfismo de espacios vectoriales.

La verificación de los detalles de este teorema queda como tarea moral. Como sugerencia, recuerda que una base B de V te permite expresar a cada vector de V (de aquí saldrá la suprayectividad) de manera única (de aquí saldrá la inyectividad) como combinación lineal de elementos de B.

Corolario. Si T:V\to W es un isomorfismo de espacios vectoriales, entonces \dim V=\dim W.

Bases ordenadas

Sea V un espacio vectorial de dimensión finita n. Una base ordenada de V es simplemente una base para la cual nos importa en qué orden están sus elementos. La escribimos con notación de paréntesis en vez de llaves, es decir, en vez de poner B=\{v_1,\ldots,v_n\}, ponemos B=(v_1,\ldots,v_n) para hacer énfasis en el orden.

Ejemplo. El conjunto \{(1,2),(3,4)\} es una base de \mathbb{R}^2. De aquí, podemos obtener dos bases ordenadas, B=((1,2),(3,4)) y B'=((3,4),(1,2)). Aunque tienen a los mismos elementos, las pensamos como bases ordenadas diferentes pues sus elementos aparecen en diferente orden.

Del mismo modo, las bases B=(1,x,x^2,x^3) y B'=(x^3,x^2,x,1) son la misma base de \mathbb{R}_2[x], pero son distintas como bases ordenadas.

\square

Por las discusión en la sección anterior, la elección de una base ordenada en un espacio vectorial V de dimensión n nos permite identificar V con F^{n}. Es decir, dada una base B, podemos “ponerle coordenadas” a los elementos de V. Dependiendo de la base ordenada escogida, es posible que obtengamos diferentes coordenadas.

Ejemplo. Consideremos el espacio vectorial M_2(\mathbb{R}). Se puede verificar que cada uno de los siguientes conjuntos ordenados son una base:

    \begin{align*}B&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\B'&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\B''&=\left(\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\end{align*}

Como cada uno de ellos es una base, entonces podemos escribir a la matriz A=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} como combinación lineal de elementos de cada uno de B, B' o B''.

Si lo hacemos para B, tendríamos (en orden), a los coeficientes 1,2,3,4, así que las coordenadas de A en la base ordenada B serían (1,2,3,4).

Si lo hacemos para B', tendríamos (en orden), a los coeficientes 1,3,2,4, así que las coordenadas de A en la base ordenada B' serían (1,3,2,4). Aunque B y B' tengan los mismos elementos, las coordenadas difieren pues como bases ordenadas B y B' son distintas.

Si lo hacemos para B'', tendríamos (en orden), a los coeficientes 1,1,1,1, así que las coordenadas de A en la base ordenada B'' serían (1,1,1,1). Aquí obtenemos coordenadas muy distintas pues B y B'' ni siquiera tienen a los mismos elementos.

\square

La forma matricial de una transformación lineal

Consideremos ahora espacios vectoriales V y W de dimensiones n y m respectivamente. Supongamos que tenemos una transformación lineal T:V\to W. Escogemos bases ordenadas B_V=(v_1,\dots, v_n) y B_W=(w_1,\dots,w_m) de V y W respectivamente. Ten cuidado, aquí (v_1,\dots, v_n) no es un vector de F^n, sino una colección ordenada de vectores de V.

Por el teorema de caracterización de espacios vectoriales de dimensión finita, tenemos los isomorfismos

    \[i_{B_{V}}:F^n\to V, \vspace\]

    \[i_{B_{W}}:F^m\to W.\]

¿Cómo podemos usar todas estas transformaciones para construir una transformación F^n\to F^m? La idea es usar el inverso de i_{B_W} y componer todo.

Así, consideramos \psi_T como la composición de las transformaciones i_{B_{V}}, T, i_{B_{W}}^{-1}, es decir,

    \[\psi_T:F^n\to F^m,\]

está dada por

    \[\psi_T=i_{B_W}^{-1}\circ T\circ i_{B_{V}}.\]

De esta forma, \psi_T es una transformación lineal entre F^n y F^m. ¡Este tipo de transformaciones ya las conocemos! Sabemos que \psi_T se describe de manera única por medio de una matriz A\in M_{m,n}(F). Esta es, por definición, la matriz asociada a T con respecto a las bases B_V y B_W o bien la forma matricial de T. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como \text{Mat}_{B_W,B_V}(T) . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases en los subíndices. Es importante más adelante veremos que resulta útil escribirlo así.

Cuando T:V\to V va de un espacio vectorial a sí mismo y usamos sólo una base B, simplificamos la notación a \text{Mat}_B(T).

Evaluar T usando su forma matricial

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es lo siguiente. Ya sabemos que toda transformación lineal entre F^n y F^m está dada por matrices. Podemos extender esto a una descripción de transformaciones lineales entre V y W identificando V con F^n y W con F^m vía la elección de bases en V y W.

Notemos que si definimos A:=\text{Mat}_{B_{W},B_{V}}(T), entonces tenemos que

i_{B_{W}}(Ax)=T(i_{B_{V}}(x)) … (1)

Esta igualdad nos va a ayudar a decir quién es T en términos de las entradas de la matriz A. Sea \{e_1,\dots,e_n\} la base canónica de F^n y \{f_1,\dots,f_m\} la base canónica de F^m. SiA=[a_{ij}], entonces por definición Ae_i=a_{1i}f_1+\dots+a_{mi}f_{m}, así para x=e_i se tiene

i_{B_{W}}(Ax)=i_{B_{W}}(a_{1i}f_1+\dots + a_{mi}f_m) = a_{1i}w_1+\dots + a_{mi}w_m.

Por otro lado, i_{B_{V}}(e_i)=v_i, de manera que la relación (1) es equivalente a la relación

T(v_i)=a_{1i}w_1+\dots + a_{mi}w_m

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que “podemos saber cuánto vale la transformación T en cada elemento de la base de V en términos de la matriz A“. ¡Este es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea T:V\to W una transformación lineal y sean B_V=\{v_1,\dots v_n\}, B_W=\{w_1,\dots,w_m\} bases en V y W, respectivamente. La columna j de \text{Mat}_{B_W,B_V}(T)=[a_{ij}] entonces para toda 1\leq i\leq n se tiene

    \[T(v_i)=\displaystyle\sum_{j=1}^m a_{ji}w_j.\]

Así, si tenemos la matriz A que representa a T en las bases B_V y B_W y un vector arbitrario v en V, para saber quién es T(V) basta:

  • Usar la proposición anterior para saber quién es T(v_i) para cada v_i en la base B_V.
  • Expresar a v en términos de la base B_V como, digamos, v=c_1v_1+\ldots+c_nv_n.
  • Usar que T es lineal para concluir que T(v)=c_1T(v_1)+\ldots+c_nT(v_n) y usar los valores de T(v_i) encontrados en el primer inciso.

Forma matricial de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición S\circ T de transformaciones lineales y las matrices asociadas de T y S. En otras palabras, sean T:V\to W y S:W\to U transformaciones lineales fijas y supongamos que m=dimV, n=dimW, p=dimU. También fijemos las bases B_U, B_V, B_W en U,V,W, respectivamente. Para simplificar las cosas escribamos

\mathcal{A}=\text{Mat}_{B_U,B_W}(S) y \mathcal{B}=\text{Mat}_{B_W,B_V}(T)

Con respecto a las bases B_U,B_V,B_W se tienen los isomorfismos i_{B_U}, i_{B_V}, i_{B_W} definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de \mathcal{A}, \mathcal{B} se tiene

i_{B_W}(\mathcal{B}x)=T(i_{B_V}(x)) con x\in F^m,

i_{B_U}(\mathcal{A}y)=S(i_{B_W}(y)) con y\in F^n.

Aplicando S en la primera relación y después usando la segunda relación, se tiene para x\in F^m

(S\circ T)(i_{B_V}(x))=S(i_{B_W}(\mathcal{B}x))=i_{B_U}(\mathcal{A} \mathcal{B}x).

Esta última relación y la definición de \text{Mat}_{B_U,B_V}(S\circ T) nos muestra que

\text{Mat}_{B_U,B_V}(S\circ T)=\mathcal{A} \cdot \mathcal{B}.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean T:V\to W y S:W\to U transformaciones lineales entre espacios vectoriales de dimensión finita y sean B_U, B_V, B_W bases de U,V,W, respectivamente. Entonces

\text{Mat}_{B_U,B_V}(S\circ T)=\text{Mat}_{B_U,B_W}(S)\cdot \text{Mat}_{B_W,B_V}(T).

Cuando tenemos transformaciones lineales de un espacio vectorial V a sí mismo, y usamos la misma base B, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean T_1,T_2:V\to V transformaciones lineales en un espacio vectorial de dimensión finita V, y sea B una base de V. Entonces

\text{Mat}_{B}(T_1\circ T_2)=\text{Mat}_{B}(T_1)\cdot \text{Mat}_{B}(T_2).

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que la relación “son isomorfos” para espacios vectoriales es una relación de equivalencia.
  • Muestra que la transformación i_B dada en el teorema de clasificación de espacios vectoriales de dimensión finita en efecto es un isomorfismo.
  • Asegúrate de entender el último corolario.

Más adelante…

En esta entrada comenzamos con una transformación lineal T:V\to W y bases ordenadas de de V y W para representar a T como una matriz. Así mismo, vimos cómo tras una elección de base podemos pensar a cualquier vector en términos de sus “coordenadas”, usando a los coeficientes que permiten expresarlo (de manera única) como combinación lineal de elementos de la base. Las matrices y coordenadas que así obtenemos nos ayudarán mucho. Sin embargo, será fundamental entender qué es lo que sucede con estas representaciones cuando elegimos bases diferentes, y cómo podemos cambiar de ciertas coordenadas o matrices a otras cuando hacemos un cambio de base. Esto es lo que estudiaremos en las siguientes entradas.

Entradas relacionadas

Álgebra Lineal I: Transformaciones lineales en bases, conjuntos independientes y generadores

Introducción

El objetivo de esta entrada es entender qué efecto tienen las transformaciones lineales en bases, en conjuntos linealmente independientes y en conjuntos generadores. En la siguiente lista recordamos brevemente estas nociones:

  • Una transformación lineal T:V\to W entre espacios vectoriales V y W es una función que “abre sumas” (es decir T(x+y)=T(x)+T(y)) y “saca escalares” (es decir T(cx)=cT(x)). Recuerda que es necesario que V y W estén sobre el mismo campo, cosa que asumiremos cuando hablemos de transformaciones lineales.
  • Un conjunto de vectores \{v_1,\ldots, v_n\} en V es linealmente independiente si la única combinación lineal de ellos que da 0 es la trivial, osea en la que todos los coeficientes son 0.
  • Si cualquier vector de un espacio vectorial V puede escribirse como combinación lineal de un conjunto de vectores S=\{v_1,\ldots,v_n\}, entonces decimos que S genera a V.
  • Un conjunto de vectores en V es base si es linealmente independiente y genera a V.

La idea de esta entrada es entender lo siguiente:

  • ¿Cuándo las imágenes de linealmente independientes/generadores/bases son linealmente independientes/generadores/bases tras aplicar una transformación lineal?
  • ¿Cómo saber si una transformación lineal es inyectiva?
  • ¿Cómo el efecto de transformaciones lineales en bases nos permite determinar exactamente qué le hacen al resto de los vectores?

Exploración

Tomemos espacios vectoriales V, W y una transformación lineal T:V\to W. Si comenzamos con un conjunto S=\{v_1,\ldots,v_n\} de vectores en V que es linealmente independiente (o generador, o base) en V, ¿cuándo sucede que T(S)=\{T(v_1),\ldots,T(v_n)\} es linealmente independiente (o generador, o base, respectivamente) en W?

Esto definitivamente no sucede siempre. La tranformación Z:\mathbb{R}^3\to \mathbb{R}[x] que manda a todo vector (x,y,z) al polinomio 0 es una transformación lineal. Sin embargo, a la base canónica \{e_1,e_2,e_3\} la manda al conjunto \{0,0,0\}=\{0\}, que no es un conjunto ni linealmente independiente, ni generador de los polinomios con coeficientes reales.

De esta forma, tenemos que pedirle más a la transformación T para que preserve las propiedades mencionadas.

Intuitivamente, si la imagen de T no cubre a todo W, entonces los vectores de la forma T(v) con v en V no deberían de poder generar a W. Así, para que T mande generadores a generadores, tiene que pasar que “T pase por todo W“. Esta noción queda capturada formalmente al pedir que T sea suprayectiva.

Del mismo modo, también intuitivamente si “T manda elementos distintos al mismo elemento”, entonces perderemos familias linealmente independientes al aplicarla. Así, para preservar conjuntos linealmente independientes, necesitamos que vectores distintos vayan a valores distintos. En términos formales, necesitamos que T sea inyectiva.

Resultados principales de transformaciones lineales en bases, generadores y linealmente independientes

El primer resultado es que los requisitos que descubrimos intuitivamente en la sección pasada son suficientes.

Teorema. Sea T:V\to W una transformación lineal y S=\{v_1,\ldots,v_n\} un conjunto de vectores de V. Entonces:

  • Si T es inyectiva y S es linealmente independiente, entonces T(S) es linealmente independiente.
  • Cuando T es suprayectiva y S es generador, entonces T(S) es generador.
  • Si T es biyectiva y S es base, entonces T(S) es base.

Demostración. Comencemos suponiendo que T es inyectiva y S es linealmente independiente. Entonces T(v_1),\ldots,T(v_n) son todos distintos. Tomemos una combinación lineal de elementos de T(S) igual a cero, es decir,

    \[a_1T(v_1)+a_2T(v_2)+\ldots+a_nT(v_n)=0.\]

Debemos mostrar que todos los coeficientes son iguales a cero. Como T es transformación lineal, podemos juntar las sumas y productos escalares como sigue:

    \[T(a_1v_1+a_2v_2+\ldots+a_nv_n)=0=T(0).\]

Como T es inyectiva, esto implica que

    \[a_1v_1+a_2v_2+\ldots+a_nv_n=0,\]

pero como S es linealmente independiente, concluimos que

    \[a_1=\ldots=a_n=0.\]

Así, T(S) es linealmente independiente.

Supongamos ahora que T es suprayectiva y S es generador. Tomemos un w\in W. Como T es suprayectiva, existe v\in V tal que T(v)=w y como S es generador, existen a_1,\ldots,a_n tales que

    \[a_1v_1+\ldots+a_nv_n=v.\]

Aplicando T en ambos lados, abriendo las sumas y sacando escalares obtenemos que

    \[a_1T(v_1)+\ldots+a_nT(v_n)=T(v)=w.\]

Así, todo elemento de W se puede escribir como combinación lineal de elementos de T(S), como queríamos.

Finalmente, supongamos que T es biyectiva y S es base. Como T es inyectiva y S linealmente independiente, entonces T(S) es linealmente independiente. Como T es suprayectiva y S generador, entonces T(S) es generador. Así, T(S) es base.

\square

Una consecuencia fudamental del resultado anterior es que si V y W son espacios de dimensión finita y existe una transformación lineal inyectiva T:V\to W, entonces \dim(V)\leq \dim(W). En efecto, si B es base de V y T es inyectiva, entonces T(B) es linealmente independiente en W y sabemos que W tiene a lo más \dim(W) vectores linealmente independientes, así que \dim(V)=|B|=|T(B)|\leq \dim(W). De manera similar, si existe una transformación lineal T:V\to W suprayectiva, entonces \dim(V)\geq \dim(W). Demuestra esto. ¿Qué pasa con las dimensiones si existe una transformación lineal biyectiva entre V y W?

¿Cuándo una transformación lineal es inyectiva?

El teorema anterior también sugiere que es importante saber cuándo una transformación lineal es inyectiva, suprayectiva o ambas. Resulta que en el caso de la inyectividad hay un criterio que nos ayuda.

Proposición. Sean V y W espacios vectoriales. Una transformación lineal T:V\to W es inyectiva y si sólo si el único vector v de V tal que T(v)=0 es el vector v=0. En otras palabras T es inyectiva si y sólo si \ker(T)=\{0\}.

Demostración. Sean V y W espacios vectoriales y T:V\to W una transformación lineal. Recordemos que sabemos que T(0)=0.

Si T es inyectiva y T(x)=0, entonces T(x)=T(0) y por inyectividad x=0, de modo que x es el único vector que va a 0 bajo T.

Si el único vector que bajo T va a 0 es el 0 y tenemos que T(x)=T(y), entonces usando que T es lineal tenemos que 0=T(y)-T(x)=T(y-x). Así, por hipótesis y-x=0, es decir, x=y. Con esto queda mostrado que T es inyectiva.

\square

Transformaciones lineales en bases dan toda la información

Conociendo los valores de una transformación lineal en algunos vectores, es posible determinar el valor de la transformación en otros vectores que son combinación lineal de los primeros. Considera el siguiente ejemplo.

Problema. La transformación lineal T:M_2(\mathbb{R})\to\mathbb{R}^2 cumple que T\begin{pmatrix}1 & 1\\0 & 0\end{pmatrix}=(1,0), T\begin{pmatrix}0 & 1 \\0 & 1\end{pmatrix}=(0,-1), T\begin{pmatrix}0 & 0\\1 & 1\end{pmatrix}=(-1,0) y T\begin{pmatrix}1 & 0\\1 & 0\end{pmatrix}=(0,1). Determina el valor de T\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}.

Intenta resolver el problema por tu cuenta antes de ver la solución. Para ello, intenta poner a la matriz \begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix} como combinación lineal de las otras matrices y usar que T es lineal.

Solución. Sean A, B, C y D las matrices de las cuales conocemos cuánto vale T en ellas y E la matriz con puros 3‘s. Queremos determinar el valor de T(E). Notemos que E=\frac{3}{2}(A+B+C+D). Como T es transformación lineal, tenemos que

    \begin{align*}T(E)&=\frac{3}{2}(T(A)+T(B)+T(C)+T(D))\\&=\frac{3}{2}((1,0)+(0,-1)+(-1,0)+(0,1))\\&=(0,0).\end{align*}

\square

En este problema lo que sirvió para encontrar el valor de T(E) fue poner a la matriz E como combinación lineal de las matrices A,B,C,D. De hecho, para cualquier matriz que sea combinación lineal de las matrices A,B,C,D, pudiéramos haber hecho lo mismo.

A partir de esta observación, podemos intuir que al conocer el efecto de transformaciones lineales en bases, podemos saber qué le hacen a cada elemento del espacio vectorial. El siguiente teorema enuncia esto de manera formal y dice un poco más.

Teorema. Sean V, W espacios vectoriales, B=\{v_1,v_2,\ldots,v_n\} una base de V y w_1,w_2,\ldots, w_n vectores cualesquiera de W. Entonces, existe una y sólo una transformación lineal T:V\to W tal que

    \[T(v_1)=w_1,\quad T(v_2)=w_2, \quad \ldots,  \quad T(v_n)=w_n.\]

Demostración. Probemos primero la parte de existencia. Como B es base, cualquier vector v de V se puede escribir como

    \[a_1v_1+a_2v_2+\ldots+a_nv_n.\]

Construyamos la función T:V\to W tal que

    \[T(v)=a_1w_1+a_2w_2+\ldots+a_nw_n.\]

Como para cada i=1,\ldots,n tenemos que la combinación lineal de v_i en términos de B es v_i=1\cdot v_i, tenemos que T(v_i)=1\cdot w_i=w_i, que es una de las cosas que queremos. La otra que queremos es que T sea lineal. Mostremos esto. Si

    \[v=a_1v_1+a_2v_2+\ldots+a_nv_n\]

y

    \[w=b_1v_1+b_2v_2+\ldots+b_nv_n,\]

entonces

    \[v+w=(a_1+b_1)v_1+ (a_2+b_2)v_2+\ldots+ (a_n+b_n)v_n,\]

y por definición

    \[T(v+w)=(a_1+b_1)w_1+ (a_2+b_2)w_2+\ldots+ (a_n+b_n)w_n.\]

Notemos que el lado derecho es igual a T(v)+T(w), de modo que T abre sumas. De manera similar se puede mostrar que T saca escalares.

Esbocemos ahora la demostración de la unicidad. Supongamos que T y T' son transformaciones lineales de V a W tales que T(v_i)=T'(v_i)=w_i para toda i=1,\ldots,n. Tenemos que mostrar que T(v)=T'(v) para toda v. Para ello procedemos como en el problema antes de este teorema: escribimos a v como combinación lineal de elementos de B. Esto se puede hacer de una única forma. El valor de T(v) a su vez depende únicamente de w_1,\ldots,w_n y de la los coeficientes en combinación lineal. El de T'(v) también. Por lo tanto son iguales.

\square

Una consecuencia del teorema anterior, en la que no es necesario enunciar a las imágenes de la base, es la siguiente.

Corolario. Sean V y W espacios vectoriales, B una base de V, y T y T' transformaciones lineales de V a W. Si T(v)=T'(v) para toda v\in B, entonces T(v)=T'(v) para toda v\in V.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra qué le hace al vector (7,3) una transformación lineal T:\mathbb{R}^2\to \mathbb{R} tal que T(2,1)=20 y T(7,2)=5.
  • Determina si las matrices A,B,C,D del problema de la entrada son una base para M_2(\mathbb{R}). Si no son una base, ¿cuál es la dimensión del subespacio que generan?
  • En el último teorema se afirma que la función que construimos saca escalares. Muestra esto.
  • De ese mismo teorema, escribe los detalles de que dicha función es única.
  • Demuestra el corolario enunciado en la entrada.

Más adelante…

Las propiedades que demostramos en esta entrada se usan con tanta frecuencia que muchas veces se aplican sin siquiera detenerse a argumentar por qué son válidas. Por esta razón, es importante que te familiarices con ellas. Otra ventaja de conocerlas a profundidad es que muchas veces ayudan a dar demostraciones sencillas o elegantes para algunos problemas. Finalmente, los hechos que aquí mostramos los usaremos prácticamente sin demostración en las siguientes entradas, en donde desarrollaremos la teoría de la forma matricial de transformaciones lineales.

Entradas relacionadas