Archivo de la etiqueta: lema de Steinitz

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea $V$ un espacio vectorial que ya sepamos que tiene dimensión finita $n$. Sea $B=\{v_1,v_2,\dots, v_n\}$ un conjunto de $n$ vectores de $v$. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. $B$ es un conjunto linealmente independiente en $V$.
  2. $B$ es un conjunto generador para $V$.
  3. $B$ es una base de $V$.

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión $n$, y tenemos un conjunto de $n$ vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero $n$.
  • Argumentar que se está estudiando un conjunto con $n$ vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema 1. Muestra que las siguientes cuatro matrices $A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$, $B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$, $C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$, $D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ son una base del espacio vectorial $M_2(\mathbb{R})$.

Solución. Ya sabemos que $M_2(\mathbb{R})$ es un espacio vectorial de dimensión $4$, pues una base está conformada por las matrices $E_{11}$, $E_{12}$, $E_{21}$ y $E_{22}$ de la base canónica. El conjunto que tenemos consiste de $4$ matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales $a,b,c,d$ tales que $$aA+bB+cC+dD=O_2.$$ Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si $a,b,c,d$ son soluciones al sistema de ecuaciones
$$\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\end{cases}$$

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos $2a=0$, de donde $a=0$ y entonces por la primer ecuación $c=0$. De manera simétrica, $b=d=0$. De esta forma, la única combinación lineal de $A,B,C,D$ que da la matriz cero es la trivial. Concluimos que $A,B,C,D$ son linealmente independientes, y por lo tanto son una base de $M_2(\mathbb{R})$.

$\square$

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a $M_2(\mathbb{R})$. Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema 2. Encuentra una base de $\mathbb{R}_4[x]$ que tenga al polinomio $$p(x)=1+x+x^2+x^3+x^4.$$

Solución. Ya sabemos que $\mathbb{R}_4[x]$ tiene dimensión $5$, pues una base es el conjunto de polinomios $\mathcal{B}=\{1,x,x^2,x^3,x^4\}$.

Proponemos al conjunto $$\mathcal{B}’=\{1,x,x^2,x^3,p(x)\}$$ como solución al problema.

Como $\mathcal{B}’$ es un conjunto con $5$ elementos, basta con mostrar que es un conjunto que genera a $\mathbb{R}_4[x]$. Para ello, notemos que $\mathcal{B}’$ puede generar al polinomio $x^4$ pues se obtiene mediante la combinación lineal $$x^4=p(x)-1-x-x^2-x^3.$$

De esta forma, $\mathcal{B}’$ puede generar todo lo que puede generar $\mathcal{B}$. En símbolos: $$\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}’) \subseteq \mathbb{R}_4[x].$$

Concluimos que $\text{span}(\mathcal{B}’) = \mathbb{R}_4[x]$. Esto muestra que $\mathcal{B}’$ es una base de $\mathbb{R}_4[x]$ que tiene al polinomio $p(x)$.

$\triangle$

Problema 3. Exactamente uno de los vectores $u=(9,5,1)$ y $v=(9,-5,1)$ puede ser escrito como combinación lineal de los vectores columna de la matriz $$A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.$$ Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de $A$.

Solución. Un vector $b$ se puede escribir como combinación lineal de las columnas de una matriz $A$ si y sólo si el sistema lineal de ecuaciones $AX=b$ tiene solución. En efecto, si $X=(x,y,z)$, recordemos que $$AX=xC_1+yC_2+zC_3,$$ en donde $C_1$, $C_2$ y $C_3$ son las columnas de la matriz $A$.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones $AX=u$ y $AX=v$, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada $(A|u|v)$, en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es
\begin{align*}\begin{pmatrix}
3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1
\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

\begin{align*}(A_{red}|u’|v’)=\begin{pmatrix}
1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1
\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a $A_{red}$ y $u’$), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para $AX=u$.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable $z$ es libre. Las variables $x$ y $y$ son pivote. Haciendo $z=0$ obtenemos $x=3$ y $y=-1$. Concluimos que $$\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.$$

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas $1$, $2$, $3$, $5$ de $(A_{red}|u’|v’)$ (correspondientes a $A_{red}$ y $v’$), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para $AX=v$.

$\triangle$

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema $AX=b$ tiene solución si y sólo si el vector $b$ es combinación lineal de los vectores columna de $A$. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema 4. Para $n$ un entero positivo y $k$ un entero de $0$ a $n$, definimos al polinomio $P_k(x)=x^k(1-x)^{(n-k)}$. Muestra que $P_0(x),\ldots, P_n(x)$ es una base para el espacio $\mathbb{R}_n[x]$.

Solución. Como $\mathbb{R}_n[x]$ tiene dimensión $n+1$ y estamos considerando un conjunto de $n+1$ polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.$$

Si evaluamos la expresión anterior en $x=1$, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que $\alpha_n 1^n=0$, de donde $\alpha_n=0$. La expresión se convierte entonces en $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.$$

Factorizando $1-x$ de todos los sumandos y usando que el polinomio $1-x\neq 0$, podemos «cancelar» al factor $1-x$. En otras palabras, podemos «dividir» la combinación lineal entre $1-x$ para obtener $$\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.$$

De aquí podemos seguir aplicando el mismo argumento: evaluamos en $1$, concluimos que el último coeficiente es igual a $0$, y entonces podemos dividir subsecuentemente entre $1-x$. De esta forma, obtenemos $\alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0$. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de $\mathbb{R}_n[x]$.

$\square$

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre $n$. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a $\mathbb{R}_n[x]$. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»