Archivo de la etiqueta: subespacios

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea V un espacio vectorial que ya sepamos que tiene dimensión finita n. Sea B=\{v_1,v_2,\dots, v_n\} un conjunto de n vectores de v. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. B es un conjunto linealmente independiente en V
  2. B es un conjunto generador para V.
  3. B es una base de V

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión n, y tenemos un conjunto de n vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero n.
  • Argumentar que se está estudiando un conjunto con n vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema. Muestra que las siguientes cuatro matrices A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}, D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} son una base del espacio vectorial M_2(\mathbb{R}).

Solución. Ya sabemos que M_2(\mathbb{R}) es un espacio vectorial de dimensión 4, pues una base está conformada por las matrices E_{11}, E_{12}, E_{21} y E_{22} de la base canónica. El conjunto que tenemos consiste de 4 matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales a,b,c,d tales que

    \[aA+bB+cC+dD=O_2.\]

Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si a,b,c,d son soluciones al sistema de ecuaciones

    \[\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\]

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos 2a=0, de donde a=0 y entonces por la primer ecuación c=0. De manera simétrica, b=d=0. De esta forma, la única combinación lineal de A,B,C,D que da la matriz cero es la trivial. Concluimos que A,B,C,D son linealmente independientes, y por lo tanto son una base de M_2(\mathbb{R}).

\square

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a M_2(\mathbb{R}). Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema. Encuentra una base de \mathbb{R}_4[x] que tenga al polinomio

    \[p(x)=1+x+x^2+x^3+x^4.\]

Solución. Ya sabemos que \mathbb{R}_4[x] tiene dimensión 5, pues una base es el conjunto de polinomios \mathcal{B}=\{1,x,x^2,x^3,x^4\}.

Proponemos al conjunto

    \[\mathcal{B}'=\{1,x,x^2,x^3,p(x)\}\]

como solución al problema.

Como \mathcal{B}' es un conjunto con 5 elementos, basta con mostrar que es un conjunto que genera a \mathbb{R}_4[x]. Para ello, notemos que \mathcal{B}' puede generar al polinomio x^4 pues se obtiene mediante la combinación lineal

    \[x^4=p(x)-1-x-x^2-x^3.\]

De esta forma, \mathcal{B}' puede generar todo lo que puede generar \mathcal{B}. En símbolos:

    \[\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}') \subseteq \mathbb{R}_4[x].\]

Concluimos que \text{span}(\mathcal{B}') = \mathbb{R}_4[x]. Esto muestra que \mathcal{B}' es una base de \mathbb{R}_4[x] que tiene al polinomio p(x).

\square

Problema. Exactamente uno de los vectores u=(9,5,1) y v=(9,-5,1) puede ser escrito como combinación lineal de los vectores columna de la matriz

    \[A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.\]

Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de A.

Solución. Un vector b se puede escribir como combinación lineal de las columnas de una matriz A si y sólo si el sistema lineal de ecuaciones AX=b tiene solución. En efecto, si X=(x,y,z), recordemos que

    \[AX=xC_1+yC_2+zC_3,\]

en donde C_1, C_2 y C_3 son las columnas de la matriz A.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones AX=u y AX=v, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada (A|u|v), en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es

    \begin{align*}\begin{pmatrix}3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

    \begin{align*}(A_{red}|u'|v')=\begin{pmatrix}1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a A_{red} y u'), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para AX=u.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable z es libre. Las variables x y y son pivote. Haciendo z=0 obtenemos x=3 y y=-1. Concluimos que

    \[\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.\]

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas 1, 2, 3, 5 de (A_{red}|u'|v') (correspondientes a A_{red} y v'), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para AX=v.

\square

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema AX=b tiene solución si y sólo si el vector b es combinación lineal de los vectores columna de A. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema. Para n un entero positivo y k un entero de 0 a n, definimos al polinomio P_k(x)=x^k(1-x)^{(n-k)}. Muestra que P_0(x),\ldots, P_n(x) es una base para el espacio \mathbb{R}_n[x].

Solución. Como \mathbb{R}_n[x] tiene dimensión n+1 y estamos considerando un conjunto de n+1 polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.\]

Si evaluamos la expresión anterior en x=1, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que \alpha_n 1^n=0, de donde \alpha_n=0. La expresión se convierte entonces en

    \[\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.\]

Factorizando 1-x de todos los sumandos y usando que el polinomio 1-x\neq 0, podemos “cancelar” al factor 1-x. En otras palabras, podemos “dividir” la combinación lineal entre 1-x para obtener

    \[\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.\]

De aquí podemos seguir aplicando el mismo argumento: evaluamos en 1, concluimos que el último coeficiente es igual a 0, y entonces podemos dividir subsecuentemente entre 1-x. De esta forma, obtenemos \alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de \mathbb{R}_n[x].

\square

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre n. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a \mathbb{R}_n[x]. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema. Demuestra que el polinomio p(x)=x^2+x+1 no puede ser escrito en el espacio vectorial \mathbb{R}[x] como una combinación lineal de los polinomios

    \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales a, b y c tales que

    \[p(x)=ap_1(x)+bp_2(x)+cp_3(x).\]

Desarrollando la expresión, tendríamos que

    \begin{align*}x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\&= (a+b)x^2+(-a+c)x+(-b-c),\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones:

    \[\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}\]

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida:

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_2+R_1, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_3+R_2, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.\]

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

\square

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene 0=3.

Problema. Sea n un entero positivo. Sea W el subconjunto de vectores en \mathbb{R}^n cuya suma de entradas es igual a 0. Sea Z el espacio generado por el vector (1,1,\ldots,1) de \mathbb{R}^n. Determina si es cierto que

    \[\mathbb{R}^n=W\oplus Z.\]

Solución. El espacio Z está generado por todas las combinaciones lineales que se pueden hacer con el vector v=(1,1,\ldots,1). Como sólo es un vector, las combinaciones lineales son de la forma av con a en \mathbb{R}, de modo que Z es precisamente

    \[Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.\]

Para obtener la igualdad

    \[\mathbb{R}^n=W\oplus Z,\]

tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • W\cap Z = \{0\}
  • W+Z=\mathbb{R}^n

Veamos qué sucede con un vector v en W\cap Z. Como está en Z, debe ser de la forma v=(a,a,\ldots,a). Como está en W, la suma de sus entradas debe ser igual a 0. En otras palabras, 0=a+a+\ldots+a=na. Como n es un entero positivo, esta igualdad implica que a=0. De aquí obtenemos que v=(0,0,\ldots,0), y por lo tanto W\cap Z = \{0\}.

Veamos ahora si se cumple la igualdad \mathbb{R}^n=W+Z. Por supuesto, se tiene que W+Z\subseteq \mathbb{R}^n, pues los elementos de W y Z son vectores en \mathbb{R}^n. Para que la igualdad \mathbb{R}^n\subseteq W+Z se cumpla, tiene que pasar que cualquier vector v=(x_1,\ldots,x_n) en \mathbb{R}^n se pueda escribir como suma de un vector w uno con suma de entradas 0 y un vector z con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea S=x_1+\ldots+x_n la suma de las entradas del vector v. Consideremos al vector w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right) y al vector z=\left(\frac{S}{n},\ldots,\frac{S}{n}).

Por un lado, z está en Z, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de w es

    \begin{align*}\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,\end{align*}

lo cual muestra que w está en W. Finalmente, notemos que la igualdad w+z=v se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de V es suma de vectores en W y Z y por lo tanto concluimos la igualdad \mathbb{R}^n=W\oplus Z.

\square

En el problema anterior puede parecer algo mágico la propuesta de vectores w y z. ¿Qué es lo que motiva la elección de \frac{S}{n}? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector w debe tener todas sus entradas iguales a cierto número a y queremos que z=v-w tenga suma de entradas igual a 0. La suma de las entradas de v-w es

    \[(x_1-a)+\ldots+(x_n-a)= S -na.\]

La elección de a=\frac{S}{n} está motivada en que queremos que esto sea cero.

Problema. Considera las siguientes tres matrices en M_2(\mathbb{C}):

    \begin{align*} A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\C&= \begin{pmatrix} i & -7  \\ 12 & 7 \end{pmatrix}.\end{align*}

Demuestra que A, B y C son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a 0.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces a,b,c números complejos no cero tales que aA+bB+cC=O_2, la matriz cero en M_2(\mathbb{C}). Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:

    \[\begin{cases}-i a + 2i b + ic &= 0\\-3a + b -7c &=0\\2a + 3b + 12c &= 0\\3a -b +7c &=0.\end{cases}\]

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por -i y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a 0. Luego intercambiamos la tercera y cuarta filas.

    \begin{align*}&\begin{pmatrix}-i & 2i & i \\-3 & 1 & -7 \\2 & 3 & 12 \\3 & -1 & 7\end{pmatrix}\\\to&\begin{pmatrix}1 & -2 & -1 \\0 & -5 & -10 \\0 & 7 & 14 \\0 & 5 & 10\end{pmatrix}\end{align*}

Ahora reescalamos con factor -\frac{1}{5} la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

    \begin{align*}&\begin{pmatrix}1 & 0& 3 \\0 & 1 & 2 \\0 & 0 & 0 \\0 & 0 & 0\end{pmatrix}\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables a y b son pivote y la variable c es libre. Para poner a a y b en términos de c, usamos la primera y segunda ecuaciones. Nos queda

    \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo c en \mathbb{C} se tiene la combinación lineal

    \[-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} - 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}  + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\]

Una posible combinación lineal no trivial se obtiene tomando c=1.

\square

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema. Consideremos el espacio vectorial V de funciones f:\mathbb{R}\to \mathbb{R}. Para cada real a en (0,\infty), definimos a la función f_a\in V dada por

    \[f_a(x)=e^{ax}.\]

Tomemos reales distintos 0<a_1<a_2<\ldots<a_n. Supongamos que existe una combinación lineal de las funciones f_{a_1},\ldots,f_{a_n} que es igual a 0, es decir, que existen reales \alpha_1,\ldots,\alpha_n tales que

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Muestra que \alpha_1=\ldots=\alpha_n=0. Concluye que la familia (f_a)_{a\in \mathbb{R}} es linealmente independiente en V.

Solución. Procedemos por inducción sobre n. Para n=1, si tenemos la igualdad \alpha e^{ax}=0 para toda x, entonces \alpha=0, pues e^{ax} siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos n-1 reales cualesquiera. Probaremos el resultado para n reales cualesquiera.

Supongamos que tenemos la combinación lineal

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Dividamos esta igualdad que tenemos entre e^{a_nx}:

    \[\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.\]

¿Qué sucede cuando hacemos x\to \infty? Cada uno de los sumandos de la forma \alpha_i e^{(a_i-a_n)x} se hace cero, pues a_i<a_n y entonces el exponente es negativo y se va a -\infty. De esta forma, queda la igualdad \alpha_n=0. Así, nuestra combinación lineal se ve ahora de la forma

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.\]

Por la hipótesis inductiva, \alpha_1=\ldots=\alpha_{n-1}=0. Como también ya demostramos \alpha_n=0, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) (f_a)_{a\in \mathbb{R}} es linealmente independiente en V pues cualquier subconjunto finito de ella es linealmente independiente.

\square

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Suma y suma directa de subespacios

Introducción

En esta entrada nos apoyaremos fuertemente en las nociones de espacios y subespacios vectoriales que estudiamos en entradas anteriores. Lo primero que haremos has hablar de cómo podemos sumar subespacios. Esta es una operación distinta a la suma del espacio vectorial, pues sucede en términos de subconjuntos. Luego, veremos cómo mediante una elección cuidadosa de subespacios, podemos expresar a un espacio vectorial en términos de ĺa suma de subespacios más sencillos. A una descomposición de este tipo le llamamos suma directa. Estudiaremos también algunas de sus propiedades.

Suma de subespacios

En esta sección hablamos de cómo sumar subespacios de un espacio vectorial. Para entender la intución, pensemos primero en el caso de dos subespacios W_1 y W_2 de un espacio vectorial. Queremos definir un conjunto W_1+W_2. Para hacer esto, lo que haremos es sumar cada elemento de W_1 con cada elemento de W_2.

Ejemplo. Si estamos en el espacio vectorial \mathbb{R}^3, podemos considerar los siguientes dos subespacios:

    \begin{align*}W_1&= \{(a,0,0): a\in \mathbb{R}\}\\W_2&=\{(0,b,0): b \in \mathbb{R}\}.\end{align*}

Para encontrar el conjunto W_1+W_2, lo que haremos es sumar a cada elemento de W_1 con cada elemento de W_2, considerando todas las posiblidades. En general, tenemos que una de estas sumas es de la forma

    \[(a,0,0)+(0,b,0)=(a,b,0).\]

Así, concluimos que

    \[W_1+W_2=\{(a,b,0): a,b \in \mathbb{R}\}.\]

\square

Para más subespacios la intución es similar. A continuación damos la definición formal para la suma de una cantidad finita de subespacios.

Definición. Sea n un entero positivo y W_1, W_2, \dots , W_n subespacios de un espacio vectorial V. Su suma

    \[W_1+ W_2+ \dots + W_n\]

es el subconjunto de V que consiste de todos los vectores de la forma

    \[w_1+w_2+\dots + w_n\]

con w_i \in W_i para todo 1\leq i \leq n.

La definición anterior sólo habla de cómo sumar una cantidad finita de subespacios. También se puede dar una definición para una familia arbitraria (W_i)_{i\in I} de subespacios de V, pero tenemos que ser más cuidadosos para que la teoría posterior funcione bien. Lo que se hace es considerar todas las sumas “con una cantidad finita de términos”. Esto lo decimos de manera formal como sigue. El conjunto \displaystyle\sum_{i\in I}W_i consiste de todas las sumas \displaystyle\sum_{i\in I}w_i con w_i\in W_i para todo i \in I y todos los vectores w_i salvo una cantidad finita son iguales a cero. Esto ayuda a dar una definición incluso si I es finito.

La mayor parte de los resultados que demostraremos para la suma de una cantidad finita de subespacios también se vale para la suma de una cantidad infinita. Por simplicidad, usualmente nos enfocaremos en el caso finito, pero te recomendamos pensar en cómo serían los argumentos para el caso infinito.

La suma de subespacios es subespacio

El siguiente resultado dice que “la suma de subespacios es subespacio”.

Proposición. Si W_1, W_2, \dots , W_n son subespacios de un espacio vectorial V, entonces W_1 + W_2 + \dots + W_n es un subespacio de V.

Demostración. Para facilitar la escritura denotaremos S=W_1+ W_2 + \dots + W_n. Sean s,s'\in S y c un escalar. Por una equivalencia de subespacios, basta demostrar que s+cs'\in S.

Por definición de S, existen w_1,\dots, w_n, w_1',\dots , w_n' con w_i, w_i'\in W_i para 1\leq i \leq n, tales que

    \begin{align*}s&=w_1+ w_2+ \dots + w_n\\ s'&=w_1'+ w_2'+ \dots + w_n'.\end{align*}


Entonces

    \begin{align*}s+cs'&=w_1+w_2+\dots + w_n + c(w_1'+w_2'+\dots + w_n')\\&=w_1+w_2+\dots + w_n + cw_1'+cw_2'+\dots + cw_n'\\&=(w_1 +cw_1')+ \dots + (w_n+cw_n').\end{align*}


Como W_i es un subespacio de V y w_i,w_i' son elementos de W_i, entonces (w_i+cw_i')\in W_i para cada 1\leq i \leq n. Así, la expresión que encontramos es la suma de un vector en W_1, uno en W_2, … , uno en W_n y por lo tant s+cs'\in S. Esto muestra lo que queríamos y así S es subespacio de V.

\square

De hecho la suma de subespacios W_1+\ldots+W_n no sólo es un subespacio de V, sino que además es especial, en el sentido de que es el subespacio “más chiquito” de V que contiene a cada subespacio W_1,\ldots,W_n. El siguiente problema enuncia esto de manera formal.

Problema. Sean W_1,\ldots,W_n subespacios de un espacio vectorial V. Sea S=W_1+W_2+ \dots + W_n. Demuestra que:

  • Para cada i=1,\ldots,n, se tiene que W_i\subseteq S.
  • Si se tiene un subespacio W tal que para cada i=1,\ldots,n se tiene que W_i\subseteq W entonces S\subseteq W

Demostración.

  • En vista de que cada vector w_i\in W_i puede ser escrito como 0+0+\dots + 0 + w_i +0+\dots +0 y 0 \in \displaystyle\bigcap_{i=1}^n W_i, entonces W_i \subset W_1+ \dots +W_n para todo 1\leq i \leq n.
  • Sea W un subespacio de V tal que W contiene a los subespacios W_1, \dots W_n. Mostremos que W contiene a la suma S. Sea v\in S = W_1 +\dots + W_n. Por definición, v=w_1+\dots + w_n para algunos w_i\in W_i. Como W contiene a los subespacios W_1, \dots W_n, entonces w_1, \dots w_n\in W. Como W es cerrado bajo sumas (por ser subespacio) entonces w_1+\dots + w_n\in W y así W_1 + \dots +W_n \subset W.

\square

Subespacios en posición de suma directa

Ya definimos qué es la suma de subespacios. Ahora queremos definir qué es la suma directa. En realidad, la suma directa es simplemente una suma de subespacios en la que los subespacios son especiales en un sentido muy específico. Comenzamos dando esta definición. Es un concepto muy importante que nos será útil varias veces en el curso.

Definición. Sean W_1, W_2, \dots , W_n subespacios de un espacio vectorial V. Decimos que W_1,W_2,\dots, W_n están en posición de suma directa si la única forma de obtener la igualdad

    \begin{align*}w_1+w_2+\dots+w_n=0\end{align*}


con w_i\in W_i para todo 1\leq i \leq n, es cuando

    \begin{align*}w_1=w_2=\dots =w_n =0.\end{align*}

Ejemplo. Consideremos el espacio vectorial de polinomios en \mathbb{R}_2[x], es decir, aquellos de la forma ax^2+bx+c con a,b,c reales. Consideremos los siguientes subespacios de \mathbb{R}_2[x]:

    \begin{align*}W_1&=\{ax^2: a \in \mathbb{R}\}\\W_2&=\{bx: b \in \mathbb{R}\}\\W_3&=\mathbb{R}=\{c: c \in \mathbb{R}\}\\W_4&=\mathbb{R}_1[x]=\{bx+c: b,c \in \mathbb{R}\}\\W_5&=\{ax^2+c: a,c \in \mathbb{R}\}\\W_6&=\{ax^2+bx: a,b \in \mathbb{R}\}\\\end{align*}

Los tres subespacios W_1, W_2, W_3 están en posición de suma directa, pues si tomamos ax^2 en W_1, bx en W_2 y c en W_3, la única forma de que su suma ax^2+bx+c sea igual al polinomio cero es si a=b=c=0, y por lo tanto en realidad sólo estamos tomando el vector 0 de cada uno de los subespacios.

Los subespacios W_4, W_5 y W_6 no están en posición de suma directa, pues hay formas de tomar elementos no cero en cada uno de ellos, cuya suma sí es el vector cero. Por ejemplo, el polinomio x-8 está en W_4, el polinomio -5x^2+8 está en W_5 y el polinomio 5x^2-x está en W_6. Ninguno de estos vectores es el polinomio cero, pero la suma de los tres sí es cero.

\square

Existen otras manera de expresar la condición anterior, una de ellas es la siguiente.

Proposición. Los subespacios W_1, \dots W_n del espacio vectorial V están en posición de suma directa si y sólo si cada elemento de

    \[W_1+W_2+\dots +W_n\]

puede ser escirto de manera única como una suma

    \[w_1+\dots + w_n\]

con w_i\in W_i para todo 1\leq i \leq n.

Demostración. Primero supongamos que los subespacios W_1,W_2, \dots, W_n están en posición de suma directa y tomemos un elemento v de

    \[W_1+\dots + W_n.\]

Por definición, dicho elemento puede ser expresado como v=w_1 + \dots + w_n con w_i \in W_i para todo 1\leq i \leq n. Supongamos también que v puede ser escrito como v=w_1'+\dots + w_n' con w_i' \in W_i. Queremos demostrar que w_i=w_i' para todo 1 \leq i \leq n. Restando las dos relaciones anteriores se tiene

    \begin{align*}0=v-v=\displaystyle\sum_{i=1}^n (w_i-w_i').\end{align*}


Sea u_i=w_i-w_i'. Como W_i es subespacio de V, entonces es cerrado bajo inversos y bajo suma, por lo tanto u_i\in W_i. Así u_1 + \dots + u_n es una suma de elementos igual a cero.Como W_1, \dots, W_n están en posición de suma directa, entonces necesariamente u_1=\dots =u_n=0 y así w_i=w_i' para todo 1 \leq i \leq n.

Ahora supongamos que cada elemento de W_1+\dots + W_n puede ser escrito de manera única como suma de elementos de W_1, \dots , W_n. En particular el cero se descompone de manera única como

    \[0=0+0+\ldots +0.\]

De manera que dados w_i \in W_i con 1 \leq i \leq n tales que w_1+w_2+ \dots + w_n =0, necesariamente w_1=w_2=\dots =w_n=0. Por lo tanto W_1, W_2, \dots ,W_n están en posición de suma directa.

\square

Suma directa de subespacios

Estamos listos para dar una definición clave.

Definición. a) Decimos que un espacio vectorial V es suma directa de sus subespacios W_1, W_2, \dots , W_n si W_1, W_2, \dots , W_n están en posición de suma directa y V=W_1+W_2 + \dots + W_n. En símbolos, escribimos y escribimos

    \begin{align*}V=W_1 \oplus W_2 \oplus \dots \oplus W_n.\end{align*}


b) Si V_1, V_2 son subespacios de un espacio vectorial V, decimos que V_2 es complemento de V_1 si

    \begin{align*}V=V_1 \oplus V_2.\end{align*}

Por los resultados anteriores se tiene que V=W_1 \oplus \dots \oplus W_n si y sólo si cada vector v\in V puede ser escrito de manera única como una suma de la forma w_1+ \dots + w_n, con w_i \in W_i para todo i. Por consiguiente, si V_1, V_2 son subespacios de V, entonces V_2 es complemento de V_1 si y sólo si cada vector v \in V puede ser escrito de manera única como v=v_1+v_2 con v_1 \in V_1, \hspace{2mm} v_2 \in V_2.

El siguiente resultado es extremadamente útil a la hora de resolver problemas con sumas directas con dos subespacios.

Problema. Demuestra que V_2 es complemento de V_1 si y sólo si V_1+V_2=V y V_1 \cap V_2 = \{0\}.

Demostración. Supongamos que V_2 es complemento de V_1, entonces V=V_1+V_2. Falta mostrar que V_1\cap V_2 = \{0\}.

Sea v\in V_1 \cap V_2, entonces v=v+0=0+v, y por la unicidad que ya se demostró en la proposición anterior se tiene que v=0, entonces V_1\cap V_2\subset\{0\}. Como V_1, V_2 son subespacios de V, cada uno de ellos tiene al vector 0. Así, \{0\}\subset V_1 \cap V_2. Por lo tanto V_1\cap V_2=\{0\}.

Ahora supongamos que V_1 + V_2 =V y V_1\cap V_2=\{0\}. Supongamos que existe un vector v \in V tal que

    \begin{align*}v_1+v_2=v=v_1'+v_2'\end{align*}


con v_1,v_1'\in V_1 y v_2,v_2'\in V_2.
Entonces

    \begin{align*}v_1-v_1'=v_2'-v_2\end{align*}


El lado izquierdo de la igualdad anterior pertenece a V_1, mientras que el lado derecho pertenece a V_2, pero como son iguales, necesariamente ambos pertencen a V_1 \cap V_2=\{0\} y así v_1=v_1' y v_2=v_2', que es lo que queríamos demostrar.

\square

Más ejemplos de suma y suma directa de subespacios.

  1. El espacio vectorial V=\mathbb{R}^2 es suma directa de los subespacios

        \begin{align*}V_1=\{(x,0)|x \in \mathbb{R} \}\end{align*}


    y

        \begin{align*}V_2=\{(0,y)|y \in \mathbb{R} \}.\end{align*}


    En efecto, cada (x,y)\in \mathbb{R}^2 puede ser escrito de manera única en la forma

        \begin{align*}(a,0)+(0,b)\end{align*}


    via a=x, \hspace{2mm} b=y.
  2. Sea V=M_n(\mathbb{R}) el espacio vectorial de las matrices de n\times n con entradas reales. Si V_1,V_2 son los subespacios de las matrices simétricas y de las matrices antisimétricas, respectivamente, entonces V=V_1 \oplus V_2.
    En efecto, cada matriz A\in V puede ser escrita de manera única como suma de una matriz simétrica y de una matriz antisimétrica de la siguiente forma:
    A=B+C con

        \begin{align*}B&=\frac{1}{2}(A+ \ ^tA)\\C&=\frac{1}{2}(A- \ ^tA).\end{align*}

  3. Sea V=\{f:\mathbb{R}\longrightarrow \mathbb{R} \} el espacio vectorial de funciones de \mathbb{R} en \mathbb{R}. Sea V_1 el subespacio de todas las funciones pares (recuerda que una función es par si satisface f(x)=f(-x) para toda x) y V_2 el subespacio de todas las funciones impares (las que satisfacen f(x)=-f(-x) para toda x).
    Entonces V=V_1 \oplus V_2.
    En efecto, dada f\in V, la única manera de expresarla como f=g+h con g par y h impar es tomando

        \begin{align*}g(x)=\frac{f(x)+f(-x)}{2} \hspace{2mm} y \hspace{2mm} h(x)=\frac{f(x)-f(-x)}{2}.\end{align*}

\square

Un problema de suma directa de subespacios

Problema. Sea V=\{f:[-1,1]\to \mathbb{R}: \text{f es continua}\}. Sean

    \begin{align*}V_1=\left\{f\in V: \int_{-1}^1 f(t)dt=0\right\} \end{align*}


y V_2 el subconjunto de V de todas las funciones constantes.
a) Demuestra que V_1, V_2 son subespacios de V.
b) Demuestra que V=V_1\oplus V_2.

Demostración. a) Sean f_1,f_2 \in V_1 y c\in \mathbb{R}, entonces cf_1+f_2 es continua y

    \begin{align*}\int_{-1}^1(cf_1+f_2)(t)dt = c\int_{-1}^1f_1(t)dt + \int_{-1}^1 f_2(t) dt =0,\end{align*}


por lo tanto cf_1+f_2\in V_1 y así V_1 es un subespacio de V.

De manera similar veamos que V_2 es subespacio. Sean f,g\in V_2 y c\in \mathbb{R}, entonces f(x)=a y g(x)=b para toda x. Luego

    \begin{align*}(f+c\cdot g)(x)=a+c\cdot b\end{align*}


para toda x. Por lo tanto V_2 es subespacio de V.

b) Por el problema de la sección anterior, basta con demostrar que V_1\cap V_2=\{0\} y V=V_1+V_2. Sea f una función en V_1 \cap V_2. Por un lado tenemos que f es constante, y por otro lado que f integra 0 sobre [-1,1] Digamos que f(t)=c para todo t\in [-1,1], entonces

    \begin{align*}0=\int_{-1}^1f(t)dt=2c.\end{align*}


De aquí, c=0 y así f=0 (la función cero). Por lo tanto V_1\cap V_2=\{0\}.

Ahora, para probar que V=V_1 + V_2 tomamos f\in V y tratemos de escribirla como f=c+g con c constante y g\in V_1. Queremos asegurarnos de que

    \begin{align*}\int_{-1}^1 g(t)dt=0,\end{align*}


esto es

    \begin{align*}\int_{-1}^1 (f(t)-c)dt=0\\\int_{-1}^1f(t)dt=2c.\end{align*}


Esto ya nos dice cómo proponer a c y a g. Lo hacemos a continuación.

    \begin{align*}c&=\frac{1}{2}\int_{-1}^1f(t)dt \\ g&=f-c.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica en todos los ejemplos de la entrada que los subespacios que se mencionan en efecto son subespacios.
  • Sea V el conjunto de las matrices triangulares superiores de n\times n y sea W_1 el espacio de las matrices diagonales. Demuestra que V es espacio vectorial, W_1 es subespacio de V y que V=W_1\oplus W_2, donde W_2=\{A\in V | A_{ij}=0 cuando i \geq j \}.
  • Sea F un campo de característica distinta de 2,

        \begin{align*}W_1=\{A\in M_n(F)|A_{ij}=0, i\leq j\}\end{align*}


    y W_2 el conjunto de todas las matrices simétricas de n \times n con entradas en F. Demuestra que M_n(F)=W_1\oplus W_2
  • En el ejemplo 2, verifica que B es una matriz simétrica y C una matriz antisimétrica.
  • En el ejemplo 3 ,verifica g es par y h es impar.

Más adelante…

Los conceptos de suma y suma de subespacios serán utilizados repetidamente. Por ejemplo, a partir de la suma de subespacios se pueden definir las proyecciones, un tipo de transformaciones lineales particulares.

El concepto de suma directa de subespacios también es muy importante en el sentido de que permite descomponer a un espacio en espacios vectoriales más pequeños. Esta idea será de mucha utilidad cuando hablemos de la teoría de dualidad y de diagonalización de matrices.

Entradas relacionadas

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema. Muestra que el conjunto de las funciones continuas f:[0,1]\to \mathbb{R} tales que f\left(\frac{1}{2}\right)=0 con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si f es continua y \lambda\in \mathbb{R} es un escalar, entonces \lambdaf es continua. Más aún, si f\left(\frac{1}{2}\right)=0 y g\left(\frac{1}{2}\right)=0, entonces (f+g) \left( \frac{1}{2}\right) =f\left( \frac{1}{2}\right) + g\left( \frac{1}{2}\right)=0+0=0 y \lambda f\left(\frac{1}{2}\right)=\lambda \cdot 0 =0. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, x es un real arbitrario en [0,1]

  1. Si f,g,h son parte de nuestro conjunto, entonces

        \begin{align*}\left(f+(g+h)\right)(x)&= f(x)+(g+h)(x)\\ &= f(x)+g(x)+h(x) \\ &= (f+g)(x) +h(x)\\ &= ((f+g)+h)(x).\end{align*}


    Aquí estamos usando la asociatividad de la suma en \mathbb{R}
  2. Si f,g son como en las condiciones, dado que la suma en números reales es conmutativa, (f+g)(x)= f(x)+g(x)= g(x)+f(x)=(g+f)(x).
  3. La función constante 0 es un neutro para la suma. Sí está en el conjunto pues la función 0 en cualquier número (en particular en \frac{1}{2}) tiene evaluación 0.
  4. Dada f continua que se anula en \frac{1}{2}, -f también es continua y se anula en \frac{1}{2} y f+(-f)= (-f)+f=0.
  5. Si a,b\in \mathbb{R} entonces a(bf)(x)= a(bf(x))= (ab)f(x), por la asociatividad del producto en \mathbb{R}.
  6. Es claro que la constante 1 satisface que 1\cdot f=f, pues 1 es una identidad para el producto en \mathbb{R}.
  7. (a+b)f(x)= af(x)+bf(x), por la distributividad de la suma en \mathbb{R}
  8. a\cdot (f+g)(x) = a\cdot (f(x)+g(x))= a\cdot f(x)+a\cdot g(x), también por la distributividad de la suma en \mathbb{R}.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

\square

Problema. Muestra que ninguno de los siguientes es un subespacio vectorial de \mathbb{R}^3.

  1. El conjunto U de los vectores x=(x_1, x_2, x_3) tales que x_1^2+x_2^2+x_3^2=1.
  2. El conjunto V de todos los vectores en \mathbb{R}^3 con números enteros por coordenadas.
  3. El conjunto W de todos los vectores en \mathbb{R}^3 que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto U no es cerrado bajo sumas: En efecto, el vector (1,0,0)\in U, pues 1^2+0^2+0^2=1, así como (-1,0,0)\in U, pues (-1)^2+0^2+0^2=1. Sin embargo su suma es (0,0,0), que no es un elemento de U.
  2. Mientras que V si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, (2,8,1)\in V, sin embargo \frac{1}{2} (2,8,1)= \left(1,4,\frac{1}{2}\right)\notin V, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando (1,1,0) y (0,0,1) en W, tenemos que (1,1,0)+(0,0,1)=(1,1,1)\notin W.

\square

Problema. Sea V el conjunto de todas las funciones f:\mathbb{R}\to \mathbb{R} dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo x\in \mathbb{R}:

    \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0.\end{align*}

¿Es V un subespacio de las funciones de \mathbb{R} en \mathbb{R} ?

Solución: En efecto, podemos verificar que V cumple las condiciones de subespacio:

  1. Observamos que la función f\equiv 0 es dos veces diferenciable y satisface

        \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0+x^2 \cdot 0 -3\cdot 0=0.\end{align*}


    Es decir 0\in V. Esto muestra que V es no vacío.
  2. Sean f,g\in V. Sabemos que entonces f+g también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además

        \begin{align*}&(f+g)''(x)+x^2 (f+g)'(x)-3(f+g)(x)\\ & = f''(x)+g''(x)+x^2 f'(x)+x^2 g'(x)-3f(x)-3g(x)\\& = f''(x)+x^2f(x)-3f(x)+ g''(x)+x^2g(x)-3g(x)\\& =0+0=0.\end{align*}


    Así f+g\in V.
  3. Finalmente sea f\in V y sea \lambda \in \mathbb{R} un escalar. Sabemos que \lambda f es dos veces diferenciable, y además

        \begin{align*}&\left(\lambda f\right)''(x)+x^2\left(\lambda f\right)(x)-3(\lambda f)(x)\\ &= \lambda f''(x)+\lambda x^2 f'(x)-\lambda 3f(x)\\ &= \lambda (f''(x)+x^2f'(x)-3f(x))\\ &= \lambda \cdot 0 =0.\end{align*}


    Luego \lambda f\in V.

\square

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que “las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial”. En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema. Sea V el espacio de todas las funciones de \mathbb{R} en \mathbb{R} y sea W el subconjunto de V formado por todas las funciones f tales que f(0)+f(1)=0.

  1. Verifica que W es un subespacio de V.
  2. Encuentra un subespacio S de W tal que V=W\oplus S.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que 0\in W, pues 0(0)+0(1)=0+0=0. Entonces W no es vacío.
    2. Si f,g\in W entonces (f+g)(0)+(f+g)(1)= f(1)+f(0)+g(1)+g(0)=0+0=0.
    3. Si f\in W y \lambda \in \mathbb{R} entonces \lambda f(0)+\lambda f(1)= \lambda(f(0)+f(1))=\lambda \cdot 0=0.
  2. Proponemos S como el subespacio de todas las funciones h tales que h(x)=ax con a\in \mathbb{R}. Verifiquemos que V=W\oplus S.
    1. Si F\in W\cap S entonces F(0)+F(1)=0, es decir F(0)=-F(1), pero como F(x)=ax para algún a\in \mathbb{R} entonces F(0)=0=F(1)=a. Luego F(x)=0\cdot x=0.
    2. Dada f\in V, definimos

          \begin{align*}\hat{f}(x)= f(x)-(f(0)+f(1))x. \end{align*}


      Observamos que \hat{f}\in W, pues

          \begin{align*}\hat{f}(0)+\hat{f}(1)= f(0)+f(1)-f(0)-f(1)=0.\end{align*}


      Además es claro que

          \begin{align*}f(x)&= f(x)-(f(0)+f(1))x+(f(0)+f(1))x\\&= \hat{f}(x)+\left(f(0)+f(1)\right)x\end{align*}


      donde el sumando de la derecha es de la forma a\cdot x. Así S+W=V.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Sea A un conjunto no vacío. Sea \mathcal{P}(A) el conjunto de todos los subconjuntos de A. Definimos las siguientes operaciones:

    \begin{align*}X+Y= X\Delta Y,\hspace{5mm} 1\cdot X=X,\hspace{5mm} 0\cdot X= \emptyset,\end{align*}


dónde \Delta denota la operación de diferencia simétrica. Demuestra que así definido, \mathcal{P}(A) es un espacio vectorial sobre el campo de dos elementos \mathbb{F}_2.

Entradas relacionadas

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, ero es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en M_{m,n}(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación X\mapsto AX de F^n\to F^m. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en M_{m,n}(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C_1,\ldots,C_n a las columnas de A. Sabemos que

    \[r=\dim \text{span}(C_1,\ldots,C_n).\]

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1\leq i_1<\ldots<i_r\leq n tal que las columnas C_{i_1},\ldots,C_{i_r} de A cumplen

    \[\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).\]

Así, la matriz B hecha por columnas C_{i_1},\ldots,C_{i_r} está en M_{m,r}(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F_1,\ldots,F_m son las filas de B, tenemos que

    \[r=\dim \text{span}(F_1,\ldots,F_m).\]

De nuevo, por el lema de Steinitz, existen enteros 1\leq j_1<\ldots<j_r\leq m tales que

    \[\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).\]

De esta forma, la matriz C hecha por las filas F_{j_1},\ldots,F_{j_r} está en M_r(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i_1,\ldots,i_r y todas las filas en posiciones distintas a j_1,\ldots,j_r. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces d\leq r. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i_1<\ldots<i_n corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas C_{i_1},\ldots,C_{i_d} de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,

    \begin{align*}d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\&\leq \dim \text{span} (C_1,\ldots,C_d)\\&=r,\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

\square

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M_{3,5}(\mathbb{R}):

    \[A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.\]

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho \min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada

    \[\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.\]

Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4\cdot (-1)\cdot (-3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

\square

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\\vdots&\\a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:

    \begin{align*}A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\  \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},\end{align*}

y reescribiendo el sistema como

    \[AX=b.\]

Si C_1,\ldots, C_n son las columnas de la matriz A, también sabemos que

    \[AX=x_1C_1+\ldots + x_nC_n,\]

de modo que el sistema de ecuaciones puede ser escrito como

    \[x_1C_1+\ldots + x_nC_n=b.\]

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean A\in M_n(F) y b\in F^m. Sea (A|b) la matriz en M_{n,n+1}(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si \rank(A)=\rank((A|b)).
  • El conjunto de soluciones \mathcal{S}_h al sistema homogéneo es un subespacio de F^n de dimensión n-\rank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces \rank(A)=\rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si \rank(A)=\rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:F^n\to F^m tal que X\mapsto AX. Por el teorema de rango-nulidad, tenemos que

    \[\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).\]

Esto termina la demostración.

\square

Como discutimos con anterioridad, ya que tenemos una solución x_0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto

    \[x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.\]

En otras palabras, cualquier solución al sistema se puede obtener sumando a x_0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=0\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}. Por lo que sabemos de determinantes de 3\times 3, podemos calcular su determinante como

    \begin{align*}\begin{vmatrix}2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\&=10-30+18-3-40+45\\&=0.\end{align*}

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como

    \[\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11\]

es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.\]

Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3\times 3 por expansión de Laplace en la última columna:

    \begin{align*}\begin{vmatrix}2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0\end{vmatrix} &= 1 \cdot \begin{vmatrix}  3 & -1 \\ 3 & 10 \end{vmatrix} - 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\&=33.\end{align*}

De esta forma, (A|b) tiene una submatriz de 3\times 3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que

    \[\text{rank} A = 2 \neq 3 = \text{rank} (A|b),\]

de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

\square

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x_1,\ldots,x_r y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

    \begin{align*}a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\\vdots\\a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,\end{align*}

Aquí x_{r+1},\ldots,x_n son lo que antes llamábamos las variables libres y x_1,\ldots,x_r son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en M_n(F) y b=(b_1,\ldots,b_n) un vector en F^n. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x_1,\ldots,x_n) dada por

    \[x_i=\frac{\det A_i}{\det A},\]

en donde A_i es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por

    \[X=(x_1,\ldots,x_n)=A^{-1}b.\]

Si C_1,\ldots,C_n son las columnas de A, que (x_1,\ldots,x_n) sea solución al sistema quiere decir que

    \[x_1C_1+\ldots+x_nC_n=b.\]

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:

    \begin{align*}\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\&=x_i \det A\end{align*}

Como A es invertible, su determinante no es 0, de modo que

    \[x_i=\frac{\det A_i}{\det A},\]

como queríamos.

\square

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en \mathbb{R} en tres variables:

    \begin{align*}2x+3y-z=1\\3x-y+2z=0\\3x+10y-5z=3\end{align*}

En un ejemplo anterior vimos que la matriz asociada A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix} tiene rango 2. Se puede verificar que la matriz aumentada

    \[(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}\]

también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 3-2=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(-1)-(3)(3)=-11\neq 0, entonces el sistema de ecuaciones original es equivalente al subsistema

    \begin{align*}2x+3y=1+z\\3x-y=-2z.\end{align*}

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por

    \begin{align*}x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.\end{align*}

De esta forma, las soluciones al sistema original están dadas por

    \[\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).\]

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector

    \[\left(-\frac{5}{11},\frac{7}{11},1\right),\]

y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular

    \[\left(\frac{1}{11},\frac{3}{11},0\right).\]

\square

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2\times 2 con un parámetro \theta. La intepretación geométrica del siguiente sistema de ecuaciones es “encuentra el punto (x,y) del plano tal que al rotarse en \theta alrededor del origen, llega al punto (a,b) ” .

Problema. Sea a,b,\theta números reales. Encuentra las soluciones x,y al sistema de ecuaciones

    \begin{align*}x \cos \theta  - y \sin \theta  = a\\x \sin \theta + y \cos \theta = b.\end{align*}

Solución. La matriz asociada al sistema es

    \[A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}\]

que tiene determinante

    \[\det A = \cos ^2 \theta + \sin^2 \theta = 1.\]

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

    \begin{align*}x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta - a\sin \theta.\end{align*}

\square

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina el rango de la matriz

        \[A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.\]

  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix} y AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en M_n(\mathbb{R}) con entradas enteras y de determinante 1, y b es un vector en R^n con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?