Álgebra Lineal I: Suma y suma directa de subespacios

Introducción

En esta entrada nos apoyaremos fuertemente en las nociones de espacios y subespacios vectoriales que estudiamos en entradas anteriores. Lo primero que haremos has hablar de cómo podemos sumar subespacios. Esta es una operación distinta a la suma del espacio vectorial, pues sucede en términos de subconjuntos. Luego, veremos cómo mediante una elección cuidadosa de subespacios, podemos expresar a un espacio vectorial en términos de ĺa suma de subespacios más sencillos. A una descomposición de este tipo le llamamos suma directa. Estudiaremos también algunas de sus propiedades.

Suma de subespacios

En esta sección hablamos de cómo sumar subespacios de un espacio vectorial. Para entender la intución, pensemos primero en el caso de dos subespacios W_1 y W_2 de un espacio vectorial. Queremos definir un conjunto W_1+W_2. Para hacer esto, lo que haremos es sumar cada elemento de W_1 con cada elemento de W_2.

Ejemplo. Si estamos en el espacio vectorial \mathbb{R}^3, podemos considerar los siguientes dos subespacios:

    \begin{align*}W_1&= \{(a,0,0): a\in \mathbb{R}\}\\W_2&=\{(0,b,0): b \in \mathbb{R}\}.\end{align*}

Para encontrar el conjunto W_1+W_2, lo que haremos es sumar a cada elemento de W_1 con cada elemento de W_2, considerando todas las posiblidades. En general, tenemos que una de estas sumas es de la forma

    \[(a,0,0)+(0,b,0)=(a,b,0).\]

Así, concluimos que

    \[W_1+W_2=\{(a,b,0): a,b \in \mathbb{R}\}.\]

\square

Para más subespacios la intución es similar. A continuación damos la definición formal para la suma de una cantidad finita de subespacios.

Definición. Sea n un entero positivo y W_1, W_2, \dots , W_n subespacios de un espacio vectorial V. Su suma

    \[W_1+ W_2+ \dots + W_n\]

es el subconjunto de V que consiste de todos los vectores de la forma

    \[w_1+w_2+\dots + w_n\]

con w_i \in W_i para todo 1\leq i \leq n.

La definición anterior sólo habla de cómo sumar una cantidad finita de subespacios. También se puede dar una definición para una familia arbitraria (W_i)_{i\in I} de subespacios de V, pero tenemos que ser más cuidadosos para que la teoría posterior funcione bien. Lo que se hace es considerar todas las sumas “con una cantidad finita de términos”. Esto lo decimos de manera formal como sigue. El conjunto \displaystyle\sum_{i\in I}W_i consiste de todas las sumas \displaystyle\sum_{i\in I}w_i con w_i\in W_i para todo i \in I y todos los vectores w_i salvo una cantidad finita son iguales a cero. Esto ayuda a dar una definición incluso si I es finito.

La mayor parte de los resultados que demostraremos para la suma de una cantidad finita de subespacios también se vale para la suma de una cantidad infinita. Por simplicidad, usualmente nos enfocaremos en el caso finito, pero te recomendamos pensar en cómo serían los argumentos para el caso infinito.

La suma de subespacios es subespacio

El siguiente resultado dice que “la suma de subespacios es subespacio”.

Proposición. Si W_1, W_2, \dots , W_n son subespacios de un espacio vectorial V, entonces W_1 + W_2 + \dots + W_n es un subespacio de V.

Demostración. Para facilitar la escritura denotaremos S=W_1+ W_2 + \dots + W_n. Sean s,s'\in S y c un escalar. Por una equivalencia de subespacios, basta demostrar que s+cs'\in S.

Por definición de S, existen w_1,\dots, w_n, w_1',\dots , w_n' con w_i, w_i'\in W_i para 1\leq i \leq n, tales que

    \begin{align*}s&=w_1+ w_2+ \dots + w_n\\ s'&=w_1'+ w_2'+ \dots + w_n'.\end{align*}


Entonces

    \begin{align*}s+cs'&=w_1+w_2+\dots + w_n + c(w_1'+w_2'+\dots + w_n')\\&=w_1+w_2+\dots + w_n + cw_1'+cw_2'+\dots + cw_n'\\&=(w_1 +cw_1')+ \dots + (w_n+cw_n').\end{align*}


Como W_i es un subespacio de V y w_i,w_i' son elementos de W_i, entonces (w_i+cw_i')\in W_i para cada 1\leq i \leq n. Así, la expresión que encontramos es la suma de un vector en W_1, uno en W_2, … , uno en W_n y por lo tant s+cs'\in S. Esto muestra lo que queríamos y así S es subespacio de V.

\square

De hecho la suma de subespacios W_1+\ldots+W_n no sólo es un subespacio de V, sino que además es especial, en el sentido de que es el subespacio “más chiquito” de V que contiene a cada subespacio W_1,\ldots,W_n. El siguiente problema enuncia esto de manera formal.

Problema. Sean W_1,\ldots,W_n subespacios de un espacio vectorial V. Sea S=W_1+W_2+ \dots + W_n. Demuestra que:

  • Para cada i=1,\ldots,n, se tiene que W_i\subseteq S.
  • Si se tiene un subespacio W tal que para cada i=1,\ldots,n se tiene que W_i\subseteq W entonces S\subseteq W

Demostración.

  • En vista de que cada vector w_i\in W_i puede ser escrito como 0+0+\dots + 0 + w_i +0+\dots +0 y 0 \in \displaystyle\bigcap_{i=1}^n W_i, entonces W_i \subset W_1+ \dots +W_n para todo 1\leq i \leq n.
  • Sea W un subespacio de V tal que W contiene a los subespacios W_1, \dots W_n. Mostremos que W contiene a la suma S. Sea v\in S = W_1 +\dots + W_n. Por definición, v=w_1+\dots + w_n para algunos w_i\in W_i. Como W contiene a los subespacios W_1, \dots W_n, entonces w_1, \dots w_n\in W. Como W es cerrado bajo sumas (por ser subespacio) entonces w_1+\dots + w_n\in W y así W_1 + \dots +W_n \subset W.

\square

Subespacios en posición de suma directa

Ya definimos qué es la suma de subespacios. Ahora queremos definir qué es la suma directa. En realidad, la suma directa es simplemente una suma de subespacios en la que los subespacios son especiales en un sentido muy específico. Comenzamos dando esta definición. Es un concepto muy importante que nos será útil varias veces en el curso.

Definición. Sean W_1, W_2, \dots , W_n subespacios de un espacio vectorial V. Decimos que W_1,W_2,\dots, W_n están en posición de suma directa si la única forma de obtener la igualdad

    \begin{align*}w_1+w_2+\dots+w_n=0\end{align*}


con w_i\in W_i para todo 1\leq i \leq n, es cuando

    \begin{align*}w_1=w_2=\dots =w_n =0.\end{align*}

Ejemplo. Consideremos el espacio vectorial de polinomios en \mathbb{R}_2[x], es decir, aquellos de la forma ax^2+bx+c con a,b,c reales. Consideremos los siguientes subespacios de \mathbb{R}_2[x]:

    \begin{align*}W_1&=\{ax^2: a \in \mathbb{R}\}\\W_2&=\{bx: b \in \mathbb{R}\}\\W_3&=\mathbb{R}=\{c: c \in \mathbb{R}\}\\W_4&=\mathbb{R}_1[x]=\{bx+c: b,c \in \mathbb{R}\}\\W_5&=\{ax^2+c: a,c \in \mathbb{R}\}\\W_6&=\{ax^2+bx: a,b \in \mathbb{R}\}\\\end{align*}

Los tres subespacios W_1, W_2, W_3 están en posición de suma directa, pues si tomamos ax^2 en W_1, bx en W_2 y c en W_3, la única forma de que su suma ax^2+bx+c sea igual al polinomio cero es si a=b=c=0, y por lo tanto en realidad sólo estamos tomando el vector 0 de cada uno de los subespacios.

Los subespacios W_4, W_5 y W_6 no están en posición de suma directa, pues hay formas de tomar elementos no cero en cada uno de ellos, cuya suma sí es el vector cero. Por ejemplo, el polinomio x-8 está en W_4, el polinomio -5x^2+8 está en W_5 y el polinomio 5x^2-x está en W_6. Ninguno de estos vectores es el polinomio cero, pero la suma de los tres sí es cero.

\square

Existen otras manera de expresar la condición anterior, una de ellas es la siguiente.

Proposición. Los subespacios W_1, \dots W_n del espacio vectorial V están en posición de suma directa si y sólo si cada elemento de

    \[W_1+W_2+\dots +W_n\]

puede ser escirto de manera única como una suma

    \[w_1+\dots + w_n\]

con w_i\in W_i para todo 1\leq i \leq n.

Demostración. Primero supongamos que los subespacios W_1,W_2, \dots, W_n están en posición de suma directa y tomemos un elemento v de

    \[W_1+\dots + W_n.\]

Por definición, dicho elemento puede ser expresado como v=w_1 + \dots + w_n con w_i \in W_i para todo 1\leq i \leq n. Supongamos también que v puede ser escrito como v=w_1'+\dots + w_n' con w_i' \in W_i. Queremos demostrar que w_i=w_i' para todo 1 \leq i \leq n. Restando las dos relaciones anteriores se tiene

    \begin{align*}0=v-v=\displaystyle\sum_{i=1}^n (w_i-w_i').\end{align*}


Sea u_i=w_i-w_i'. Como W_i es subespacio de V, entonces es cerrado bajo inversos y bajo suma, por lo tanto u_i\in W_i. Así u_1 + \dots + u_n es una suma de elementos igual a cero.Como W_1, \dots, W_n están en posición de suma directa, entonces necesariamente u_1=\dots =u_n=0 y así w_i=w_i' para todo 1 \leq i \leq n.

Ahora supongamos que cada elemento de W_1+\dots + W_n puede ser escrito de manera única como suma de elementos de W_1, \dots , W_n. En particular el cero se descompone de manera única como

    \[0=0+0+\ldots +0.\]

De manera que dados w_i \in W_i con 1 \leq i \leq n tales que w_1+w_2+ \dots + w_n =0, necesariamente w_1=w_2=\dots =w_n=0. Por lo tanto W_1, W_2, \dots ,W_n están en posición de suma directa.

\square

Suma directa de subespacios

Estamos listos para dar una definición clave.

Definición. a) Decimos que un espacio vectorial V es suma directa de sus subespacios W_1, W_2, \dots , W_n si W_1, W_2, \dots , W_n están en posición de suma directa y V=W_1+W_2 + \dots + W_n. En símbolos, escribimos y escribimos

    \begin{align*}V=W_1 \oplus W_2 \oplus \dots \oplus W_n.\end{align*}


b) Si V_1, V_2 son subespacios de un espacio vectorial V, decimos que V_2 es complemento de V_1 si

    \begin{align*}V=V_1 \oplus V_2.\end{align*}

Por los resultados anteriores se tiene que V=W_1 \oplus \dots \oplus W_n si y sólo si cada vector v\in V puede ser escrito de manera única como una suma de la forma w_1+ \dots + w_n, con w_i \in W_i para todo i. Por consiguiente, si V_1, V_2 son subespacios de V, entonces V_2 es complemento de V_1 si y sólo si cada vector v \in V puede ser escrito de manera única como v=v_1+v_2 con v_1 \in V_1, \hspace{2mm} v_2 \in V_2.

El siguiente resultado es extremadamente útil a la hora de resolver problemas con sumas directas con dos subespacios.

Problema. Demuestra que V_2 es complemento de V_1 si y sólo si V_1+V_2=V y V_1 \cap V_2 = \{0\}.

Demostración. Supongamos que V_2 es complemento de V_1, entonces V=V_1+V_2. Falta mostrar que V_1\cap V_2 = \{0\}.

Sea v\in V_1 \cap V_2, entonces v=v+0=0+v, y por la unicidad que ya se demostró en la proposición anterior se tiene que v=0, entonces V_1\cap V_2\subset\{0\}. Como V_1, V_2 son subespacios de V, cada uno de ellos tiene al vector 0. Así, \{0\}\subset V_1 \cap V_2. Por lo tanto V_1\cap V_2=\{0\}.

Ahora supongamos que V_1 + V_2 =V y V_1\cap V_2=\{0\}. Supongamos que existe un vector v \in V tal que

    \begin{align*}v_1+v_2=v=v_1'+v_2'\end{align*}


con v_1,v_1'\in V_1 y v_2,v_2'\in V_2.
Entonces

    \begin{align*}v_1-v_1'=v_2'-v_2\end{align*}


El lado izquierdo de la igualdad anterior pertenece a V_1, mientras que el lado derecho pertenece a V_2, pero como son iguales, necesariamente ambos pertencen a V_1 \cap V_2=\{0\} y así v_1=v_1' y v_2=v_2', que es lo que queríamos demostrar.

\square

Más ejemplos de suma y suma directa de subespacios.

  1. El espacio vectorial V=\mathbb{R}^2 es suma directa de los subespacios

        \begin{align*}V_1=\{(x,0)|x \in \mathbb{R} \}\end{align*}


    y

        \begin{align*}V_2=\{(0,y)|y \in \mathbb{R} \}.\end{align*}


    En efecto, cada (x,y)\in \mathbb{R}^2 puede ser escrito de manera única en la forma

        \begin{align*}(a,0)+(0,b)\end{align*}


    via a=x, \hspace{2mm} b=y.
  2. Sea V=M_n(\mathbb{R}) el espacio vectorial de las matrices de n\times n con entradas reales. Si V_1,V_2 son los subespacios de las matrices simétricas y de las matrices antisimétricas, respectivamente, entonces V=V_1 \oplus V_2.
    En efecto, cada matriz A\in V puede ser escrita de manera única como suma de una matriz simétrica y de una matriz antisimétrica de la siguiente forma:
    A=B+C con

        \begin{align*}B&=\frac{1}{2}(A+ \ ^tA)\\C&=\frac{1}{2}(A- \ ^tA).\end{align*}

  3. Sea V=\{f:\mathbb{R}\longrightarrow \mathbb{R} \} el espacio vectorial de funciones de \mathbb{R} en \mathbb{R}. Sea V_1 el subespacio de todas las funciones pares (recuerda que una función es par si satisface f(x)=f(-x) para toda x) y V_2 el subespacio de todas las funciones impares (las que satisfacen f(x)=-f(-x) para toda x).
    Entonces V=V_1 \oplus V_2.
    En efecto, dada f\in V, la única manera de expresarla como f=g+h con g par y h impar es tomando

        \begin{align*}g(x)=\frac{f(x)+f(-x)}{2} \hspace{2mm} y \hspace{2mm} h(x)=\frac{f(x)-f(-x)}{2}.\end{align*}

\square

Un problema de suma directa de subespacios

Problema. Sea V=\{f:[-1,1]\to \mathbb{R}: \text{f es continua}\}. Sean

    \begin{align*}V_1=\left\{f\in V: \int_{-1}^1 f(t)dt=0\right\} \end{align*}


y V_2 el subconjunto de V de todas las funciones constantes.
a) Demuestra que V_1, V_2 son subespacios de V.
b) Demuestra que V=V_1\oplus V_2.

Demostración. a) Sean f_1,f_2 \in V_1 y c\in \mathbb{R}, entonces cf_1+f_2 es continua y

    \begin{align*}\int_{-1}^1(cf_1+f_2)(t)dt = c\int_{-1}^1f_1(t)dt + \int_{-1}^1 f_2(t) dt =0,\end{align*}


por lo tanto cf_1+f_2\in V_1 y así V_1 es un subespacio de V.

De manera similar veamos que V_2 es subespacio. Sean f,g\in V_2 y c\in \mathbb{R}, entonces f(x)=a y g(x)=b para toda x. Luego

    \begin{align*}(f+c\cdot g)(x)=a+c\cdot b\end{align*}


para toda x. Por lo tanto V_2 es subespacio de V.

b) Por el problema de la sección anterior, basta con demostrar que V_1\cap V_2=\{0\} y V=V_1+V_2. Sea f una función en V_1 \cap V_2. Por un lado tenemos que f es constante, y por otro lado que f integra 0 sobre [-1,1] Digamos que f(t)=c para todo t\in [-1,1], entonces

    \begin{align*}0=\int_{-1}^1f(t)dt=2c.\end{align*}


De aquí, c=0 y así f=0 (la función cero). Por lo tanto V_1\cap V_2=\{0\}.

Ahora, para probar que V=V_1 + V_2 tomamos f\in V y tratemos de escribirla como f=c+g con c constante y g\in V_1. Queremos asegurarnos de que

    \begin{align*}\int_{-1}^1 g(t)dt=0,\end{align*}


esto es

    \begin{align*}\int_{-1}^1 (f(t)-c)dt=0\\\int_{-1}^1f(t)dt=2c.\end{align*}


Esto ya nos dice cómo proponer a c y a g. Lo hacemos a continuación.

    \begin{align*}c&=\frac{1}{2}\int_{-1}^1f(t)dt \\ g&=f-c.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica en todos los ejemplos de la entrada que los subespacios que se mencionan en efecto son subespacios.
  • Sea V el conjunto de las matrices triangulares superiores de n\times n y sea W_1 el espacio de las matrices diagonales. Demuestra que V es espacio vectorial, W_1 es subespacio de V y que V=W_1\oplus W_2, donde W_2=\{A\in V | A_{ij}=0 cuando i \geq j \}.
  • Sea F un campo de característica distinta de 2,

        \begin{align*}W_1=\{A\in M_n(F)|A_{ij}=0, i\leq j\}\end{align*}


    y W_2 el conjunto de todas las matrices simétricas de n \times n con entradas en F. Demuestra que M_n(F)=W_1\oplus W_2
  • En el ejemplo 2, verifica que B es una matriz simétrica y C una matriz antisimétrica.
  • En el ejemplo 3 ,verifica g es par y h es impar.

Más adelante…

Los conceptos de suma y suma de subespacios serán utilizados repetidamente. Por ejemplo, a partir de la suma de subespacios se pueden definir las proyecciones, un tipo de transformaciones lineales particulares.

El concepto de suma directa de subespacios también es muy importante en el sentido de que permite descomponer a un espacio en espacios vectoriales más pequeños. Esta idea será de mucha utilidad cuando hablemos de la teoría de dualidad y de diagonalización de matrices.

Entradas relacionadas

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema. Muestra que el conjunto de las funciones continuas f:[0,1]\to \mathbb{R} tales que f\left(\frac{1}{2}\right)=0 con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si f es continua y \lambda\in \mathbb{R} es un escalar, entonces \lambdaf es continua. Más aún, si f\left(\frac{1}{2}\right)=0 y g\left(\frac{1}{2}\right)=0, entonces (f+g) \left( \frac{1}{2}\right) =f\left( \frac{1}{2}\right) + g\left( \frac{1}{2}\right)=0+0=0 y \lambda f\left(\frac{1}{2}\right)=\lambda \cdot 0 =0. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, x es un real arbitrario en [0,1]

  1. Si f,g,h son parte de nuestro conjunto, entonces

        \begin{align*}\left(f+(g+h)\right)(x)&= f(x)+(g+h)(x)\\ &= f(x)+g(x)+h(x) \\ &= (f+g)(x) +h(x)\\ &= ((f+g)+h)(x).\end{align*}


    Aquí estamos usando la asociatividad de la suma en \mathbb{R}
  2. Si f,g son como en las condiciones, dado que la suma en números reales es conmutativa, (f+g)(x)= f(x)+g(x)= g(x)+f(x)=(g+f)(x).
  3. La función constante 0 es un neutro para la suma. Sí está en el conjunto pues la función 0 en cualquier número (en particular en \frac{1}{2}) tiene evaluación 0.
  4. Dada f continua que se anula en \frac{1}{2}, -f también es continua y se anula en \frac{1}{2} y f+(-f)= (-f)+f=0.
  5. Si a,b\in \mathbb{R} entonces a(bf)(x)= a(bf(x))= (ab)f(x), por la asociatividad del producto en \mathbb{R}.
  6. Es claro que la constante 1 satisface que 1\cdot f=f, pues 1 es una identidad para el producto en \mathbb{R}.
  7. (a+b)f(x)= af(x)+bf(x), por la distributividad de la suma en \mathbb{R}
  8. a\cdot (f+g)(x) = a\cdot (f(x)+g(x))= a\cdot f(x)+a\cdot g(x), también por la distributividad de la suma en \mathbb{R}.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

\square

Problema. Muestra que ninguno de los siguientes es un subespacio vectorial de \mathbb{R}^3.

  1. El conjunto U de los vectores x=(x_1, x_2, x_3) tales que x_1^2+x_2^2+x_3^2=1.
  2. El conjunto V de todos los vectores en \mathbb{R}^3 con números enteros por coordenadas.
  3. El conjunto W de todos los vectores en \mathbb{R}^3 que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto U no es cerrado bajo sumas: En efecto, el vector (1,0,0)\in U, pues 1^2+0^2+0^2=1, así como (-1,0,0)\in U, pues (-1)^2+0^2+0^2=1. Sin embargo su suma es (0,0,0), que no es un elemento de U.
  2. Mientras que V si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, (2,8,1)\in V, sin embargo \frac{1}{2} (2,8,1)= \left(1,4,\frac{1}{2}\right)\notin V, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando (1,1,0) y (0,0,1) en W, tenemos que (1,1,0)+(0,0,1)=(1,1,1)\notin W.

\square

Problema. Sea V el conjunto de todas las funciones f:\mathbb{R}\to \mathbb{R} dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo x\in \mathbb{R}:

    \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0.\end{align*}

¿Es V un subespacio de las funciones de \mathbb{R} en \mathbb{R} ?

Solución: En efecto, podemos verificar que V cumple las condiciones de subespacio:

  1. Observamos que la función f\equiv 0 es dos veces diferenciable y satisface

        \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0+x^2 \cdot 0 -3\cdot 0=0.\end{align*}


    Es decir 0\in V. Esto muestra que V es no vacío.
  2. Sean f,g\in V. Sabemos que entonces f+g también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además

        \begin{align*}&(f+g)''(x)+x^2 (f+g)'(x)-3(f+g)(x)\\ & = f''(x)+g''(x)+x^2 f'(x)+x^2 g'(x)-3f(x)-3g(x)\\& = f''(x)+x^2f(x)-3f(x)+ g''(x)+x^2g(x)-3g(x)\\& =0+0=0.\end{align*}


    Así f+g\in V.
  3. Finalmente sea f\in V y sea \lambda \in \mathbb{R} un escalar. Sabemos que \lambda f es dos veces diferenciable, y además

        \begin{align*}&\left(\lambda f\right)''(x)+x^2\left(\lambda f\right)(x)-3(\lambda f)(x)\\ &= \lambda f''(x)+\lambda x^2 f'(x)-\lambda 3f(x)\\ &= \lambda (f''(x)+x^2f'(x)-3f(x))\\ &= \lambda \cdot 0 =0.\end{align*}


    Luego \lambda f\in V.

\square

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que “las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial”. En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema. Sea V el espacio de todas las funciones de \mathbb{R} en \mathbb{R} y sea W el subconjunto de V formado por todas las funciones f tales que f(0)+f(1)=0.

  1. Verifica que W es un subespacio de V.
  2. Encuentra un subespacio S de W tal que V=W\oplus S.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que 0\in W, pues 0(0)+0(1)=0+0=0. Entonces W no es vacío.
    2. Si f,g\in W entonces (f+g)(0)+(f+g)(1)= f(1)+f(0)+g(1)+g(0)=0+0=0.
    3. Si f\in W y \lambda \in \mathbb{R} entonces \lambda f(0)+\lambda f(1)= \lambda(f(0)+f(1))=\lambda \cdot 0=0.
  2. Proponemos S como el subespacio de todas las funciones h tales que h(x)=ax con a\in \mathbb{R}. Verifiquemos que V=W\oplus S.
    1. Si F\in W\cap S entonces F(0)+F(1)=0, es decir F(0)=-F(1), pero como F(x)=ax para algún a\in \mathbb{R} entonces F(0)=0=F(1)=a. Luego F(x)=0\cdot x=0.
    2. Dada f\in V, definimos

          \begin{align*}\hat{f}(x)= f(x)-(f(0)+f(1))x. \end{align*}


      Observamos que \hat{f}\in W, pues

          \begin{align*}\hat{f}(0)+\hat{f}(1)= f(0)+f(1)-f(0)-f(1)=0.\end{align*}


      Además es claro que

          \begin{align*}f(x)&= f(x)-(f(0)+f(1))x+(f(0)+f(1))x\\&= \hat{f}(x)+\left(f(0)+f(1)\right)x\end{align*}


      donde el sumando de la derecha es de la forma a\cdot x. Así S+W=V.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Sea A un conjunto no vacío. Sea \mathcal{P}(A) el conjunto de todos los subconjuntos de A. Definimos las siguientes operaciones:

    \begin{align*}X+Y= X\Delta Y,\hspace{5mm} 1\cdot X=X,\hspace{5mm} 0\cdot X= \emptyset,\end{align*}


dónde \Delta denota la operación de diferencia simétrica. Demuestra que así definido, \mathcal{P}(A) es un espacio vectorial sobre el campo de dos elementos \mathbb{F}_2.

Entradas relacionadas

Álgebra Lineal I: Subespacios vectoriales

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial V que también es un espacio vectorial con las mismas operaciones de V.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea V un espacio vectorial sobre un campo F. Un subespacio vectorial de V, o simplemente un subespacio de V, es un subconjunto no vacío W de V cerrado bajo las operaciones de suma vectorial y multiplicación escalar de V. En otras palabras, W es un subespacio de V si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera u y v elementos de W, se cumple que u+v está en W.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar c en F y vector v en W se cumple que cv está en W.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo F y nos fijamos el espacio vectorial F[x] de polinomios, entonces para cualquier entero n el subconjunto F_n[x] de F[x] de polinomios de grado a lo más n es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, F_n[x] es un subespacio de F[x]. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si W es un subespacio de un espacio vectorial V, entonces W debe tener al vector 0 de V (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que W es no vacío, así que tiene por lo menos un elemento v. Si tomamos al 0 de F y usamos la propiedad (2) de subespacio con 0 y v obtenemos que 0v=0 está en W.
  2. Si W es un subespacio de un espacio vectorial V y v está en W, entonces -v también. Esto se debe a que por la propiedad (2) de subespacio tenemos que (-1)v=-v está en W.
  3. Si V es un espacio vectorial sobre F y W es un subespacio de V, entonces W también es un espacio vectorial sobre F con las mismas operaciones que V. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de V y por lo tanto también para los de W (pues es un subconjunto).
  4. Si W_1 y W_2 son dos subespacios de un espacio vectorial V, entonces la intersección W_1\cap W_2 también lo es.

\square

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector 0, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que \mathcal{C}[0,1], el conjunto de funciones continuas de [0,1] a \mathbb{R}, es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto V de funciones de [0,1] a los reales es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación escalar. El conjunto \mathcal{C}[0,1] es un subconjunto de V.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, \mathcal{C}[0,1] es un subespacio de V.

Por la observación (3) de la discusión previa, obtenemos que \mathcal{C}[0,1] es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación por escalar.

\square

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea V un espacio vectorial sobre el campo F y W un subconjunto de V. Los siguientes enunciados son equivalentes.

  1. W es un subespacio de V de acuerdo a nuestra definición.
  2. Para cualesquiera vectores u y v en W y escalares a y b en F, se tiene que au+bv está en W.
  3. Para cualesquiera vectores u y v en W y cualquier escalar c en F se tiene que cu+v está en W.

Demostración. (1) implica (2). Supongamos que W es un subespacio de V. Tomemos vectores u,v en W y escalares a,b en F. Como W es cerrado bajo producto escalar, se tiene que au está en W. De manera similar, bv está en W. Como W es cerrado bajo sumas, se tiene que au+bv está en W.

(2) implica (3). Supontamos que W satisface (2) y tomemos u,v en W y cualquier escalar c en F. Tomando a=c y b=1 en (2), tenemos que cu+1v=cu+v está en W.

(3) implica (1). Supongamos que W satisface (3). Hay que ver que W es cerrado bajo sumas y producto escalar. Si tomamos u y v en W y al escalar c=1 de F, por (3) obtenemos que cu+v=1u+v=u+v está en W, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar c y al vector w=0, entonces por (3) se tiene que cu+w=cu+0=cu está en W. Esto muestra la cerradura bajo producto escalar.

\square

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que W es un subespacio.

Problema. Considera V el espacio vectorial de matrices en M_n(F). Muestra que el subconjunto W de matrices simétricas forman un subespacio de V.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea c un escalar en F y sean A y B matrices en W, es decir, tales que ^tA=A y ^tB = B. Debemos mostrar que cA+B está en W, es decir, que ^t(cA+B)=cA+B. Usando propiedades de la transpuesta y la hipótesis sobre A y B tenemos que:

    \[^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.\]

Con esto termina la demostración.

\square

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto W. Para cada uno de los casos, piensa por qué la suma de dos elementos de W es de nuevo un elemento de W y por qué el producto de un escalar por un elemento de W es un elemento de W. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos M_2(\mathbb{R}), el subconjunto W de matrices que cumplen que la suma de entradas en su diagonal principal es igual a 0 es un subespacio.
  • En el espacio vectorial F^4, el subconjunto W de vectores cuya primera y tercer entrada son iguales a 0 forman un subespacio.
  • Las funciones acotadas del intervalo [-3, 3] a \mathbb{R} forman un subconjunto W que es un subespacio de las funciones del intervalo [-3,3] a \mathbb{R}.
  • El subconjunto W de vectores (x,y,z) de \mathbb{R}^3 tales que

        \[\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}\]

    es un subespacio de \mathbb{R}^3.
  • Si tomamos W=\mathbb{R}_3[x], entonces este es un subespacio de \mathbb{R}_4[x].
  • Si tomamos W=\mathbb{R}_4[x], entonces este es un subespacio de \mathbb{R}_5[x].
  • El subconjunto W de funciones diferenciables de [0,10] a \mathbb{R} tales que su derivada evaluada en 7 es igual a 0 es un subespacio del espacio de funciones continuas de [0,10] a \mathbb{R}.
  • Las matrices triangulares superiores de M_n(F) forman un subespacio W del espacio M_n(F). Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto W=\{(x,y,z): x^2+y^2+z^2=1\} no es un subespacio de \mathbb{R}^3. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, W debería tener a (0,0,0) para ser subespacio. Pero 0^2+0^2+0^2=0\neq 1. Así, (0,0,0) no está en W y por lo tanto W no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que (1,0,0) está en W, pero 2(1,0,0)=(2,0,0) no.
  • El subconjunto W=\{(0,0), (1,2), (-1,2)\} de \mathbb{R}^2 no es un subespacio, pues (1,2) está en W. Tomando u=(1,2) y v=(1,2), vemos que W no es cerrado bajo sumas pues (1,2)+(1,2)=(2,4) no está en W.
  • Las matrices del subconjunto GL_n(F) de M_n(F), es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz O_n no es invertible, así que no está en GL_n(F).
  • El subconjunto W de funciones f:[-3,3]\to \mathbb{R} diferenciables tales que su derivada en 0 es igual a 2 no es un subespacio de las funciones continuas de [-3,3] a \mathbb{R}. Hay muchas formas de verlo. Podemos darnos cuenta que f(x)=x^2+2x es una de las funciones en W pues f'(x)=2x+2 y f'(0)=2. Sin embargo, 3f no está en W.
  • El subconjunto W de polinomios de \mathbb{R}[x] con coeficientes no negativos no es un subespacio de \mathbb{R}[x]. El polinomio 0 sí está en W y la suma de cualesquiera dos elementos de W está en W. Sin embargo, falla la multiplicación escalar pues x está en W, pero (-1)x=-x no.
  • La unión del eje X, el eje Y y el eje Z de \mathbb{R}^3 es un subconjunto W de \mathbb{R}^3 que no es un subespacio. Cualquier producto escalar queda dentro de W, pero la suma no es cerrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Demuestra que los siguientes conjuntos W son subespacios del espacio vectorial indicado.
    • El subconjunto W de vectores (w,x,y,z) de \mathbb{C}^4 tales que w+x+y+z=0.
    • La colección W de funciones continuas f:[0,1]\to \mathbb{R} tales que \int_0^1 f(x) \, dx = 0 es un subespacio del espacio de funciones de [0,1] a \mathbb{R}.
    • W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\} es un subespacio de las matrices en M_2(\mathbb{R}).
  • Demuestra que los siguientes conjuntos W no son subespacios del espacio vectorial indicado.
    • El subconjunto W de vectores (x,y) de \mathbb{R}^2 tales que xy\geq 0 no es un subespacio de \mathbb{R}^2.
    • El subconjunto W de matrices en M_{3,2}(F) cuyo producto de todas las entradas es igual a 0 no es un subespacio de M_{3,2}
    • Cuando W es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más 3, es imposible que sea un subespacio de \mathbb{C}_3[x].
  • Sea V un espacio vectorial y n un entero positivo. Demuestra que si W_1, W_2, \ldots, W_n son subespacios de V, entonces la intersección

        \[W_1 \cap W_2 \cap \ldots \cap W_n\]

    también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si V es un espacio vectorial, W es un subespacio de V y U es un subespacio de W, entonces U es un subespacio de V.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para “combinarlos” y obtener más subespacios. Una operación muy imporante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector 0. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Entradas relacionadas

Álgebra Lineal I: Espacios vectoriales

Introducción

En la primer unidad de este curso de álgebra lineal estudiamos a profundidad al conjunto F^n con sus operaciones de suma y multiplicación por escalar. Luego, hablamos de las matrices en M_{m,n}(F) y vimos cómo pensarlas como transformaciones lineales. Les dimos una operación de producto que en términos de transformaciones lineales se puede pensar como la composición. Luego, hablamos de la forma escalonada reducida de una matriz y cómo llevar cualquier matriz a esta forma usando reducción gaussiana. Esto nos permitió resolver sistemas de ecuaciones lineales homogéneos y no homogeneos, así como encontrar inversas de matrices. Las habilidades desarrolladas en la primer parte del curso serán de mucha utilidad para la segunda, en donde hablaremos de espacios vectoriales.

En esta entrada definiremos el concepto de espacio vectorial y vectores. Para hacer esto, tomaremos como motivación el espacio F^n, que ya conocemos bien. Sin embargo, hay muchos otros ejemplos de objetos matemáticos que satisfacen la definición que daremos. Hablaremos de algunos de ellos.

En el transcurso de la unidad también hablaremos de otros conceptós básicos, como la de subespacio. Hablaremos de conjuntos linealmente independientes, de generadores y de bases. Esto nos llevará a establecer una teoría de la dimensión de un espacio vectorial. Las bases son de fundamental importancia pues en el caso de dimensión finita, nos permitirán pensar a cualquier espacio vectorial “como si fuera F^n “. Más adelante precisaremos en qué sentido es esto.

Después, veremos cómo pasar de un espacio vectorial a otro mediante transformaciones lineales. Veremos que las transformaciones entre espacios vectoriales de dimensión finita las podemos pensar prácticamente como matrices, siempre y cuando hayamos elegido una base para cada espacio involucrado. Para ver que estamos haciendo todo bien, debemos verificar que hay una forma sencilla de cambiar esta matriz si usamos una base distinta, y por ello estudiaremos a las matrices de cambio de base.

Esta fuerte relación que existe entre transformaciones lineales y y matrices nos permitirá llevar información de un contexto a otro. Además, nos permitirá definir el concepto de rango para una matriz (y transformación vectorial). Hasta ahora, sólo hemos distinguido entre matrices invertibles y no invertibles. Las matrices invertibles corresponden a transformaciones lineales que “guardan toda la información”. El concepto de rango nos permitirá entender de manera más precisa cuánta información guardan las transformaciones lineales no invertibles.

Recordando a F^n

Antes de definir el concepto de espacio vectorial en toda su generalidad, recordemos algunas de las cosas que suceden con F^n. De hecho, puedes pensar en algo mucho más concreto como \mathbb{R}^4.

Como recordatorio, comenzamos tomando un campo F y dijimos que, para fines prácticos, podemos pensar que se trata de \mathbb{R} y \mathbb{C}. A los elementos de F les llamamos escalares.

Luego, consideramos todas las n-adas de elementos de F y a cada una de ellas le llamamos un vector. A F^n le pusimos una operación de suma, que tomaba dos vectores en F^n y nos daba otro. Además, le pusimos una operación de producto por escalar, la cual tomaba un escalar en F y un vector en F^n y nos daba como resultado un vector. Para hacer estas operaciones procedíamos entrada a entrada.

Sin embargo, hay varias propiedades que demostramos para la suma y producto por escalar, para las cuales ya no es necesario hablar de las entradas de los vectores. Mostramos que todo lo siguiente pasa:

  1. (Asociatividad de la suma) Para cualesquiera vectores u,v,w en F^n se cumple que (u+v)+w=u+(v+w).
  2. (Conmutatividad de la suma) Para cualesquiera vectores u,v en F^n se cumple que u+v=v+u.
  3. (Identidad para la suma) Existe un vector 0 en F^n tal que u+0=u=0+u.
  4. (Inversos para la suma) Para cualquier vector u en F^n existe un vector v en F^n tal que u+v=0=v+u.
  5. (Distributividad para la suma escalar) Para cualesquiera escalares a,b en F y cualquier vector v en F^n se cumple que (a+b)v=av+bv.
  6. (Distributividad para la suma vectorial) Para cualquier escalar a en F y cualesquiera vectores v,w en F^n se cumple que a(v+w)=av+aw.
  7. (Identidad de producto escalar) Para la identidad multiplicativa 1 del campo F y cualquier vector v en F^n se cumple que 1v=v.
  8. (Compatibilidad de producto escalar) Para cualesquiera dos escalares a,b en F y cualquier vector v en F^n se cumple que (ab)v=a(bv).

Los primeros cuatro puntos son equivalentes a decir que la operación suma en F^n es un grupo conmutativo. Resulta que hay varios objetos matemáticos que satisfacen todas estas ocho propiedades o axiomas de espacio vectorial, y cuando esto pasa hay muchas consecuencias útiles que podemos deducir. La esencia del álgebra lineal precisamente consiste en deducir todo lo posible en estructuras que tienen las ocho propiedades anteriores. Estas estructuras son tan especiales, que tienen su propio nombre: espacio vectorial.

Definición de espacio vectorial

Estamos listos para la definición crucial del curso.

Definición. Sea F un campo. Un espacio vectorial sobre el campo F es un conjunto V con operaciones de suma y producto por escalar, que denotaremos por

    \begin{align*}+:& V\times V \to V \quad \text{y}\\\cdot:& F\times V \to V,\end{align*}

para las cuales se cumplen las ocho propiedades de la sección anterior. En otras palabras:

  • El conjunto V es un grupo conmutativo con la suma
  • Se tiene asociatividad para la suma escalar y la suma vectorial
  • Se tiene identidad y compatibilidad de la mulltiplicación escalar.

A los elementos de F les llamamos escalares. A los elementos de F^n les llamamos vectores. Para hacer restas, las definimos como u-v=u+(-v), donde -v es el inverso aditivo de v con la suma vectorial. Usualmente omitiremos el signo de producto escalar, así que escribiremos av en vez de a\cdot v para a escalar y v vector.

La definición da la impresión de que hay que verificar muchas cosas. De manera estricta, esto es cierto. Sin embargo, de manera intuitiva hay que pensar que a grandes rasgos los espacios vectoriales son estructuras en donde podemos sumar elementos entre sí y multiplicar vectores por escalares (externos) sin que sea muy complicado.

Como ya mencionamos, el conjunto F^n con las operaciones de suma y multiplicación por escalar que se hacen entrada por entrada es un espacio vectorial sobre F. En lo que resta de la entrada, hablaremos de otros ejemplos de espacios vectoriales que nos encontraremos frecuentemente.

Espacios vectoriales de matrices

Otros ejemplos de espacios vectoriales con los que ya nos encontramos son los espacios de matrices. Dado un campo F y enteros positivos m y n, el conjunto de matrices en M_{m,n}(F) es un espacio vectorial en donde la suma se hace entrada a entrada y la multiplicación escalar también.

¿Qué es lo que tenemos que hacer para mostrar que en efecto esto es un espacio vectorial? Se tendrían que verificar las 8 condiciones en la definición de espacio vectorial. Esto lo hicimos desde la primer entrada del curso, en el primer teorema de la sección “Operaciones de vectores y matrices”. Vuelve a leer ese teorema y verifica que en efecto se enuncian todas las propiedades necesarias.

Aquí hay que tener cuidado entonces con los términos que se usan. Si estamos hablando del espacio vectorial F^n, las matrices no forman parte de él, y las matrices no son vectores. Sin embargo, si estamos hablando del espacio vectorial M_{m,n}(F), entonces las matrices son sus elementos, y en este contexto las matrices sí serían vectores.

Ejemplo. Sea \mathbb{F}_2 el campo con 2 elementos. Consideremos M_{2}(\mathbb{F}_2). Este es un espacio vectorial. Tiene 16 vectores de la forma \begin{pmatrix} a & b \\ c & d \end{pmatrix}, en donde cada entrada es 0 o 1. La suma y la multiplicación por escalar se hacen entrada a entrada y con las reglas de \mathbb{F}_2. Por ejemplo, tenemos

    \[\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.\]

\square

Espacios vectoriales de funciones

Ahora veremos algunos ejemplos de espacios vectoriales cuyos elementos son funciones. Esto puede parecer algo abstracto, pero en unos momentos veremos algunos ejemplos concretos que nos pueden ayudar a entender mejor.

Sea F un campo y consideremos cualquier conjunto X. Consideremos el conjunto V de todas las posibles funciones de X a F. A este conjunto queremos ponerle operaciones de suma y de multiplicación por escalar.

Para definir la suma, tomemos dos funciones que van de X a F, digamos f:X\to F y g:X\to F. Definiremos a la función f+g como la función que a cada x en X lo manda a f(x)+g(x). Aquí estamos usando la suma del campo F. En símbolos, (f+g):X\to F tiene regla de asignación

    \[(f+g)(x)=f(x)+g(x).\]

Para definir el producto por escalar, tomamos una función f:X\to F y un escalar c en el campo F. La función cf será la función cf:X\to F con regla de asignación

    \[(cf)(x)=cf(x)\]

para todo x en X.

Resulta que el conjunto V de funciones de X a F con estas operaciones de suma y producto, es un espacio vectorial. Podemos probar, por ejemplo, la asociatividad de la suma. Para ello, la primer cosa que necesitamos mostrar es la asociatividad de la suma. Es decir, que si tenemos f:X\to F, g:X\to F y h:X\to F, entonces

    \[(f+g)+h = f+ (g+h).\]

Esta es una igualdad de funciones. Para que sea cierta, tenemos que verificarla en todo el dominio, así que debemos mostrar que para todo x en X tenemos que

    \[((f+g)+h)(x)=(f+(g+h))(x).\]

Para demostrar esto, usemos la definición de suma de funciones y la asociatividad de la suma del campo F. Con ello, podemos realizar la siguiente cadena de igualdades:

    \begin{align*}((f+g)+h)(x)&=(f+g)(x)+h(x)\\&=(f(x)+g(x)) + h(x) \\&=f(x) + (g(x)+h(x)) \\&=f(x) + (g+h)(x)\\&=(f+(g+h))(x).\end{align*}

Así, la suma en V es asociativa. El resto de las propiedades se pueden demostrar con la misma receta:

  • Se enuncia la igualdad de funciones que se quiere mostrar.
  • Para que dicha igualdad sea cierta, se tiene que dar en cada elemento del dominio, así que se evalúa en cierta x.
  • Se prueba la igualdad usando las definiciones de suma y producto por escalar, y las propiedades de campo de F.

Ejemplo. El ejemplo anterior es muy abstracto, pues X puede ser cualquier cosa. Sin embargo, hay muchos espacios de funciones con los cuales se trabaja constantemente. Por ejemplo, si el campo es el conjunto \mathbb{R} de reales y X es el intervalo [0,1], entonces simplemente estamos hablando de las funciones que van de [0,1] a los reales.

Si tomamos f:[0,1]\to \mathbb{R} y g:[0,1]\to \mathbb{R} dadas por

    \begin{align*}f(x)&= \sin x - \cos x\\ g(x) &= \cos x + x^2,\end{align*}

entonces su suma simplemente es la función f+g:[0,1]\to \mathbb{R} definida por (f+g)(x)=\sin x + x^2. Si tomamos, por ejemplo, el escalar 2, entonces la función 2f:[0,1]\to \mathbb{R} no es nada más que aquella dada por

    \[(2f)(x)= 2\sin x - 2\cos x.\]

Así como usamos el intervalo [0,1], pudimos también haber usado al intervalo [-2,2), al (-5,\infty], o a cualquier otro.

\square

Espacios vectoriales de polinomios

Otro ejemplo de espacios vectoriales que nos encontraremos frecuentemente son los espacios de polinomios. Si no recuerdas con precisión cómo se construyen los polinomios y sus operaciones, te recomendamos repasar este tema con material disponible aquí en el blog.

Dado un campo F y un entero positivo n usaremos F[x] para referirnos a todos los polinomios con coeficientes en F y usaremos F_n[x] para referirnos a aquellos polinomios con coeficientes en F y grado a lo más n. Aunque el polinomio cero no tiene grado, también lo incluiremos en F_n[x].

Ejemplo. Si F es \mathbb{C}, el campo de los números complejos, entonces todos los siguientes son polinomios en \mathbb{C}[x]:

    \begin{align*}p(x)&=(2+i)x^6 + (1+i),\\ q(x)&=3x^2+2x+1,\\ r(x)&=5x^7+(1-3i)x^5-1.\end{align*}

Tanto p(x) como q(x) están en \mathbb{C}_6[x], pues su grado es a lo más 6. Sin embargo, r(x) no está en \mathbb{C}_6[x] pues su grado es 7.

El polinomio q(x) también es un elemento de \mathbb{R}[x], pues tiene coeficientes reales. Pero no es un elemento de \mathbb{R}_1[x] pues su grado es demasiado grande.

\square

Recuerda que para sumar polinomios se tienen que sumar los coeficientes de grados correspondientes. Al hacer multiplicación por escalar se tienen que multiplicar cada uno de los coeficientes. De esta forma, si f(x)=x^2+1 y g(x)=x^3+\frac{x^2}{2}-3x-1, entonces

    \[(f+g)(x)=x^3+\frac{3x^2}{2}-3x,\]

y

    \[(6g)(x)=6x^3+3x^2-18x-6.\]

Resulta que F[x] con la suma de polinomios y con el producto escalar es un espacio vectorial. Puedes verificar cada uno de los axiomas por tu cuenta.

Observa que la suma de dos polinomios de grado a lo más n tiene grado a lo más n, pues no se introducen términos con grado mayor que n. Del mismo modo, si tenemos un polinomio con grado a lo más n y lo multiplicamos por un escalar, entonces su grado no aumenta. De esta forma, podemos pensar a estas operaciones como sigue:

    \begin{align*}+:& F_n[x] \times F_n[x] \to F_n[x]\\\cdot: & F\times F_n[x] \to F_n[x].\end{align*}

De esta forma, F_n[x] con la suma de polinomios y producto escalar de polinomios también es un espacio vectorial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • A partir de los axiomas de espacio vectorial, muestra lo siguiente para un espacio vectorial V:
    • La identidad de la suma vectorial es única, es decir, que si existe otro elemento e en V tal que u+e=u=e+u para todo u en V, entonces e=0.
    • Que si 0 es la identidad aditiva del campo F y v es cualquier vector en V, entonces 0v es la identidad de la suma vectorial. En símbolos, 0v=0, donde el primer 0 es el de F y el segundo el de V.
    • Se vale la regla de cancelación para la suma vectorial, es decir, que si u,v,w son vectores en V y u+v=u+w, entonces v=w.
    • Se vale la regla de cancelación para el producto escalar, es decir, que si a es un escalar no cero del campo F y u,v son vectores de V para los cuales au=av, entonces u=v.
    • Que el inverso aditivo de un vector v para la suma vectorial en V es precisamente (-1)v, es decir, el resultado de hacer la multiplicación escalar de v con el inverso aditivo del 1 del campo F.
  • Sea V un espacio vectorial sobre \mathbb{R}. Sean u, v y w vectores en V. Justifica la siguiente igualdad enunciando de manera explícita todos los axiomas de espacio vectorial que uses

        \[u+5v-3w+2u-8v= -3(w+v-u).\]

  • Termina de demostrar que en efecto los espacios de funciones con la suma y producto escalar que dimos son espacios de funciones.
  • Enlista todos los polinomios de (\mathbb{F}_2)_3[x]. A continuación hay algunos:

        \[0, x+1, x^2+x, x^3+1.\]

    Para cada uno de ellos, encuentra quien es su inverso aditivo para la suma vectorial de (\mathbb{F}_2)_3[x].

Más adelante…

Ya dimos la definición de espacio vectorial y vimos varios ejemplos. Dentro de algunas entradas veremos como conseguir muchos más espacios vectoriales.

En el último ejemplo pasa algo curioso: el espacio F_n[x] es un subconjunto del espacio F[x] y además es un espacio vectorial con las mismas operaciones que F[x]. Este es un fenómeno muy importante en álgebra lineal. Decimos que F_n[x] es un subespacio de F[x]. En la siguiente entrada definiremos en general qué es un subespacio de un espacio vectorial y veremos algunas propiedades que tienen los subespacios.

Entradas relacionadas

Álgebra Lineal I: Reducción gaussiana en sistemas lineales AX=b

Introducción

Ya usamos el algoritmo de reducción gaussiana para estudiar sistemas de ecuaciones homogéneos. En esta entrada aplicamos lo que hemos aprendido de este método para resolver sistemas de ecuaciones no homogéneos.

Para hacer esto, adaptaremos la técnica para sistemas homogéneos (que en realidad, no es muy diferente) y la usamos para probar un resultado muy importante, llamado el teorema de existencia y unicidad. Damos unos cuantos ejemplos y concluimos con la prometida demostración de la unicidad de la forma escalonada reducida.

Adaptando el vocabulario

Consideramos un sistema lineal AX=b con A\in M_{m,n}(F) y b\in F^{m}, con variables x_1, \dots, x_n que son las coordenadas de X\in F^{n}. Para resolver el sistema consideramos la matriz aumentada \left(A\vert b\right) obtenida de A al añadir al vector b como columna hasta la derecha.

Ejemplo. Si

    \begin{align*}A= \begin{pmatrix} 0 & 1 & 2\\-1 & 0 &1 \end{pmatrix} \text{ y } b= \begin{pmatrix} 12 \\ 14 \end{pmatrix}\end{align*}

entonces

    \begin{align*}\left(A\vert b\right)= \begin{pmatrix} 0 & 1 & 2 & 12\\ -1 & 0 & 1 & 14\end{pmatrix}\end{align*}

\square

Las operaciones elementales del sistema se traducen entonces en operaciones elementales en la matriz aumentada, por lo que para resolver el sistema podemos primero llevar a la matriz aumentada a su forma escalonada y reducida y después resolver el sistema más sencillo. Esto lo podríamos hacer siempre y cuando al realizar operaciones elementales en la matriz aumentada no se modifique el conjunto de soluciones del sistema. Esto lo garantiza la siguiente proposición.

Proposición. Sea el sistema lineal AX=b. Supongamos que la matriz \left(A'\vert b'\right) se obtiene a partir de la matriz \left( A\vert b\right) realizando una sucesión finita de operaciones elementales. Entonces los sistemas AX=b y A'X=b' son equivalentes, es decir, tienen el mismo conjunto de soluciones.

Demostración: Como ya hemos visto anteriormente, realizar operaciones elementales en \left(A \vert b\right) es equivalente a realizar operaciones elementales en las ecuaciones del sistema AX=b, pero ya sabemos que estas no alteran el conjunto de soluciones, pues son reversibles (es decir, podemos siempre deshacer los cambios).

\square

El teorema de existencia y unicidad

Llegamos ahora a otro resultado clave de nuestro estudio de ecuaciones. Es una caracterización que responde a nuestras preguntas: ¿Hay soluciones? ¿Son únicas? Además, nos puede sugerir cómo encontrarlas.

Teorema. (De existencia y unicidad) Supongamos que la matriz \left(A\vert b\right) ha sido llevada a su forma escalonada reducida \left(A'\vert b'\right) por operaciones elementales.

  1. (Existencia de soluciones) El sistema AX=b es consistente si y sólo si \left(A'\vert b'\right) no tiene ningún pivote (de filas) en su última columna.
  2. (Unicidad de soluciones) Si el sistema es consistente, entonces tiene una única solución si y sólo si A' tiene pivotes (de filas) en cada columna.

Demostración:

  1. Supongamos que \left(A'\vert b'\right) tiene un pivote en su última columna. Debemos ver que el sistema AX=b no tiene solución. Para esto, basta ver que el sistema A'X=b' no tiene solución, pues es un sistema equivalente.

    Si el pivote aparece en el i-ésimo renglón entonces este es de la forma (0, \dots, 0, 1), pues recordemos que los pivotes son iguales a 1 en la forma escalonada reducida. Entonces entre las ecuaciones del sistema A'X=b' tenemos una de la forma 0 x_1' +\dots +0 x_n'=1, que no tiene solución alguna. Así el sistema A'X=b' no es consistente, y por tanto AX=b tampoco lo es.

    Conversamente, supongamos que \left(A' \vert b'\right) no tiene un pivote en su última columna. Digamos que A' tiene pivotes en las columnas j_1<\dots <j_k \leq n y sean x_{j_1}, \dots, x_{j_k} las correspondientes variables pivote y todas las demás variables son libres. Dando el valor cero a todas las variables libres obtenemos un sistema en las variables x_{j_1}, \dots, x_{j_k}. Este sistema es triangular superior y se puede resolver empezando por la última ecuación, encontrando x_{j_k}, luego x_{j_{k-1}} y así sucesivamente. Así encontramos una solución, por lo que el sistema es consistente. Esta solución encontrada también es una solución a AX=b, pues es un sistema equivalente.
  2. Como le podemos dar cualquier valor escalar a las variables libres, el argumento del párrafo anterior nos dice que la solución es única si y sólo si no tenemos variables libres, pero esto pasa si y sólo si los pivotes llegan hasta la última columna de A'.

\square

Ten cuidado. En la primer parte, la condición se verifica con (A'|b). En la segunda parte, la condición se verifica con A'.

Encontrando y contando soluciones

Por simplicidad, asumamos que F=\mathbb{R}, es decir que nuestro campo de coeficientes del sistema AX=b es el de los números reales. Procedemos como sigue para encontrar el número de soluciones del sistema:

  1. Consideramos la matriz aumentada \left(A\vert b\right).
  2. Llevamos esta matriz a su forma escalonada reducida \left(A'\vert b'\right).
  3. Si esta matriz tiene un renglón de la forma (0, \dots, 0, 1), entonces el sistema es inconsistente.
  4. Si no tiene ningún renglón de esa forma, vemos si todas las columnas de A' tienen al pivote de alguna fila:
    • Si en efecto todas tienen pivote, entonces el sistema tiene una única solución.
    • Si no todas tienen pivote, entonces nuestro sistema tiene una infinidad de soluciones.

En el caso en el que hay una o una infinidad de soluciones, además podemos decir exactamente cómo se ven esas soluciones:

  • Haciendo las variables libres iguales a cero (si es que hay), obtenemos una solución X' al sistema AX=b.
  • Usamos reducción gaussiana para encontrar todas las soluciones al sistema homogéneo AX=0.
  • Finalmente, usamos el principio de superposición. Todas las soluciones a AX=b son de la forma X' más una solución a AX=0.

Problema. Consideremos la matriz

    \begin{align*}A= \begin{pmatrix} 1 & 2 & 2\\ 0 & 1 & 1\\ 2 & 4 &4 \end{pmatrix}.\end{align*}

Dado b\in \mathbb{R}^3, encuentra condiciones necesarias y suficientes en términos de las coordenadas de b para que el sistema AX=b sea consistente.

Solución: Dado b con coordenadas b_1, b_2 y b_3, la matriz aumentada es

    \begin{align*}\left( A\vert b\right) = \begin{pmatrix} 1 & 2 & 2 & b_1 \\ 0 & 1 & 1 & b_2 \\  2 & 4 & 4 & b_3\end{pmatrix}.\end{align*}

Para obtener su forma escalonada reducida sustraemos dos veces el primer renglón del tercero y luego dos veces el segundo del primero, obteniendo así:

    \begin{align*}\left( A\vert b\right) \sim \begin{pmatrix} 1 & 0 & 0 &b_1-2b_2\\ 0 & 1 &  1 & b_2\\ 0 & 0 & 0 &b_3-2b_1\end{pmatrix}.\end{align*}

Por el teorema anterior, el sistema AX=b es consistente si y sólo si esta matriz no tiene pivotes en la última columna, es decir, necesitamos que la entrada de hasta abajo a la derecha sea cero. Así, el sistema es consistente si y sólo si b_3-2b_1=0 o, dicho de otra manera, si y sólo si b_3=2b_1.

\square

Unicidad de la forma escalonada reducida

Concluimos esta entrada con una demostración de la unicidad de la forma escalonada reducida, usando que si dos matrices A y B que difieren por una sucesión finita de operaciones elementales entonces los sistemas AX=0 y BX=0 son equivalentes. La demostración que presentamos (corta y elegante) se debe a Thomas Yuster, publicada en el año 1983.

Teorema. La forma escalonada reducida es única.

Demostración: Procedemos por inducción sobre n, el número de columnas de A\in M_{m,n}(F). El resultado es claro para n=1, pues solo tenemos una columna cero o una columna con un 1 hasta arriba. Supongamos pues que el resultado se cumple para n-1, y demostremos que se cumple para n. Sea A\in M_{m,n}(F) y sea A'\in M_{m,n-1}(F) la matriz que se obtiene al quitarle la n-ésima columna.

Supongamos que B y C son ambas matrices distintas en forma escalonada reducida obtenidas de A. Dado que una sucesión de operaciones elementales que llevan a A a una forma escalonada reducida también llevan a A' a una forma escalonada reducida (si a una matriz escalonada reducida le cortamos una columna, sigue siendo escalonada reducida), podemos aplicar la hipótesis de inducción y concluir que si B y C son distintas entonces difieren en la columna que quitamos y solo en esa.

Sea j tal que b_{jn}\neq c_{jn} (por nuestra discusión previa, existe esta entrada, ya que asumimos que B\neq C). Si X es un vector tal que BX=0 entonces CX=0, ya que A,B y C son matrices equivalentes. Luego (B-C)X=0. Como B y C difieren solo en la última columna, la j-ésima ecuación del sistema se lee (b_{jn}-c_{jn})x_n=0, pues los coeficientes previos son cero. Así, x_n=0 siempre que BX=0 o CX=0. Se sigue que x_n no es una variable libre para B y C, por lo que ambas tienen un pivote en la última columna. Como ambas están en forma escalonada reducida, entonces la última columna tiene necesariamente un 1 en la entrada de hasta abajo y puros ceros en otras entradas, es decir, B y C tienen la misma última columna, una contradicción a nuestras suposiciones.

Se sigue que entonces B=C y queda probado por contradicción el paso inductivo, lo que prueba el teorema.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina cuántas soluciones tiene el sistema AX=b con

        \begin{align*} A=\begin{pmatrix} 0 & 1 &1\\ 2& -4 & 7\\ 0 & 0 & 1 \end{pmatrix}\text{ y } b=\begin{pmatrix} 1 \\ 6 \\-1\end{pmatrix}\end{align*}

  • Si A tiene estrictamente más renglones que columnas y b es un vector que no tiene ninguna entrada cero, ¿puede el sistema AX=b ser consistente?
  • Si A tiene estrictamente más columnas que renglones, ¿puede el sistema AX=0 tener una única solución?
  • Si A\in M_{m,n}(F) es una matriz diagonal, ¿que puedes decir de la consistencia y la unicidad de soluciones del sistema AX=b?

Más adelante…

El método que describimos en esta entrada es muy flexible y poderoso. Permite resolver sistemas de ecuaciones de la forma AX=b de manera metódica. Esto no quiere decir que ya entendamos todo lo que hay que saber de sistemas lineales. Una vez que hayamos introducido los conceptos de espacio vectorial y subespacio, podremos describir con más precisión cómo son las soluciones a un sistema lineal. Además, más adelante, veremos otras formas en las que se pueden resolver sistemas de ecuaciones usando determinantes. En particular, veremos la regla de Cramer.

Por ahora, nos enfocaremos en una aplicación más de la reducción gaussiana: encontrar inversas de matrices. Veremos esto en la siguiente entrada.

Entradas relacionadas