Archivo de la etiqueta: suma vectorial

Álgebra Superior I: Sistemas de ecuaciones lineales

Por Eduardo García Caballero

Introducción

Una de las aplicaciones más importantes de los vectores y matrices tiene que ver con un tema que conociste desde la secundaria y preparatoria: los sistemas de ecuaciones.

Más específicamente, los vectores y matrices nos serán de gran utilidad para resolver sistemas de ecuaciones lineales, determinar cuándo un sistema sí tiene soluciones, y cuáles son todas sus soluciones.

Pero antes, repasemos un poco los conceptos de sistemas de ecuaciones lineales.

Sistemas de ecuaciones lineales

Recordemos que una ecuación es una expresión en la que hay variables o valores que no conocemos. En el caso de una ecuación lineal, se trata de ecuaciones en las que todas sus variables se encuentran elevadas a la primera potencia y acompañadas únicamente por coeficientes constantes. Por ejemplo, podemos ver que las expresiones
\[
2x + 9y – z = 3,
\qquad
4w + 3000a = y + \tfrac{1}{2}x
\]
son ecuaciones lineales, mientras que las expresiones
\[
ax^2 + bx + c = 0,
\qquad
2xz = 9y
\]
no lo son, pues contienen al menos una variable elevada a exponentes distintos de $1$, o bien hay variables multiplicándose entre sí.

De manera más formal, una ecuación de lineal es una ecuación que se puede escribir de la forma
\[
a_1x_2 + a_2x_2 + \cdots + a_nx_n = b,
\]
donde $x_1, \ldots, x_n$ son variables y $a_1, \ldots, a_n, b$ son coeficientes, todos del mismo tipo (en este curso trabajaremos con coeficientes reales, pero en otros cursos podrás encontrar coeficientes de otros tipos, como son números enteros, racionales, y complejos, entre otros).

Por su parte, un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales. Por ejemplo, los siguientes son sistemas de ecuaciones lineales:
\[
\begin{cases}
2x -\tfrac{3}{2}y + 8z = 1 \\
9z + 2w + 5y = 3,
\end{cases}
\qquad
\begin{cases}
2 + 9a = 46b -5c \\
2d + 8x = \sqrt{3} \\
x + y + z = a + b + c \\
x = -y
\end{cases}
\]
Bajo esta definición, una única ecuación se puede considerar un sistema de ecuaciones lineales (con una ecuación).

Notemos que no es necesario que todas las ecuaciones compartan variables, sin embargo, generalmente esto sí sucederá. De hecho, podemos pensar que todas las variables aparecen en todas las ecuaciones. En caso de que esto no suceda, podemos considerar que las variables que no aparecen en una ecuación tienen coeficiente cero. Además, siempre podemos reordenar las variables en las ecuaciones para que en todas ellas aparezcan en el mimo orden. Por ejemplo, a continuación el sistema de ecuaciones a la izquierda lo podemos escribir como el de la derecha, sin alterarlo.

\[
\begin{cases}
2x -\tfrac{3}{2}z + 8y = 11 \\
9z + 2w + 5k = -3,
\end{cases}
\qquad
\begin{cases}
0k+0w+2x + 8y – \tfrac{3}{2}z = 11 \\
5k+2w+0x+0y+9z = -3.
\end{cases}
\]

¿Qué quiere decir resolver un sistema de ecuaciones lineales?

Como recordarás, encontrar una solución de una ecuación corresponde a encontrar valores que, al sustituirlos en las variables, hagan que la expresión sea verdadera. Por ejemplo, si tenemos la ecuación $2x-3y=0$, una solución está dada por $x=3$ y $y=2$, ya que al sustituir en efecto tenemos $(2)(3)-(3)(2)=0$. En ocasiones, una ecuación puede tener más de una solución. Por ejemplo, en este caso otra posible solución es $x=6$ y $y=4$, ya que al sustituir en efecto tenemos $(2)(6)-(3)(4)=0$. Para esta ecuación hemos encontrado entonces dos posibles soluciones. Pero aún no la hemos resuelto. Como veremos un poco más abajo, para resolverla tenemos que alcanzar una meta más grande.

Para el caso de sistemas de ecuaciones lineales, encontrar una solución consiste en dar una asignación de valores a las variables que hagan que todas las ecuaciones sean ciertas simultáneamente. Por ejemplo, podemos verificar que los valores
\[
x = 3 \quad y =5 \quad z = -2
\]
hacen que cada una de las ecuaciones en el sistema
\[
\begin{cases}
x + 2y – z = 15 \\
4x – y + z = 5
\end{cases}
\]
se cumplan simultáneamente. Otra posible solución está dada por la asignación
\[
x = 1 \quad y =15 \quad z = 16.
\]

Cuando hablamos de resolver una ecuación o un sistema de ecuaciones no nos bastará encontrar unas cuantas soluciones que funcionen. Queremos encontrar todas las posibles soluciones.

Como ejemplo más sencillo, tratemos de encontrar todas las soluciones del sigueinte sistema con una única ecuación
\[
\begin{cases}
2x + 3y – z = 5.
\end{cases}
\]

Si despejamos $x$ en la ecuación, obtenemos
\[
x = \frac{-3y+z+5}{2}.
\]
Esto nos indica que podemos escoger valores arbitrarios de $y$ y $z$, y el valor de $x$ quedará determinado por estos valores.

Entonces, la solución de la ecuación son todas las $(x,y,z)$ tales que $x = \frac{-3y+z+5}{2}$; es decir, todas las soluciones del sistema de ecuaciones son de la forma
\[
\left( \frac{-3y+z+5}{2}, y, z \right).
\]

Otra manera de decir esto es que el conjunto de soluciones para el sistema de ecuaciones es el siguiente:

$$S:=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}.$$

Esto ahora sí resuelve el sistema, pues hemos encontrado una descripción para todas las posibles soluciones del sistema. Si tomas los valores que quieras para $y$ y $z$, podrás dar una solución. Por ejemplo, al tomar $y=1,z=2$ obtenemos la solución $(2,1,2)$, la cual puedes verificar que es una solución al sistema de ecuaciones de una ecuación con el que comenzamos. Toda posible solución está en $S$. Como $y$ y $z$ pueden valer lo que sea, las llamamos variables libres. A $x$, que queda totalmente determinada una vez fijas las variables libres, la llamamos variable pivote.

¿Qué sucede si tenemos más ecuaciones? Tratemos de encontrar todas las soluciones para el sistema de ecuaciones siguiente
\[
\begin{cases}
y+z =1 \\
3x+2y+5z&=1.
\end{cases}
\]

Podemos intentar lo mismo que arriba y fijar algún valor e intentar poner al resto en términos de ese. Pero hay que ser cuidadosos. Por ejemplo, al fijar el valor de $x$, no podremos despejar a $y$ (ni a $z$) en términos únicamente de $x$. Sin embargo, fijamos el valor de $z$, sí podemos determinar todo completamente.

Al fijar $z$, entonces $y$ queda determinado como $y = -z + 1$. Sustituyendo este valor de $y$ en la segunda ecuación, obtendremos $3x + 2(-z+1) + 5z = 1$, que equivale a $3x +3z = -1$, de donde tenemos que $x = -z -1/3 $. Entonces, podemos pensar a $z$ como la variable libre y como $y$ y $x$ dependen completamente de $z$, las pensamos como variables pivote. La descripción de las soluciones quedaría entonces como

$$R=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}.$$

Aunque ahora hemos tenido éxito con describir totalmente las soluciones de dos sistemas de ecuaciones y en ambos casos hemos tenido una infinidad de soluciones, lo cierto es que existen sistemas de ecuaciones sin solución. Por ejemplo, consideremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
4x + 3y = 8.
\end{cases}
\]
Podemos ver que cada una de las ecuaciones, de manera individual, tienen soluciones, y hasta podríamos encontrar todas las posibles soluciones (¿puedes dar un par de ejemplos de cada una?). Sin embargo, no existen valores de $x$ y $y$ que resuelvan ambas ecuaciones al mismo tiempo. Esto lo podemos observar porque, si multiplicamos la segunda ecuación por $3$, obtendremos el sistema
\[
\begin{cases}
12x + 9y = 7 \\
12x + 9y = 24.
\end{cases}
\]
Si hubiera alguna solución, podríamos igualar ambas ecuaciones y llegar a que $7=24$, una contradicción.

Interpretación geométrica

El primer conjunto solución que encontramos arriba se puede reescribir en términos de cada variable $y$ y $z$ usando la suma y producto escalar que estudiamos en entradas anteriores de la siguiente manera:

\begin{align*}
S&=\left\{\left( \frac{-3y+z+5}{2}, y, z \right):y,z\in \mathbb{R}\right\}\\
&=\left\{y(-3/2,1,0) + z(1/2,0,1) + (5/2,0,0):y,z\in \mathbb{R}\right\}.
\end{align*}

Posiblemente hayas visto expresiones en algún curso de geometría analítica. Lo anterior es un plano en $\mathbb{R}^3$ que pasa por el punto $(5/2,0,0)$ y generado a partir de ese punto por los vectores $(-3/2,1,0)$ y $(1/2,0,1)$.

Del mismo modo, en el segundo ejemplo que vimos arriba el sistema de ecuaciones puede reescribirse como:

\begin{align*}
R&=\{(-z-1/3,-z+1,z):z\in \mathbb{R}\}\\
&=\{(-1/3,1,0)+z(-1,-1,1):z\in \mathbb{R}\},
\end{align*}

que posiblemente identifiques como la recta en $\mathbb{R}^3$ que parte del punto $(-1/3,1,0)$ y tiene dirección $(-1,-1,1)$.

Forma matricial de un sistema de ecuaciones

Como vimos en una entrada previa, dos vectores del mismo tamaño son iguales si y sólo si sus respectivas entradas son iguales. Una consecuencia de esta definición es que el sistema de ecuaciones
\[
\begin{cases}
a_{11}x_1 + a_{12}x_2 + \cdots + a_{1n}x_n & = b_1 \\
a_{21}x_1 + a_{22}x_2 + \cdots + a_{2n}x_n & = b_2 \\
& \vdotswithin{\mspace{15mu}} \\
a_{m1}x_1 + a_{m2}x_2 + \cdots + a_{mn}x_n &= b_m
\end{cases}
\]
se cumple si y sólo si
\[
\begin{pmatrix}
a_{11}x_1 + a_{12}x_2 + \cdots a_{1n}x_n \\
a_{21}x_1 + a_{22}x_2 + \cdots a_{2n}x_n \\
\vdots \\
a_{m1}x_1 + a_{m2}x_2 + \cdots a_{mn}x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

Más aún, observemos que el lado izquierdo de esta igualdad lo podemos reescribir como un producto de matriz con vector de la siguiente manera
\[
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\begin{pmatrix}
x_1 \\
x_2 \\
\vdots \\
x_n
\end{pmatrix}
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix},
\]
lo cual podemos denotar como
\[
Ax = b.
\]

Entonces, podemos decir que nuestro sistema tiene solución si existe un vector $x = \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}$ tal que $Ax = b$, donde
\[
A
=
\begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & \vdots & \ddots & \vdots \\
a_{m1} & a_{m2} & \cdots & a_{mn}
\end{pmatrix}
\quad
\text{y}
\quad
b
=
\begin{pmatrix}
b_1 \\
b_2 \\
\vdots \\
b_m
\end{pmatrix}.
\]

A la expresión $Ax=b$ le llamamos la forma matricial del sistema de ecuaciones.

Ejemplo de la utilidad de la forma matricial

La forma matricial de un sistema de ecuaciones es sumamente útil, como veremos en las siguientes entradas. Pero veamos un pequeño ejemplo de una de sus aplicaciones. Supongamos que sabemos que la matriz $A$ es invertible con inversa $A^{-1}$. Recordemos que entonces se cumple que$A^{-1}A = \mathcal{I}$. Gracias a esto, podemos comenzar con la forma matricial del sistema de ecuaciones y deducir lo siguiente:
\begin{align*}
&Ax = b \\
\Rightarrow & A^{-1}Ax = A^{-1}b \\
\Rightarrow &x = A^{-1}b.
\end{align*}

Es decir, si conocemos la matriz inversa de $A$, ¡podemos obtener de manera única el vector que resuelve el sistema de ecuaciones mediante una multiplicación de matriz por vector!

Aún cuando no hemos visto el método general para saber si una matriz tiene inversa, ya vimos previamente qué sucede con una matriz de $2\times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\]

Así, verifiquemos mediante un ejemplo que el método que mostramos sirve para encontrar soluciones de sistemas de ecuaciones. Consideremos el sistema de ecuaciones
\[
\begin{cases}
2x + 8y &= 9 \\
-3x + 4y &= 2.
\end{cases}
\]

Este sistema puede ser representado en forma matricial como
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix}.
\]

Como recordarás de entradas pasadas, la matriz inversa de $\begin{pmatrix} 2 & 8 \\ -3 & 4 \end{pmatrix}$ es
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}^{-1}
=
\frac{1}{2\cdot4 – 8\cdot(-3)}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\frac{1}{32}
\begin{pmatrix}
4 & -8 \\
3 & 2
\end{pmatrix}
=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}.
\]

Entonces si multiplicamos esta por matriz por la izquierda a ambos lados de la ecuación
\[
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
=
\begin{pmatrix}
9 \\
2
\end{pmatrix},
\]
obtendremos
\begin{align*}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
2 & 8 \\
-3 & 4
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
1/8 & -1/4 \\
3/32 & 1/16
\end{pmatrix}
\begin{pmatrix}
9 \\
2
\end{pmatrix}
\\[5pt]
\begin{pmatrix}
1 & 0 \\
0 & 1
\end{pmatrix}
\begin{pmatrix}
x \\
y
\end{pmatrix}
&=
\begin{pmatrix}
5/8 \\
31/32
\end{pmatrix},
\end{align*}
lo que equivale a $x = 5/8$, $y = 31/32$; la solución del sistema. ¡Verifica que es solución!

Más adelante…

En esta entrada repasamos los conceptos y definiciones sobre sistemas de ecuaciones lineales, y nos adentramos a ver cómo existe una relación directa entre los sistemas de ecuaciones lineales y el producto de una matriz por un vector, así como que las matrices invertibles guardan relación con la solución del sistema.

Que la matriz asociada a un sistema de ecuaciones sea invertible en realidad no pasa tanto, y se tienen que desarrollar métodos más generales para resolver sistemas de ecuaciones. En la siguiente entrada conoceremos un algoritmo que nos permitirá resolver sistemas de ecuaciones con una cantidad arbitraria de variables y ecuaciones, y determinar exactamente cómo se ven todas las soluciones.

Tarea moral

  1. Usa el método de las variables libres y las variables pivote para describir al conjunto solución del siguiente sistema de ecuaciones y descríbelo geométricamente. Tendrás que elegir apropiadamente el orden en el que vas fijando las variables.
    \begin{cases}
    w+2x + 8y + 3z&= 0 \\
    -3x + 4y + z&= -1\\
    x+z&=2.\\
    \end{cases}
  2. Usa el método de la inversa para resolver los siguientes tres sistemas de ecuaciones:
    \[
    \begin{cases}
    2x + 8y &= 4 \\
    -3x + 4y &= 1,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 3 \\
    -3x + 4y &= -2,
    \end{cases} \quad \begin{cases}
    2x + 8y &= 1 \\
    -3x + 4y &= -1.
    \end{cases}
    \]
  3. Intenta usar el método de las variables libres y pivote en el siguiente sistema de ecuaciones y explica qué dificultad tiene intentar usarlo directamente:
    \[
    \begin{cases}
    x + y &= 4 \\
    y+z &= 1\\
    z+x&=2.
    \end{cases}
    \]
    ¿Cómo describirías a un sistema de ecuaciones en el cuál se puede hacer el método de variables libres y pivote cómodamente?
  4. Considera un sistema de ecuaciones en forma matricial $Ax=b$. Demuestra que si $x$ y $x’$ son soluciones a este sistema, entonces $\frac{x+x’}{2}$ también lo es. Explica cómo puedes usar esto para a partir de dos soluciones $x$ y $x’$ distintas conseguir una infinidad de soluciones. Concluye que cualquier sistema de ecuaciones lineales o bien no tiene solución, o bien tiene una única solución, o bien tiene una infinidad de soluciones.
  5. Encuentra una matriz no invertible $A$ y un vector $b$ tales que el sistema de ecuaciones $Ax=b$ sí tenga solución. En ese sistema que diste, ¿la solución es única o puedes encontrar otra?

Entradas relacionadas

Geometría Analítica I: Propiedades de suma y producto escalar

Por Elsa Fernanda Torres Feria

Introducción

En la actual entrada se estudian propiedades de las dos operaciones (suma vectorial y producto escalar) que se definieron anteriormente. Utilizaremos los axiomas de $\mathbb{R}$ para probar algunas de estas propiedades y las ejemplificaremos.

Propiedades de suma y producto escalar

Aunque nosotros nos enfocaremos por el momento en $\mathbb{R}^2$, el siguiente teorema se puede demostrar para $\mathbb{R}^n$, donde este último es el conjunto de todos los vectores $$x=(x_1,x_2,\ldots, x_n),$$ con $x_i \in \mathbb{R}$, $i=1,2,\ldots,n$. Conforme vayas desarrollando tu intuición matemática, te darás cuenta que realizar la generalización no es tan compleja. Recuerda que la idea es que podemos utilizar los axiomas de $\mathbb{R}$ para demostrar propiedades de las operaciones en $\mathbb{R}^2$.

Teorema. Para todos los vectores $x$, $y$, $z$ $\in \mathbb{R}^2$ y para todos los números $s$, $t$ $\in \mathbb{R}$ se cumple que:

  1. $(x+y)+z=x+(y+z)$
  2. $x+y=y+x$
  3. $x+0=x$
  4. $x+(-x)=0$
  5. $s(tx)=(st)x$
  6. $1x=x$
  7. $t(x+y)=tx+ty$
  8. $(s+t)x=sx+tx$

Por contexto se entiende que el $0$ de los puntos $3$ y $4$ corresponde al vector $(0,0)$, aunque en notación no haya distinción. Además en $4$, estamos usando la definición $-x:=(-1)x$. Aunque todo el teorema está enunciado en términos algebraicos, más adelante, en esta misma entrada, habrá algunos interactivos para que obtengas la intuición geométrica de estas propiedades.

Demostración. Para no caer en repetición del uso de ciertas herramientas, a continuación demostraremos sólo algunos de los ocho puntos. Puedes demostrar los restantes como tarea moral y pensar también en la generalización para $\mathbb{R}^n$. Comencemos.

Sean $x=(x_1,x_2)$, $y=(y_1,y_2)$, $z=(z_1,z_2)$ vectores arbitrarios en $\mathbb{R}^2$.

1. Debemos demostrar la igualdad $(x+y)+z=x+(y+z)$ en vectores.

\begin{align*}
(x+y)+z&=((x_1,x_2)+(y_1,y_2))+(z_1,z_2)\\
&=(x_1+y_1,x_2+y_2)+(z_1,z_2)\\
&=((x_1+y_1)+z_1, (x_2+y_2)+z_2)\\
&=(x_1+(y_1+z_1),x_2+(y_2+z_2))\\
&=(x_1,x_2)+((y_1,y_2)+(z_1,z_2)\\
&=(x+y)+z=x+(y+z).
\end{align*}

Para cada una de las igualdades anteriores existe una justificación. El primer renglón se da meramente por la definición de cada vector. La siguientes dos igualdades resultan de la definición de suma de vectores que, como la definimos, debe ser realizada coordenada a coordenada. Ahora, por asociatividad de la suma de los números reales, el renglón 4 es válido. El penúltimo parece un as sacado de la manga pero en realidad es de nuevo pensar en la definición de suma de vectores: tenemos una igualdad entre la suma de dos vectores y la suma de sus entradas formando el vector suma. Por último sólo sustituimos las entradas por el vector que representan.

5. Debemos demostrar la igualdad $s(tx)=(st)x$ con $s,t$ números reales y $x$ vector.

Por definición del vector $x$ tenemos:

$s(tx)=s(t(x_1,x_2))$

Por definición del producto escalar se cumplen los siguientes dos pasos:

$=s(tx_1,tx_2)$
$=(s(tx_1),s(tx_2))$

Por la asociatividad del producto en $\mathbb{R}$ pasa que:

$=((st)x_1,(st)x_2)$

De nuevo parece que el siguiente paso es otro as, pero piensa en la definición del producto escalar leyéndolo de derecha a izquierda:

$=(st)(x_1,x_2)$
$s(tx)=(st)x.$

7. Debemos demostrar la igualdad $t(x+y)=tx+ty$ con $t$ número real y $x,y$ vectores.

\begin{align*}
t(x+y)&=t((x_1,x_2)+(y_1,y_2))\\
&=t(x_1+y_1,x_2+y_2)\\
&=(t(x_1+y_1),t(x_2+y_2))\\
&=(tx_1+ty_1,tx_2+ty_2)\\
&=(tx_1,tx_2)+(ty_1,ty_2)\\
&=t(x_1,x_2)+t(y_1,y_2)\\
&=tx+ty.
\end{align*}

Resumamos los pasos. El primer paso es por definición de ambos vectores, el siguiente por definición de suma vectorial y el tercero por definición de multiplicación escalar. En este punto, en cada entrada del vector tenemos únicamente números reales por lo que podemos usar distributividad en $\mathbb{R}$. Para finalizar recordemos la definición de la suma vectorial y la multiplicación escalar leyendo ambas de derecha a izquierda.

8. Debemos demostrar la igualdad $(s+t)x=sx+tx$ con $s$ y $t$ reales y $x$ vector.

Por definición de $x$ tenemos:

$(s+t)x=(s+t)(x_1,x_2)$

Por definición del produco escalar:

$=((s+t)x_1,(s+t)x_2)$

Por distributividad de los números reales:

$=(sx_1+tx_1,sx_2+tx_2)$

Por definición de la suma vectorial:

$=(sx_1,sx_2)+(tx_1,tx_2)$

Por definición del producto escalar:

$(s+t)x=s(x_1,x_2)+t(x_1,x_2)$

$\square$

Demostramos algunas de las propiedades. Para el resto de ellas hay que seguir las mismas ideas. Si te das cuenta, lo único que utilizamos en esta demostración fueron los axiomas de los números reales, la definición de las operaciones usadas y algo de intuición para saber qué paso sigue.

Intuición geométrica de las propiedades

Si recuerdas, Descartes asoció el álgebra a la geometría y al menos en este curso, el álgebra que desarrollemos tiene un significado geométrico. A continuación describiremos algunos de los puntos que demostramos e ilustraremos otros con ayuda de GeoGebra.

1. $(x+y)+z=x+(y+z)$. En el siguiente interactivo están representados tres vectores $X$, $Y$, $Z$. En negro se encuentra el vector $X+Y+Z$. Se utiliza el método del paralelogramo de dos formas distintas: Primero, sumando $X+Y$ y al resultado sumandole $Z$. La segunda suma primero a $Y+Z$ y al resultado se suma $X$. Es notorio que por ambos caminos se llega al mismo punto correspondiente a $X+Y+Z$.

5. $s(tx)=(st)x$. En el siguiente interactivo puedes utilizar los deslizadores para cambiar los valores de $s,t \in \mathbb{R}$. Parece que sólo un vector con dos etiquetas de distinto color se mueve, pero son dos vectores (uno por cada etiqueta) ambos dependientes de $s$ y $t$ como lo indica cada lado de la igualdad. Que sólo puedas ver claramente uno, indica que hicimos lo correcto pues son dos vectores iguales.

Para los siguientes dos casos sólo describiremos lo que pasa y lo óptimo sería que lograras usar GeoGebra para hacer la representación gráfica de ellos.

7. $t(x+y)=tx+ty$. Nos indica que el resultado de sumar dos vectores primero y después multiplicarlos por un escalar es el mismo que primero multiplicar cada vector por él y luego sumar los resultados.

8. $(s+t)x=sx+tx$. Nos indica que el resultado de sumar los dos escalares primero y después multiplicar el resultado por el vector, es lo mismo que multiplicar el vector por cada escalar y sumar los resultados.

Existe un término para denotar a un conjunto con dos operaciones (suma vectorial y producto escalar), que cumple con las ocho propiedades del teorema que acabamos de demostrar: espacio vectorial. Así, este teorema se resume al decir que $\mathbb{R}^2$ con la suma vectorial y el producto escalar es un espacio vectorial.

Ecuaciones con vectores

Ahora veamos cómo podemos usar estas propiedades en la resolución de problemas. Nos serán de mucha ayuda cuando tengamos ecuaciones constituidas por vectores, ¿es posible resolverlas igual que cuando se tienen variables numéricas? Resulta que hay cosas que sí podemos realizar de la misma manera, como «pasar del otro lado» un vector sumando o restando y dividir por escalares, veámoslo en el siguiente ejemplo.

Ejemplo. Sean $x, u, v$ $\in \mathbb{R}^2$, donde $u=(5,3)$ y $v=(-3,1)$. ¿Es posible encontrar al vector $x$ que cumpla con

$-3u+2x=v-x$?

Nuestra variable es el vector $x$, el paso más lógico es despejarlo. Sumando $3u+x$ de ambos lados tenemos

$3x=v+3u$

Podemos ahora dividir ambos lados por el escalar $3$ y obtener

$x=\frac{v+3u}{3}$

Esto tiene sentido pues si bien tenemos un vector entre un escalar, podemos re-pensar esto como el vector multiplicado por $1/3$. En este punto podemos sustituir los valores correspondientes para $v$ y $u$ para así obtener al $x$ que buscamos

$x=\frac{(-3,1)+3(5,3)}{3}$
$=\frac{(12,10)}{3}$
$x=(4,10/3)$

$\triangle$

Aunque haya cosas que podemos hacer de manera equivalente a los reales en casos como el mostrado en el ejemplo, hay otras que no son viables como dividir entre un vector. Aún así, podemos obtener herramientas que nos auxilien. Para cerrar esta entrada enunciaremos y demostraremos dos lemas que servirán para trabajar con operaciones vectoriales.

Lema 1. Si $x \in \mathbb{R}^2$ y $t \in \mathbb{R}$ son tales que $tx=0$ (por contexto $0=(0.0)$), entonces $t=0$ o $x=0$.

Demostración.

  • Supongamos que $t\neq 0$. P. D. $x=(0,0)$.

Como $t \neq 0$, entonces existe su inverso multiplicativo $t^{-1}$ tal que $t^{-1}t=1$. Multiplicando $t^{-1}$ en ambos lados de la ecuación $tx=0$ tenemos:

$t^{-1}(tx)=t^{-1}0$
$(t^{-1}t)x=t^{-1}0=0$
$x=0$

En el primer renglón sólo multiplicamos por $t^{-1}$; el segundo es válido por el punto $5$ del teorema anterior, y lo último se da por lo enunciado arriba: $t^{-1}t=1$.

Esto ya prueba lo que queremos, pero también podríamos hacer la prueba «al revés», pensando en qué sucede cuando $x\neq 0$.

  • Supongamos ahora que $x \neq 0$ P.D. $t=0$.

Sea $x=(x_1,x_2)$, entonces

$tx=t(x_1,x_2)$
$=(tx_1,tx_2)=0=(0,0)$

Esto se encuentra igualado al vector $0$ por lo cual tienen que ser iguales entrada a entrada

$tx_1=0$ y $tx_2=0$

ahora, existen 3 casos que cumplen $x \neq 0$. Uno, que $x_1 \neq 0$ pero $x_2=0$. De manera análoga, el segundo es que $x_1=0$ pero $x_2 \neq 0$. Por último que tanto $x_1$ como $x_2$ sean ambos distintos de cero.

Sin perdida de generalidad, supongamos el caso 1. Como $x_1 \neq 0$, entonces

$tx_1=0$ $\rightarrow$ $t=0$,

pues esto se satisface para los números reales. La demostración del segundo caso es análoga, sólo se debe tomar $x_2$. La demostración del tercer caso se puede hacer igual que el primero, o el segundo.

$\square$

Lema 2. Si $x \in \mathbb{R}^2$ es distinto de cero y $t$, $s$ $\in \mathbb{R}$ son tales que $tx=sx$, entonces $t=s$.

Demostración.

Sea $x=(x_1,x_2)$ un vector arbitrario, podemos escribir a $tx=sx$ como

$t(x_1,x_2)=s(x_1,x_2)$
$\Rightarrow$ $(tx_1,tx_2)=(sx_1,sx_2)$

Para que se cumpla la igualdad tienen que ser iguales entrada a entrada

$\Rightarrow$ $tx_1=sx_1$ y $tx_2=sx_2.$

Como $x$ no es el vector cero, alguno de $x_1$ ó $x_2$ es distinto de cero. En este punto ya estamos operando únicamente con números reales, por lo que podemos «cancelar » $x_1$ ó $x_2$ (el que no sea cero). De aquí, concluimos que $s=t$, como queremos.

$\square$

Más adelante…

Las propiedades aquí vistas nos servirán como herramienta a lo largo del curso. Como ya las demostramos, tendremos la libertas de usarlas más adelante. Esto será de suma utilidad para cuando definamos objetos geométricos como rectas, planos, circunferencias, y queramos hablar de sus propiedades.

Tarea moral

  • Realiza la demostración de los puntos faltantes en el teorema enunciado en esta entrada.
  • Realiza la representación gráfica de estos y también de los puntos que sólo fueron explicados. Puedes usar GeoGebra si así lo deseas.
  • Considera los vectores $u=(-9,17)$ y $v=(51,-3)$ en $\mathbb{R}^2$. Encuentra el vector $x \in \mathbb{R}^2$ tal que $3x-5u=7v-x$.
  • Si es posible, encuentra $a,b \in \mathbb{R}$ tales que $au+bv=w$, con $u$ y $v$ los vectores del ejemplo visto en esta entrada y $w=(37,-5)$. Si no es posible, argumenta porqué.
  • Así como definimos suma vectorial y producto escalar en $\mathbb{R}^2$, podríamos hacer lo mismo en $\mathbb{R}^3$ o $\mathbb{R}^n$, una vez más haciendo las operaciones entrada a entrada. Por ejemplo, en $\mathbb{R}^4$ tendríamos $2(5,1,0,1)+(3,-1,0,-2)=(10,2,0,2)+(3,-1,0,-2)=(13,1,0,0)$. Demuestra que los resultados que probamos en esta entrada también se valen para $\mathbb{R}^3$ (y más en general, en $\mathbb{R}^n$).

Álgebra Lineal I: Combinaciones lineales

Por Julio Sampietro

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de $F^n$: Todo vector lo podemos escribir como $x_1 e_1+\dots+x_n e_n$, lo que con nuestro lenguaje será una combinación lineal de los vectores $e_i$.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geométricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea $V$ un espacio vectorial sobre un campo $F$, y sean $v_1, \dots, v_n$ vectores en $V$. Por definición, $V$ contiene a todos los vectores de la forma $c_1 v_1+\dots +c_n v_n$ con $c_1, \dots, c_n \in F$. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean $v_1, \dots, v_n$ vectores en un espacio vectorial $V$ sobre $F$.

  1. Un vector $v$ es una combinación lineal de los vectores $v_1, \dots, v_n$ si existen escalares $c_1,\dots, c_n\in F$ tales que
    \begin{align*}
    v= c_1 v_1 +c_2 v_2+\dots +c_n v_n.
    \end{align*}
  2. El espacio generado (que a veces abreviaremos como el generado) por $v_1, \dots, v_n$ es el subconjunto de $V$ de todas las combinaciones lineales de $v_1,\dots, v_n$, y lo denotamos por $\text{span}(v_1, \dots, v_n)$.

Ejemplo.

  1. La matriz $A=\begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix}$ es una combinación lineal de las matrices $B= \begin{pmatrix} 10 & 0 \\ 5 & 0\end{pmatrix}$ y $C=\begin{pmatrix} 0 & 1 \\ 0 & \frac{1}{2}\end{pmatrix}$ pues $A=\frac{1}{5} B + 2 C$. Así, $A$ está en el generado por $B$ y $C$.
  2. El generado $\text{span}(v)$ de un único vector en $\mathbb{R}^n$ consta de puras copias re-escaladas de $v$ (también nos referimos a estos vectores como múltiplos escalares de $v$). Usando la interpretación geométrica de vectores en $\mathbb{R}^2$ o $\mathbb{R}^3$, si $v\neq 0$ entonces $\text{span}(v)$ representa una recta por el origen en la dirección de $v$.
  3. Si $e_1=(1,0,0)$ y $e_2=(0,1,0)$, entonces
    \begin{align*}
    x e_1+ y e_2=(x,y,0).
    \end{align*}
    Como $x$ y $y$ fueron arbitrarios, podemos concluir que $\text{span}(e_1,e_2)$ consta de todos los vectores en $\mathbb{R}^3$ cuya tercer entrada es cero. Esto es el plano $xy$. En general, si $v_1, v_2$ son dos vectores no colineales en $\mathbb{R}^3$ entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio $3x^{10}+7$ del espacio vectorial $\mathbb{R}_{10}[x]$ no puede ser escrito como combinación lineal de los polinomios $x^{10}+x^2+1$, $x^7+3x+1$, $7x^3$. Para demostrar esto, debemos probar que no existen reales $a,b,c$ tales que $$3x^{10}+7=a(x^{10}+x^2+1)+b(x^7+3x+1)+7cx^3.$$
    Procedamos por contradicción. Si acaso esto fuera posible, desarrollando el producto de la derecha y observando el coeficiente de $x^{10}$, necesitamos que $a$ sea igual a $3$. Pero entonces a la derecha va a quedar un término $3x^2$ que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de $b$ o $c$. Igualando términos cuadráticos, tendríamos entonces $0=3x^2$, lo cual es una contradicción.

$\triangle$

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema 1. Muestra que el vector $(1,1,1)$ de $\mathbb{R}^3$ no se puede expresar como combinación lineal de los vectores

\begin{align*}
v_1= (1,0,0), \hspace{2mm} v_2=(0,1,0)\text{ y } v_3=(1,1,0).
\end{align*}

Solución. Una combinación lineal arbitraria de $v_1, v_2, v_3$ es de la forma

\begin{align*}
x_1 v_1 +x_2 v_2 + x_3 v_3 = (x_1 + x_3, x_2 + x_3, 0)
\end{align*}

para $x_1,x_2,x_3$ reales. Así, las combinaciones lineales de $v_1,v_2,v_2$ siempre tienen a $0$ como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a $(1,1,1)$.

$\square$

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores $v_1, v_2, \dots, v_k$ en $F^n$ y un vector $v\in F^n$, decide si $v$ es una combinación lineal de $v_1, \dots, v_k$. En otras palabras, si $v\in \text{span}(v_1, \dots, v_k)$.

Para resolver este problema, consideramos la matriz de tamaño $n\times k$ cuyas columnas son $v_1, \dots, v_k$. Decir que $v\in \text{span}(v_1, \dots, v_k)$ es lo mismo que encontrar escalares $x_1, \dots, x_k\in F$ tales que $v= x_1 v_1 +\dots +x_k v_k$. De manera equivalente, si tomamos $X=(x_1,\ldots,x_k)$, queremos la existencia de una solución al sistema $AX=v$.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada $(A\vert v)$), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema 2. Sean $v_1=(1,0,1,2), v_2=(3,4,2,1)$ y $v_3=(5,8,3,0)$ vectores en el espacio vectorial $\mathbb{R}^4$. ¿Está el vector $v=(1,0,0,0)$ en el generado de $v_1,v_2$ y $v_3$? ¿El vector $w=(4,4,3,3)$?

Solución. Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

\begin{align*}
A= \begin{pmatrix} 1 & 3 & 5\\ 0 & 4 & 8\\ 1 & 2 & 3\\ 2 & 1 & 0\end{pmatrix}.
\end{align*}

Queremos ver si el sistema $AX=v$ es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducida (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada $(A\vert v)$ es

\begin{align*}
(A\vert v)\sim \begin{pmatrix} 1 & 0 & -1 & 0\\ 0 & 1 &2 & 0\\ 0 & 0 & 0 &1 \\ 0 & 0 & 0 &0\end{pmatrix}.
\end{align*}

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que $v\notin \text{span}(v_1, v_2, v_3)$.

Procedemos de manera similar para el vector $w$. Esta vez tenemos

\begin{align*}
(A\vert w)\sim \begin{pmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & 2 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 &0\end{pmatrix},
\end{align*}

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto $w\in \text{span}(v_1, v_2, v_3)$. Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

\begin{align*}
\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 2\\ 0 & 0 &0 \\ 0 & 0 & 0\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \begin{pmatrix} 1 \\ 1\\ 0 \\ 0\end{pmatrix}.
\end{align*}

Tenemos que ninguna fila tiene su pivote en la columna $3$, así que $x_3$ es variable libre. Las variables $x_1$ y $x_2$ son pivote. Esto nos da como solución $x_1= x_3+1$ y $x_2=1-2x_3$. Entonces podemos escribir

\begin{align*}
w= (1+x_3) v_1 + (1-2x_3) v_2+ x_3v_3
\end{align*}

y esto es válido para cualquier elección de $x_3$. Podemos, por ejemplo, escoger $x_3=0$ y obtener $w=v_1 + v_2$.

$\triangle$

Por supuesto, en el problema anterior pudimos haber encontrado la expresión $w=v_1+v_2$ explorando el problema o por casualidad. Esto sería suficiente para mostrar que $w$ es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea $V$ un espacio vectorial sobre un campo $F$ y $v_1, v_2, \dots, v_n \in V$. Entonces

  1. $\text{span}(v_1, v_2, \dots, v_n)$ es la intersección de todos los subespacios vectoriales de $V$ que contienen a todos los vectores $v_1, \dots, v_n$.
  2. $\text{span}(v_1, v_2, \dots, v_n)$ es el subespacio más chico (en contención) de $V$ que contiene a $v_1,\dots, v_n$.

Demostración. Como la intersección arbitraria de subespacios es un subespacio, la parte $1$ implica la parte $2$. Probemos entonces la parte $1$.

Primero demostremos que $\text{span}(v_1, v_2,\dots, v_n)$ está contenido en todo subespacio $W$ de $V$ que tiene a $v_1, \dots, v_n$. En otras palabras, tenemos que ver que cualquier subespacio $W$ que tenga a $v_1,\ldots,v_n$ tiene a todas las combinaciones lineales de ellos. Esto se sigue de que $W$, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares $\alpha_1,\ldots,\alpha_n$ tenemos que cada uno de $\alpha_1 v_1, \ldots, \alpha_n v_n$ está en $W$ y por lo tanto la combinación lineal (que es la suma de todos estos), también está en $W$.

La afirmación anterior implica que $\text{span}(v_1, \dots, v_n)$ está contenido en la intersección de todos los espacios que tienen a $v_1,\ldots, v_n$, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que $\text{span}(v_1,\ldots,v_n)$ contiene a la intersección de todos los espacios que tienen a $v_1,\ldots,v_n$. Para esto veremos primero que $\text{span}(v_1, \dots, v_n)$ es un subespacio vectorial. Sean $x,y\in \text{span}(v_1, \dots, v_n)$ y $c\in F$ un escalar. Como $x$ y $y$ son, por definición, combinaciones lineales de $v_1, \dots, v_n$, podemos escribir $x=a_1 v_1+\dots +a_n v_n$ para algunos escalares $a_i$ y $y=b_1 v_1+\dots + b_n v_n$ para unos escalares $b_i$. Así

\begin{align*}
x+cy= (a_1+cb_1) v_1 + \dots + (a_n +c b_n) v_n
\end{align*}

también es una combinación lineal de $v_1, \dots, v_n$ y por tanto un elemento del espacio generado. Se sigue que $\text{span}(v_1,\dots, v_n)$ es uno de los subespacios que tienen a $v_1, \dots, v_n$. Así, este generado «aparece» en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que $\text{span}(v_1, \dots, v_n)$ contiene a dicha inteesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si $W$ es cualquier subespacio que contiene a $v_1, \dots, v_n$, entonces «aparece» en la intersección y por tanto $\text{span}(v_1, \dots, v_n)$ está contenido en $W$. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

$\square$

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea $\lbrace W_i\mid i\in I\rbrace$ la familia de todos los subespacios de $V$ que contienen a $v_1, \dots, v_n$.

En el primer párrafo, probamos que

\begin{align*}
\text{span}(v_1,\dots, v_n)\subseteq W_i
\end{align*}

para todo $i\in I$. Luego $\text{span}(v_1, \dots, v_n)\subseteq \bigcap_{i\in I} W_i$.

En el segundo párrafo, probamos que $Span(v_1,\dots, v_n)$ es un subespacio que contiene a $v_1, \dots, v_n$. Es decir, entra en nuestra familia $\lbrace W_i\mid i\in I\rbrace$, es uno de los $W_i$, digamos $W_j$. Entonces

\begin{align*}
\text{span}(v_1, \dots, v_n)= W_j \supseteq \bigcap_{i\in I} W_i.
\end{align*}

En ese momento ya tenemos la primer igualdad: $\text{span}(v_1,\ldots,v_n)=\bigcap_{i\in I} W_i.$

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si $W’$ es un subespacio que contiene a $v_1, \dots, v_n$ entonces también entra en nuestra familia de los $W_i$’s, es decir es $W_{p}$ para algún $p\in I$. Ahora usando el inciso $1$, tenemos que

\begin{align*}
\text{span}(v_1, \dots, v_n)= \bigcap_{i\in I} W_i \subseteq W_p=W’.
\end{align*}

Esto concluye la demostración.

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Se puede expresar al vector $(1,3,0,5)$ como combinación lineal de $(0,1,0,3)$, $(0,-1,2,0)$ y $(2, 0,-1,-6)$? Si sí, encuentra una o más combinaciones lineales que den el vector $(1,3,0,5)$
  2. ¿Se puede expresar al polinomio $1+x^2 +3x^3 -x^4 +x^5$ como combinación lineal de los siguientes polinomios
    \begin{align*}
    x^2-3x^4,\\
    1+x^2-x^5,\\
    2x+x^4,\\
    2+x^2,\\
    5x+5x^2-x^5?
    \end{align*}
  3. Sea $P$ un plano en $\mathbb{R}^3$ por el origen y $L$ una recta de $\mathbb{R}^3$ por el origen y con dirección dada por un vector $v\neq 0$. Demuestra que la intersección de $L$ con $P$ es una recta si y sólo si existen dos vectores en $P$ tal que su suma sea $v$.
  4. Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices $\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}$ y $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$ del espacio $M_{2}$.
    • Los vectores $(1,-1,0)$ y $(1,0,-1)$ del espacio $\mathbb{R}^3$.
    • Los polinomios $1$, $x$, $x^2$ y $x^3$ del espacio $\mathbb{R}[x]$.
  5. Sea $V$ un espacio vectorial. Si $v_1, \dots, v_n, x$ son vectores en un espacio vectorial $V$, ¿será cierto siempre que $\text{span}(v_1, \dots, v_n)\subseteq \text{span}(v_1, \dots, v_n, x)$? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  6. Sean $v_1,\ldots, v_n$ y $x$ vectores en un espacio vectorial $V$. Supongamos que $v_n$ está en $\text{span}(v_1,\ldots,v_{n-1},x)$. Muestra que $$\text{span}(v_1,\ldots,v_{n-1},x)=\text{span}(v_1,\ldots,v_{n-1},v_n).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la primer unidad de este curso de álgebra lineal estudiamos a profundidad al conjunto $F^n$ con sus operaciones de suma y multiplicación por escalar. Luego, hablamos de las matrices en $M_{m,n}(F)$ y vimos cómo pensarlas como transformaciones lineales. Les dimos una operación de producto que en términos de transformaciones lineales se puede pensar como la composición. Luego, hablamos de la forma escalonada reducida de una matriz y cómo llevar cualquier matriz a esta forma usando reducción gaussiana. Esto nos permitió resolver sistemas de ecuaciones lineales homogéneos y no homogeneos, así como encontrar inversas de matrices. Las habilidades desarrolladas en la primer parte del curso serán de mucha utilidad para la segunda, en donde hablaremos de espacios vectoriales.

En esta entrada definiremos el concepto de espacio vectorial y vectores. Para hacer esto, tomaremos como motivación el espacio $F^n$, que ya conocemos bien. Sin embargo, hay muchos otros ejemplos de objetos matemáticos que satisfacen la definición que daremos. Hablaremos de algunos de ellos.

En el transcurso de la unidad también hablaremos de otros conceptos básicos, incluido el de subespacio. Hablaremos de conjuntos linealmente independientes, de generadores y de bases. Esto nos llevará a establecer una teoría de la dimensión de un espacio vectorial. Las bases son de fundamental importancia pues en el caso de dimensión finita, nos permitirán pensar a cualquier espacio vectorial «como si fuera $F^n$ «. Más adelante precisaremos en qué sentido es esto.

Después, veremos cómo pasar de un espacio vectorial a otro mediante transformaciones lineales. Veremos que las transformaciones entre espacios vectoriales de dimensión finita las podemos pensar prácticamente como matrices, siempre y cuando hayamos elegido una base para cada espacio involucrado. Para ver que estamos haciendo todo bien, debemos verificar que hay una forma sencilla de cambiar esta matriz si usamos una base distinta, y por ello estudiaremos a las matrices de cambio de base.

Esta fuerte relación que existe entre transformaciones lineales y y matrices nos permitirá llevar información de un contexto a otro. Además, nos permitirá definir el concepto de rango para una matriz (y transformación vectorial). Hasta ahora, sólo hemos distinguido entre matrices invertibles y no invertibles. Las matrices invertibles corresponden a transformaciones lineales que «guardan toda la información». El concepto de rango nos permitirá entender de manera más precisa cuánta información guardan las transformaciones lineales no invertibles.

Recordando a $F^n$

Antes de definir el concepto de espacio vectorial en toda su generalidad, recordemos algunas de las cosas que suceden con $F^n$. De hecho, puedes pensar en algo mucho más concreto como $\mathbb{R}^4$.

Como recordatorio, comenzamos tomando un campo $F$ y dijimos que, para fines prácticos, podemos pensar que se trata de $\mathbb{R}$ y $\mathbb{C}$. A los elementos de $F$ les llamamos escalares.

Luego, consideramos todas las $n$-adas de elementos de $F$ y a cada una de ellas le llamamos un vector. A $F^n$ le pusimos una operación de suma, que tomaba dos vectores en $F^n$ y nos daba otro. Además, le pusimos una operación de producto por escalar, la cual tomaba un escalar en $F$ y un vector en $F^n$ y nos daba como resultado un vector. Para hacer estas operaciones procedíamos entrada a entrada.

Sin embargo, hay varias propiedades que demostramos para la suma y producto por escalar, para las cuales ya no es necesario hablar de las entradas de los vectores. Mostramos que todo lo siguiente pasa:

  1. (Asociatividad de la suma) Para cualesquiera vectores $u,v,w$ en $F^n$ se cumple que $(u+v)+w=u+(v+w)$.
  2. (Conmutatividad de la suma) Para cualesquiera vectores $u,v$ en $F^n$ se cumple que $u+v=v+u$.
  3. (Identidad para la suma) Existe un vector $0$ en $F^n$ tal que $u+0=u=0+u$.
  4. (Inversos para la suma) Para cualquier vector $u$ en $F^n$ existe un vector $v$ en $F^n$ tal que $u+v=0=v+u$.
  5. (Distributividad para la suma escalar) Para cualesquiera escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(a+b)v=av+bv$.
  6. (Distributividad para la suma vectorial) Para cualquier escalar $a$ en $F$ y cualesquiera vectores $v,w$ en $F^n$ se cumple que $a(v+w)=av+aw$.
  7. (Identidad de producto escalar) Para la identidad multiplicativa $1$ del campo $F$ y cualquier vector $v$ en $F^n$ se cumple que $1v=v$.
  8. (Compatibilidad de producto escalar) Para cualesquiera dos escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(ab)v=a(bv)$.

Los primeros cuatro puntos son equivalentes a decir que la operación suma en $F^n$ es un grupo conmutativo. Resulta que hay varios objetos matemáticos que satisfacen todas estas ocho propiedades o axiomas de espacio vectorial, y cuando esto pasa hay muchas consecuencias útiles que podemos deducir. La esencia del álgebra lineal precisamente consiste en deducir todo lo posible en estructuras que tienen las ocho propiedades anteriores. Estas estructuras son tan especiales, que tienen su propio nombre: espacio vectorial.

Definición de espacio vectorial

Estamos listos para la definición crucial del curso.

Definición. Sea $F$ un campo. Un espacio vectorial sobre el campo $F$ es un conjunto $V$ con operaciones de suma y producto por escalar, que denotaremos por \begin{align*}
+:& V\times V \to V \quad \text{y}\\
\cdot:& F\times V \to V,
\end{align*}

para las cuales se cumplen las ocho propiedades de la sección anterior. En otras palabras:

  • El conjunto $V$ es un grupo conmutativo con la suma.
  • Se tiene asociatividad para la suma escalar y la suma vectorial
  • Se tiene identidad y compatibilidad de la mulltiplicación escalar.

A los elementos de $F$ les llamamos escalares. A los elementos de $F^n$ les llamamos vectores. Para hacer restas, las definimos como $u-v=u+(-v)$, donde $-v$ es el inverso aditivo de $v$ con la suma vectorial. Usualmente omitiremos el signo de producto escalar, así que escribiremos $av$ en vez de $a\cdot v$ para $a$ escalar y $v$ vector.

La definición da la impresión de que hay que verificar muchas cosas. De manera estricta, esto es cierto. Sin embargo, de manera intuitiva hay que pensar que a grandes rasgos los espacios vectoriales son estructuras en donde podemos sumar elementos entre sí y multiplicar vectores por escalares (externos) sin que sea muy complicado.

Como ya mencionamos, el conjunto $F^n$ con las operaciones de suma y multiplicación por escalar que se hacen entrada por entrada es un espacio vectorial sobre $F$. En lo que resta de la entrada, hablaremos de otros ejemplos de espacios vectoriales que nos encontraremos frecuentemente.

Espacios vectoriales de matrices

Otros ejemplos de espacios vectoriales con los que ya nos encontramos son los espacios de matrices. Dado un campo $F$ y enteros positivos $m$ y $n$, el conjunto de matrices en $M_{m,n}(F)$ es un espacio vectorial en donde la suma se hace entrada a entrada y la multiplicación escalar también.

¿Qué es lo que tenemos que hacer para mostrar que en efecto esto es un espacio vectorial? Se tendrían que verificar las 8 condiciones en la definición de espacio vectorial. Esto lo hicimos desde la primer entrada del curso, en el primer teorema de la sección «Operaciones de vectores y matrices». Vuelve a leer ese teorema y verifica que en efecto se enuncian todas las propiedades necesarias.

Aquí hay que tener cuidado entonces con los términos que se usan. Si estamos hablando del espacio vectorial $F^n$, las matrices no forman parte de él, y las matrices no son vectores. Sin embargo, si estamos hablando del espacio vectorial $M_{m,n}(F)$, entonces las matrices son sus elementos, y en este contexto las matrices sí serían vectores.

Ejemplo. Sea $\mathbb{F}_2$ el campo con $2$ elementos. Consideremos $M_{2}(\mathbb{F}_2)$. Este es un espacio vectorial. Tiene $16$ vectores de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, en donde cada entrada es $0$ o $1$. La suma y la multiplicación por escalar se hacen entrada a entrada y con las reglas de $\mathbb{F}_2$. Por ejemplo, tenemos $$\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.$$

$\triangle$

Espacios vectoriales de funciones

Ahora veremos algunos ejemplos de espacios vectoriales cuyos elementos son funciones. Esto puede parecer algo abstracto, pero en unos momentos veremos algunos ejemplos concretos que nos pueden ayudar a entender mejor.

Sea $F$ un campo y consideremos cualquier conjunto $X$. Consideremos el conjunto $V$ de todas las posibles funciones de $X$ a $F$. A este conjunto queremos ponerle operaciones de suma y de multiplicación por escalar.

Para definir la suma, tomemos dos funciones que van de $X$ a $F$, digamos $f:X\to F$ y $g:X\to F$. Definiremos a la función $f+g$ como la función que a cada $x$ en $X$ lo manda a $f(x)+g(x)$. Aquí estamos usando la suma del campo $F$. En símbolos, $(f+g):X\to F$ tiene regla de asignación $$(f+g)(x)=f(x)+g(x).$$

Para definir el producto por escalar, tomamos una función $f:X\to F$ y un escalar $c$ en el campo $F$. La función $cf$ será la función $cf:X\to F$ con regla de asignación $$(cf)(x)=cf(x)$$ para todo $x$ en $X$.

Resulta que el conjunto $V$ de funciones de $X$ a $F$ con estas operaciones de suma y producto, es un espacio vectorial. Podemos probar, por ejemplo, la asociatividad de la suma. Para ello, la primer cosa que necesitamos mostrar es la asociatividad de la suma. Es decir, que si tenemos $f:X\to F$, $g:X\to F$ y $h:X\to F$, entonces $$(f+g)+h = f+ (g+h).$$

Esta es una igualdad de funciones. Para que sea cierta, tenemos que verificarla en todo el dominio, así que debemos mostrar que para todo $x$ en $X$ tenemos que $$((f+g)+h)(x)=(f+(g+h))(x).$$

Para demostrar esto, usemos la definición de suma de funciones y la asociatividad de la suma del campo $F$. Con ello, podemos realizar la siguiente cadena de igualdades:

\begin{align*}
((f+g)+h)(x)&=(f+g)(x)+h(x)\\
&=(f(x)+g(x)) + h(x) \\
&=f(x) + (g(x)+h(x)) \\
&=f(x) + (g+h)(x)\\
&=(f+(g+h))(x).
\end{align*}

Así, la suma en $V$ es asociativa. El resto de las propiedades se pueden demostrar con la misma receta:

  • Se enuncia la igualdad de funciones que se quiere mostrar.
  • Para que dicha igualdad sea cierta, se tiene que dar en cada elemento del dominio, así que se evalúa en cierta $x$.
  • Se prueba la igualdad usando las definiciones de suma y producto por escalar, y las propiedades de campo de $F$.

Ejemplo. El ejemplo anterior es muy abstracto, pues $X$ puede ser cualquier cosa. Sin embargo, hay muchos espacios de funciones con los cuales se trabaja constantemente. Por ejemplo, si el campo es el conjunto $\mathbb{R}$ de reales y $X$ es el intervalo $[0,1]$, entonces simplemente estamos hablando de las funciones que van de $[0,1]$ a los reales.

Si tomamos $f:[0,1]\to \mathbb{R}$ y $g:[0,1]\to \mathbb{R}$ dadas por \begin{align*}f(x)&= \sin x – \cos x\\ g(x) &= \cos x + x^2,\end{align*} entonces su suma simplemente es la función $f+g:[0,1]\to \mathbb{R}$ definida por $(f+g)(x)=\sin x + x^2$. Si tomamos, por ejemplo, el escalar $2$, entonces la función $2f:[0,1]\to \mathbb{R}$ no es nada más que aquella dada por
$$(2f)(x)= 2\sin x – 2\cos x.$$

Así como usamos el intervalo $[0,1]$, pudimos también haber usado al intervalo $[-2,2)$, al $(-5,\infty]$, o a cualquier otro.

$\triangle$

Espacios vectoriales de polinomios

Otro ejemplo de espacios vectoriales que nos encontraremos frecuentemente son los espacios de polinomios. Si no recuerdas con precisión cómo se construyen los polinomios y sus operaciones, te recomendamos repasar este tema con material disponible aquí en el blog.

Dado un campo $F$ y un entero positivo $n$ usaremos $F[x]$ para referirnos a todos los polinomios con coeficientes en $F$ y usaremos $F_n[x]$ para referirnos a aquellos polinomios con coeficientes en $F$ y grado a lo más $n$. Aunque el polinomio cero no tiene grado, también lo incluiremos en $F_n[x]$.

Ejemplo. Si $F$ es $\mathbb{C}$, el campo de los números complejos, entonces todos los siguientes son polinomios en $\mathbb{C}[x]$: \begin{align*}p(x)&=(2+i)x^6 + (1+i),\\ q(x)&=3x^2+2x+1,\\ r(x)&=5x^7+(1-3i)x^5-1.\end{align*}

Tanto $p(x)$ como $q(x)$ están en $\mathbb{C}_6[x]$, pues su grado es a lo más $6$. Sin embargo, $r(x)$ no está en $\mathbb{C}_6[x]$ pues su grado es $7$.

El polinomio $q(x)$ también es un elemento de $\mathbb{R}[x]$, pues tiene coeficientes reales. Pero no es un elemento de $\mathbb{R}_1[x]$ pues su grado es demasiado grande.

$\triangle$

Recuerda que para sumar polinomios se tienen que sumar los coeficientes de grados correspondientes. Al hacer multiplicación por escalar se tienen que multiplicar cada uno de los coeficientes. De esta forma, si $f(x)=x^2+1$ y $g(x)=x^3+\frac{x^2}{2}-3x-1$, entonces $$(f+g)(x)=x^3+\frac{3x^2}{2}-3x,$$ y $$(6g)(x)=6x^3+3x^2-18x-6.$$

Resulta que $F[x]$ con la suma de polinomios y con el producto escalar es un espacio vectorial. Puedes verificar cada uno de los axiomas por tu cuenta.

Observa que la suma de dos polinomios de grado a lo más $n$ tiene grado a lo más $n$, pues no se introducen términos con grado mayor que $n$. Del mismo modo, si tenemos un polinomio con grado a lo más $n$ y lo multiplicamos por un escalar, entonces su grado no aumenta. De esta forma, podemos pensar a estas operaciones como sigue:
\begin{align*}
+:& F_n[x] \times F_n[x] \to F_n[x]\\
\cdot: & F\times F_n[x] \to F_n[x].
\end{align*}

De esta forma, $F_n[x]$ con la suma de polinomios y producto escalar de polinomios también es un espacio vectorial.

Más adelante…

Ya dimos la definición de espacio vectorial y vimos varios ejemplos. Dentro de algunas entradas veremos como conseguir muchos más espacios vectoriales.

En el último ejemplo pasa algo curioso: el espacio $F_n[x]$ es un subconjunto del espacio $F[x]$ y además es un espacio vectorial con las mismas operaciones que $F[x]$. Este es un fenómeno muy importante en álgebra lineal. Decimos que $F_n[x]$ es un subespacio de $F[x]$. En la siguiente entrada definiremos en general qué es un subespacio de un espacio vectorial y veremos algunas propiedades que tienen los subespacios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • A partir de los axiomas de espacio vectorial, muestra lo siguiente para un espacio vectorial $V$:
    • La identidad de la suma vectorial es única, es decir, que si existe otro elemento $e$ en $V$ tal que $u+e=u=e+u$ para todo $u$ en $V$, entonces $e=0$.
    • Que si $0$ es la identidad aditiva del campo $F$ y $v$ es cualquier vector en $V$, entonces $0v$ es la identidad de la suma vectorial. En símbolos, $0v=0$, donde el primer $0$ es el de $F$ y el segundo el de $V$.
    • Se vale la regla de cancelación para la suma vectorial, es decir, que si $u,v,w$ son vectores en $V$ y $u+v=u+w$, entonces $v=w$.
    • Se vale la regla de cancelación para el producto escalar, es decir, que si $a$ es un escalar no cero del campo $F$ y $u,v$ son vectores de $V$ para los cuales $au=av$, entonces $u=v$.
    • Que el inverso aditivo de un vector $v$ para la suma vectorial en $V$ es precisamente $(-1)v$, es decir, el resultado de hacer la multiplicación escalar de $v$ con el inverso aditivo del $1$ del campo $F$.
  • Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Sean $u$, $v$ y $w$ vectores en $V$. Justifica la siguiente igualdad enunciando de manera explícita todos los axiomas de espacio vectorial que uses $$u+5v-3w+2u-8v= -3(w+v-u).$$
  • Termina de demostrar que en efecto los espacios de funciones con la suma y producto escalar que dimos son espacios de funciones.
  • Enlista todos los polinomios de $(\mathbb{F}_2)_3[x]$. A continuación hay algunos: $$0, x+1, x^2+x, x^3+1.$$ Para cada uno de ellos, encuentra quien es su inverso aditivo para la suma vectorial de $(\mathbb{F}_2)_3[x]$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»