Archivo de la etiqueta: campo

1.1. CAMPO Y SUBCAMPO: definiciones y ejemplos

Por Jennyfer Paulina Bennetts Castillo

El ser humano ha hecho un fascinante trabajo construyendo modelos para facilitar la resolución de problemas concretos. Muchos de estos problemas tienen un carácter lineal, es decir, pueden plantearse mediante ecuaciones lineales con coeficientes en algún «conjunto especial» de números y con unas cuantas variables.

El Papiro Rhind considera ecuaciones de primer grado y es el documento matemático más antiguo hallado.

Así es, nos facilitamos la vida reduciendo casi todo a «talachita»: operaciones. Y como buena rama de las matemáticas, esto de «operar» vamos a abstraerlo. Ya no sólo se tratará de números, si no de conjuntos (de «lo que sea») y operaciones («las que sean») que cumplan ciertas condiciones.

CAMPO

Definición: Sea $K$ un conjunto con dos operaciones binarias $+: K \times K \longrightarrow K$ y $\cdot: K \times K \longrightarrow K$. Decimos que $K$ es un campo (y a sus elementos los llamamos escalares) si se cumplen las siguientes propiedades:

  • $+$ es asociativa
    $\forall \alpha ,\beta ,\gamma \in K:$
    $\alpha+(\beta+\gamma)=(\alpha+\beta)+\gamma$
  • $+$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha+\beta=\beta+\alpha$
  • Existe un neutro aditivo
    $\exists 0_K \in K:$
    $\forall \alpha \in K (0_K + \alpha = \alpha + 0_K = \alpha)$
  • Todo elemento $\alpha \in K$ tiene un inverso aditivo
    $\forall \alpha \in K:$
    $\exists (-\alpha) \in K (\alpha+ (-\alpha) = (-\alpha)+\alpha = 0_K)$
  • $\cdot$ distribuye a $+$
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta + \gamma)=\alpha\cdot\beta + \alpha\cdot\gamma$
  • $\cdot$ es asociativa
    $\forall \alpha,\beta,\gamma \in K:$
    $\alpha\cdot(\beta\cdot\gamma)=(\alpha\cdot\beta)\cdot\gamma$
  • $\cdot$ es conmutativa
    $\forall \alpha,\beta \in K:$
    $\alpha\cdot\beta=\beta\cdot\alpha$
  • Existe un neutro multiplicativo
    $\exists 1_K \not= 0_K \in K:$
    $\forall \alpha \in K (1_K \cdot \alpha = \alpha \cdot 1_K = \alpha)$
  • Todo elemento $\alpha \not= 0_K \in K$ tiene un inverso multiplicativo
    $\forall \alpha \not= 0_K \in K:$
    $\exists \alpha^{-1} \in K (\alpha \cdot \alpha^{-1} = \alpha^{-1} \cdot \alpha = 1_K)$

Nota: En un campo vectorial: los neutros (aditivo y multiplicativo) y los inversos (aditivos y multiplicativos) son únicos. Por ello, desde la definición se han denotado de esa manera. Como parte de la tarea moral al final de esta entrada encontrarás ideas para realizar las demostraciones de estas unicidades.

Nota: Para simplificar notación, el producto $\alpha\cdot\beta$ se suele denotar como $\alpha\beta$.

Nota: Si es necesario aclarar que las operaciones con las que se está trabajando están definidas en el campo $K$, se suelen denotar como $+_K$ y $\cdot_K$.

Ejemplos:

  • $\mathbb{R} , \mathbb{Q} , \mathbb{C}$
    con la suma y producto usual respectivamente
  • $\{y+y\sqrt{2} : x,y \in \mathbb{Q}\}$
    con la suma y el producto usual
  • $\mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$
    donde $p$ es primo y $\forall \overline {x}, \overline {y} \in \mathbb{Z}_p$ las operaciones son
    $\overline {x} + \overline {y} = \overline {x+y}$
    $\overline {x} \cdot \overline{y} = \overline {x \cdot y}$
    con $x+y$ la suma usual en $\mathbb{Z}$, $x \cdot y$ el producto usual en $\mathbb{Z}$

¿Cómo funciona $\mathbb{Z}_n$ con $n \in \mathbb{N}$?

$\mathbb{Z}_n$ con $n\in\mathbb{N}^+$ es el conjunto llamado enteros módulo $n$ cuyos $n$ elementos son de la forma $\overline {k}$ $= \{a \in \mathbb{Z} | a \equiv k (mód\, n) \} = \{a \in \mathbb{Z} | a – k = mn, m \in \mathbb{Z} \}$. Es decir, la clase de $k$, con $k \in \mathbb{Z}$ es el conjunto de los números enteros $a$ tales que $a-k$ es múltiplo de $n$.

Obs *. $\overline {k} = \overline {l}$ para toda $l \equiv k$ $(mód\, n)$ pues los elementos de $\overline {k}$ son aquellos congruentes entre sí, módulo $n$.

Ejemplo concreto: $\mathbb{Z}_3$

Tenemos que $\mathbb{Z}_3 = \{ \overline {0}, \overline {1}, \overline {2} \} = \{ \{…, -9, -6, -3, 0, 3, 6, 9, … \}, $$\{…, -8, -5, -2, 1, 4, 7, 10, …\}, $$\{…, -7, -4, -1, 2, 5, 8, 11, … \} \}$

Comprobemos que $\mathbb{Z}_3$ es un campo con las operaciones definidas anteriormente.

Tabla de Cayley de $\mathbb{Z}_3$:

$+$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0+0} = \overline {0}$$\overline {0+1} = \overline {1}$$\overline {0+2} = \overline {2}$
$\overline {1}$$\overline {1+0} = \overline {1}$$\overline {1+1} = \overline {2}$ $\overline {1+2} = \overline {3} = \overline {0}$
$\overline {2}$$\overline {2+0} = \overline {2}$$\overline {2+1} = \overline {3} = \overline {0}$$\overline {2+2} = \overline {4} = \overline {1}$
$\cdot$$\overline {0}$$\overline {1}$$\overline {2}$
$\overline {0}$$\overline {0 \cdot 0} = \overline {0}$$\overline {0 \cdot 1} = \overline {0}$$\overline {0 \cdot 2} = \overline {0}$
$\overline {1}$$\overline {1 \cdot 0} = \overline {0}$$\overline {1 \cdot 1} = \overline {1}$ $\overline {1 \cdot 2} = \overline {2} = \overline {2}$
$\overline {2}$$\overline {2 \cdot 0} = \overline {0}$$\overline {2 \cdot 1} = \overline {2}$$\overline {2 \cdot 2} = \overline {4} = \overline {1}$

Así, es fácil ver que:

  • $+$ y $\cdot$ son asociativas y conmutativas.
  • El único neutro aditivo es $\overline {0}$.
  • El único neutro multiplicativo es $\overline {1}$.
  • Dado $\overline {k} \in \mathbb{Z}_3$ su único inverso aditivo es $\overline {-k}$.
  • Dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_3$ su único inverso multiplicativo es $\overline {k}$

Existencia y exhibición de inversos multiplicativos en $\mathbb{Z}_p$

Ahora veamos un resultado que será muy útil para entender por qué $\mathbb{Z}_n$ con $n \in \mathbb{N}^+$ es un campo si y sólo si $n$ es un primo y para saber cómo obtener el inverso multiplicativo de un elemento dado.

Sea $K=\mathbb{Z}_n$.
Sea $\overline{k}\not= 0_K\in K$. Con el fin de simplificar la demostración, tomaremos $k\in\{0,1,…,n-1\}$ recordando que, de este modo, estamos considerando cualquier posible elemento de $\mathbb{Z}_n$.
$\overline{k}$ tiene inverso $\overline{j}\in K$ si y sólo si

$\begin{align*}
&\overline{k}\cdot\overline{j}=\overline{1}\\
\Leftrightarrow &\overline{k\cdot j}=\overline{1}\tag{def. $\cdot_K$}\\
\Leftrightarrow &k\cdot j\,\equiv 1 (mód\, n)\tag{Obs *}\\
\Leftrightarrow &k\cdot j \,-\, 1 = qn, q \in \mathbb{Z}\tag{def. $a \equiv b (mód\, n)$}\\
\Leftrightarrow &k \cdot j + (-q) \cdot n = 1, (-q) \in \mathbb{Z}\\
\Leftrightarrow &(k,n)\text{ divide a } 1\tag{Prop.del máximo común divisor}\\
\therefore (k,n) = 1
\end{align*}$

Para que $K = \mathbb{Z}_n$ sea un campo, necesitamos que cada $\overline {k} \not= 0_K \in K$ tenga inverso multiplicativo. Por lo tanto se debe cumplir que $(k,n) = 1$ para toda $k \in \{ 0, 1, …, n-1 \}$. Notamos que si $n$ no fuera primo, entonces $n = ab$ con $2 \le a,b \le n-1$. De modo que existe $a \in \{ 1, …, n-1 \}$ tal que $(a,n) = a \not= 1$ y entonces en este caso $K = \mathbb{Z}_n$ no es un campo. A la inversa, si $K = \mathbb{Z}_p$ con $p$ un primo, entonces para cada $a \in \{1, …, n-1 \}$ tenemos que $(a,p)=1$, y por lo anterior $\overline {a}$ tiene un inverso multiplicativo. Así, $K = \mathbb{Z}_p$ es un campo.

Además, dado $\overline {k} \not= \overline {0} \in \mathbb{Z}_p$ con $p$ primo, sabemos, por ser $\mathbb{Z}_p$ un campo, que existe su inverso multiplicativo $\overline {j} \in \mathbb{Z}_p$ y se cumple que $(k,n) = 1$. Para encontrar el inverso multiplicativo de $\overline {k}$ bastaría encontrar $l,m \in \mathbb{Z}$ tales que $k \cdot l + m \cdot n = 1$, para lo cual podemos usar el algorimo de Euclides, y así obtendremos que si tomamos $j=l$, entonces $\overline {j}$ es el elemento que queríamos.

SUBCAMPO

Definición: Sean $K$ un campo y $\tilde {K} \subseteq K$. Decimos que $\tilde {K}$ es un subcampo de $K$ si $\tilde {K}$ con las operaciones restringidas de $K$ es por sí mismo un campo.

Ejemplos:

  • $\mathbb{Q}$ es un subcampo de $\mathbb{R}$
  • $\mathbb{R}$ es un subcampo de $\mathbb{C}$

Propiedad

  • Si $K$ es un campo, entonces cualquiera de sus elementos $\alpha$ cumple que
    $\alpha \cdot 0_K = 0_K$.

Demostración: Sea $\alpha \in K$.
Sea $(-\alpha) \in K$ su inverso aditivo.
Como $0_K$ es el neutro aditivo, $0_K + 0_K = 0_K$.
De donde,

$\begin{align*}
&\alpha \cdot (0_K + 0_K) = \alpha \cdot 0_K\\
\Rightarrow &\alpha \cdot 0_K + \alpha \cdot 0_K = \alpha \cdot 0_K\tag{distrib.}\\
\Rightarrow &(\alpha \cdot 0_K + \alpha \cdot 0_K) + (-(\alpha \cdot 0_K)) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K + (\alpha \cdot 0_K +( -(\alpha \cdot 0_K))) = \alpha \cdot 0_K + (-(\alpha \cdot 0_K))\tag{asociat.}\\
\Rightarrow &\alpha \cdot 0_K + 0_K = 0_K\tag{inv. ad.}\\
\Rightarrow &\alpha \cdot 0_K = 0_K\tag{neutro ad.}\\
\end{align*}$

Nota: Es por esta afirmación que se definen los inversos multiplicativos para los elementos distintos de $0_K$.

Característica de un campo

Definición: Sea $K$ un campo. Se le llama característica de $K$, y se denota como $car(K)$ al menor número natural $n$ tal que $\underbrace{1_K + … + 1_K}_{n} = 0_K$ si acaso existe.
En caso contrario, decimos que $car(K)$ es cero.

Obs. La característica de un campo no puede ser 1 (es decir, si no es cero, entonces es mayor o igual a 2) pues por definición $1_K \not= 0_K$. Y más que eso, resulta que si no es cero, entonces es un número primo.

Ejemplos:

  • $car(\mathbb{Z}_p) = p$
    donde $p$ es primo.

Justificación:
Sea $K = \mathbb{Z}_p = \{\overline {0},\overline {1},…,\overline {p-1}\}$ con cada uno de esos elementos distintos entre sí.
De modo que $p$ es el mínimo natural tal que $\underbrace{1_K + … + 1_K}_{p} = \underbrace{\overline{1} + … + \overline{1}}_{p}$
$= \overline {\underbrace{1 + … + 1}_{p}} = \overline{p} = \overline{0}$

  • $car(\mathbb{Q}) = car(\mathbb{R}) = car(\mathbb{C}) = 0$

Justificación:
Sea $K\in \{\mathbb{Q}, \mathbb{R},\mathbb{C} \}$.
$\underbrace{1_K + … + 1_K}_{n} = n \cdot (1_K) = n \not= 0_K$ $\forall n \in \mathbb{N}, n \not=0$

Propiedades

  • Si $K$ es un campo tal que $car(K) = 0$, entonces $K$ no tiene cardinalidad finita.

Demostración: Como $car(K) = 0$, entonces $\underbrace{1_K + … + 1_K}_{n} \not= 0_K \in K$ para cualquier $n \in \mathbb{N}$.
Así, $\{ 1_K, 1_K + 1_K, …, \underbrace{1_K + … + 1_K}_{n}, … \} \subseteq K$ y no es difícil concluir que cada uno de los elementos de este subconjunto son distintos, de modo que tiene cardinalidad no finita.

  • Si $K$ es un campo tal que $car(K) = 2$, entonces $\alpha + \alpha = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\alpha + \alpha = 1_K \cdot (\alpha + \alpha) = 1_K \cdot \alpha + 1_K \cdot \alpha =$$\alpha \cdot 1_K + \alpha \cdot 1_K = \alpha \cdot (1_K + 1_K)$
Como $car(K) = 2$, entonces $1_K + 1_K = 0_K$, por lo cual $\alpha \cdot (1_K + 1_K) = \alpha \cdot 0_K = 0_K$

  • En general, si $K$ es un campo tal que $car(K) = n \not= 0_K$, entonces $\underbrace{\alpha +…+ \alpha}_{n} = 0_K$ para cualquier $\alpha \in K$.

Demostración: Por ser $1_K \in K$ el neutro aditivo de $K$ y por las propiedades de campo obtenemos que
$\underbrace{ \alpha + … + \alpha }_{n} = 1_K \cdot (\underbrace{ \alpha + … + \alpha }_{n}) =$$\underbrace{ 1_K \cdot \alpha +…+ 1_K \cdot \alpha}_{n}= \underbrace{ \alpha \cdot 1_K +…+ \alpha \cdot 1_K}_{n} =$$\alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n})$.
Como $car(K) = n$, entonces $\underbrace{ 1_K +…+ 1_K}_{n} = 0_K$, por lo cual $\alpha \cdot ( \underbrace{ 1_K +…+ 1_K}_{n}) = \alpha \cdot 0_K = 0_K$

Tarea Moral

Sea $K$ un campo. Demuestra la unicidad de:

  1. El neutro aditivo en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de campo, que existe $0_K$ neutro aditivo.
    • Primero sup. que existe ${0_K}’ \in K$ que también lo es. Con el objetivo de demostrar que $0_K = {0_K}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $0_K = 0_K + {0_K}’ = {0_K}’$
  1. Los inversos aditivos en $K$.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $\alpha \in K$. Sabemos por la definición de campo, que existe $(-\alpha) \in K$ inverso aditivo de $\alpha$.
    • Primero sup. que existe $(-\alpha)’ \in K$ que también lo es. Con el objetivo de demostrar que $(-\alpha) = (-\alpha)’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $(-\alpha) = (-\alpha) + 0_K = (-\alpha) + (\alpha + (-\alpha)’)$$= ((-\alpha) + (\alpha)) + (-\alpha)’$
    • Completa la demostración con las igualdades necesarias y justifícalas.
  1. El neutro multiplicativo en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas al neutro aditivo y justificar cada una.
  1. Los inversos multiplicativos en $K$.
    Para lograrlo, se te sugiere realizar igualdades análogas a los inversos aditivos y justificar cada una.

Más adelante…

Ahora el concepto de campo vamos a usarlo para obtener un nuevo concepto básico y central en este curso: espacio vectorial.

Entradas relacionadas

Álgebra Lineal I: Subespacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial $V$ que también es un espacio vectorial con las mismas operaciones de $V$.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Un subespacio vectorial de $V$, o simplemente un subespacio de $V$, es un subconjunto no vacío $W$ de $V$ cerrado bajo las operaciones de suma vectorial y multiplicación escalar de $V$. En otras palabras, $W$ es un subespacio de $V$ si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera $u$ y $v$ elementos de $W$, se cumple que $u+v$ está en $W$.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar $c$ en $F$ y vector $v$ en $W$ se cumple que $cv$ está en $W$.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo $F$ y nos fijamos el espacio vectorial $F[x]$ de polinomios, entonces para cualquier entero $n$ el subconjunto $F_n[x]$ de $F[x]$ de polinomios de grado a lo más $n$ es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, $F_n[x]$ es un subespacio de $F[x]$. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si $W$ es un subespacio de un espacio vectorial $V$, entonces $W$ debe tener al vector $0$ de $V$ (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que $W$ es no vacío, así que tiene por lo menos un elemento $v$. Si tomamos al $0$ de $F$ y usamos la propiedad (2) de subespacio con $0$ y $v$ obtenemos que $0v=0$ está en $W$.
  2. Si $W$ es un subespacio de un espacio vectorial $V$ y $v$ está en $W$, entonces $-v$ también. Esto se debe a que por la propiedad (2) de subespacio tenemos que $(-1)v=-v$ está en $W$.
  3. Si $V$ es un espacio vectorial sobre $F$ y $W$ es un subespacio de $V$, entonces $W$ también es un espacio vectorial sobre $F$ con las mismas operaciones que $V$. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de $V$ y por lo tanto también para los de $W$ (pues es un subconjunto).
  4. Si $W_1$ y $W_2$ son dos subespacios de un espacio vectorial $V$, entonces la intersección $W_1\cap W_2$ también lo es.

$\square$

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector $0$, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que $\mathcal{C}[0,1]$, el conjunto de funciones continuas de $[0,1]$ a $\mathbb{R}$, es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto $V$ de funciones de $[0,1]$ a los reales es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación escalar. El conjunto $\mathcal{C}[0,1]$ es un subconjunto de $V$.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, $\mathcal{C}[0,1]$ es un subespacio de $V$.

Por la observación (3) de la discusión previa, obtenemos que $\mathcal{C}[0,1]$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones de suma de funciones y multiplicación por escalar.

$\square$

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea $V$ un espacio vectorial sobre el campo $F$ y $W$ un subconjunto de $V$. Los siguientes enunciados son equivalentes.

  1. $W$ es un subespacio de $V$ de acuerdo a nuestra definición.
  2. Para cualesquiera vectores $u$ y $v$ en $W$ y escalares $a$ y $b$ en $F$, se tiene que $au+bv$ está en $W$.
  3. Para cualesquiera vectores $u$ y $v$ en $W$ y cualquier escalar $c$ en $F$ se tiene que $cu+v$ está en $W$.

Demostración. (1) implica (2). Supongamos que $W$ es un subespacio de $V$. Tomemos vectores $u,v$ en $W$ y escalares $a,b$ en $F$. Como $W$ es cerrado bajo producto escalar, se tiene que $au$ está en $W$. De manera similar, $bv$ está en $W$. Como $W$ es cerrado bajo sumas, se tiene que $au+bv$ está en $W$.

(2) implica (3). Supongamos que $W$ satisface (2) y tomemos $u,v$ en $W$ y cualquier escalar $c$ en $F$. Tomando $a=c$ y $b=1$ en (2), tenemos que $cu+1v=cu+v$ está en $W$.

(3) implica (1). Supongamos que $W$ satisface (3). Hay que ver que $W$ es cerrado bajo sumas y producto escalar. Si tomamos $u$ y $v$ en $W$ y al escalar $c=1$ de $F$, por (3) obtenemos que $cu+v=1u+v=u+v$ está en $W$, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar $c$ y al vector $w=0$, entonces por (3) se tiene que $cu+w=cu+0=cu$ está en $W$. Esto muestra la cerradura bajo producto escalar.

$\square$

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que $W$ es un subespacio.

Problema. Considera $V$ el espacio vectorial de matrices en $M_n(F)$. Muestra que el subconjunto $W$ de matrices simétricas forman un subespacio de $V$.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea $c$ un escalar en $F$ y sean $A$ y $B$ matrices en $W$, es decir, tales que $^tA=A$ y $^tB = B$. Debemos mostrar que $cA+B$ está en $W$, es decir, que $^t(cA+B)=cA+B$. Usando propiedades de la transpuesta y la hipótesis sobre $A$ y $B$ tenemos que: $$^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.$$ Con esto termina la demostración.

$\square$

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto $W$. Para cada uno de los casos, piensa por qué la suma de dos elementos de $W$ es de nuevo un elemento de $W$ y por qué el producto de un escalar por un elemento de $W$ es un elemento de $W$. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos $M_2(\mathbb{R})$, el subconjunto $W$ de matrices que cumplen que la suma de entradas en su diagonal principal es igual a $0$ es un subespacio.
  • En el espacio vectorial $F^4$, el subconjunto $W$ de vectores cuya primera y tercer entrada son iguales a $0$ forman un subespacio.
  • Las funciones acotadas del intervalo $[-3, 3]$ a $\mathbb{R}$ forman un subconjunto $W$ que es un subespacio de las funciones del intervalo $[-3,3]$ a $\mathbb{R}$.
  • El subconjunto $W$ de vectores $(x,y,z)$ de $\mathbb{R}^3$ tales que $$\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}$$ es un subespacio de $\mathbb{R}^3$.
  • Si tomamos $W=\mathbb{R}_3[x]$, entonces este es un subespacio de $\mathbb{R}_4[x]$.
  • Si tomamos $W=\mathbb{R}_4[x]$, entonces este es un subespacio de $\mathbb{R}_5[x]$.
  • El subconjunto $W$ de funciones diferenciables de $[0,10]$ a $\mathbb{R}$ tales que su derivada evaluada en $7$ es igual a $0$ es un subespacio del espacio de funciones continuas de $[0,10]$ a $\mathbb{R}$.
  • Las matrices triangulares superiores de $M_n(F)$ forman un subespacio $W$ del espacio $M_n(F)$. Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto $W=\{(x,y,z): x^2+y^2+z^2=1\}$ no es un subespacio de $\mathbb{R}^3$. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, $W$ debería tener a $(0,0,0)$ para ser subespacio. Pero $0^2+0^2+0^2=0\neq 1$. Así, $(0,0,0)$ no está en $W$ y por lo tanto $W$ no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que $(1,0,0)$ está en $W$, pero $2(1,0,0)=(2,0,0)$ no.
  • El subconjunto $W=\{(0,0), (1,2), (-1,2)\}$ de $\mathbb{R}^2$ no es un subespacio, pues $(1,2)$ está en $W$. Tomando $u=(1,2)$ y $v=(1,2)$, vemos que $W$ no es cerrado bajo sumas pues $(1,2)+(1,2)=(2,4)$ no está en $W$.
  • Las matrices del subconjunto $GL_n(F)$ de $M_n(F)$, es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz $O_n$ no es invertible, así que no está en $GL_n(F)$.
  • El subconjunto $W$ de funciones $f:[-3,3]\to \mathbb{R}$ diferenciables tales que su derivada en $0$ es igual a $2$ no es un subespacio de las funciones continuas de $[-3,3]$ a $\mathbb{R}$. Hay muchas formas de verlo. Podemos darnos cuenta que $f(x)=x^2+2x$ es una de las funciones en $W$ pues $f'(x)=2x+2$ y $f'(0)=2$. Sin embargo, $3f$ no está en $W$.
  • El subconjunto $W$ de polinomios de $\mathbb{R}[x]$ con coeficientes no negativos no es un subespacio de $\mathbb{R}[x]$. El polinomio $0$ sí está en $W$ y la suma de cualesquiera dos elementos de $W$ está en $W$. Sin embargo, falla la multiplicación escalar pues $x$ está en $W$, pero $(-1)x=-x$ no.
  • La unión del eje $X$, el eje $Y$ y el eje $Z$ de $\mathbb{R}^3$ es un subconjunto $W$ de $\mathbb{R}^3$ que no es un subespacio. Cualquier producto escalar queda dentro de $W$, pero la suma no es cerrada.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para «combinarlos» y obtener más subespacios. Una operación muy importante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector $0$. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que los siguientes conjuntos $W$ son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(w,x,y,z)$ de $\mathbb{C}^4$ tales que $w+x+y+z=0$.
    • La colección $W$ de funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $\int_0^1 f(x) \, dx = 0$ es un subespacio del espacio de funciones de $[0,1]$ a $\mathbb{R}$.
    • $W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\}$ es un subespacio de las matrices en $M_2(\mathbb{R})$.
  • Demuestra que los siguientes conjuntos $W$ no son subespacios del espacio vectorial indicado.
    • El subconjunto $W$ de vectores $(x,y)$ de $\mathbb{R}^2$ tales que $xy\geq 0$ no es un subespacio de $\mathbb{R}^2$.
    • El subconjunto $W$ de matrices en $M_{3,2}(F)$ cuyo producto de todas las entradas es igual a $0$ no es un subespacio de $M_{3,2}$
    • Cuando $W$ es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más $3$, es imposible que sea un subespacio de $\mathbb{C}_3[x]$.
  • Sea $V$ un espacio vectorial y $n$ un entero positivo. Demuestra que si $W_1, W_2, \ldots, W_n$ son subespacios de $V$, entonces la intersección $$W_1 \cap W_2 \cap \ldots \cap W_n$$ también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si $V$ es un espacio vectorial, $W$ es un subespacio de $V$ y $U$ es un subespacio de $W$, entonces $U$ es un subespacio de $V$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la primer unidad de este curso de álgebra lineal estudiamos a profundidad al conjunto $F^n$ con sus operaciones de suma y multiplicación por escalar. Luego, hablamos de las matrices en $M_{m,n}(F)$ y vimos cómo pensarlas como transformaciones lineales. Les dimos una operación de producto que en términos de transformaciones lineales se puede pensar como la composición. Luego, hablamos de la forma escalonada reducida de una matriz y cómo llevar cualquier matriz a esta forma usando reducción gaussiana. Esto nos permitió resolver sistemas de ecuaciones lineales homogéneos y no homogeneos, así como encontrar inversas de matrices. Las habilidades desarrolladas en la primer parte del curso serán de mucha utilidad para la segunda, en donde hablaremos de espacios vectoriales.

En esta entrada definiremos el concepto de espacio vectorial y vectores. Para hacer esto, tomaremos como motivación el espacio $F^n$, que ya conocemos bien. Sin embargo, hay muchos otros ejemplos de objetos matemáticos que satisfacen la definición que daremos. Hablaremos de algunos de ellos.

En el transcurso de la unidad también hablaremos de otros conceptos básicos, incluido el de subespacio. Hablaremos de conjuntos linealmente independientes, de generadores y de bases. Esto nos llevará a establecer una teoría de la dimensión de un espacio vectorial. Las bases son de fundamental importancia pues en el caso de dimensión finita, nos permitirán pensar a cualquier espacio vectorial «como si fuera $F^n$ «. Más adelante precisaremos en qué sentido es esto.

Después, veremos cómo pasar de un espacio vectorial a otro mediante transformaciones lineales. Veremos que las transformaciones entre espacios vectoriales de dimensión finita las podemos pensar prácticamente como matrices, siempre y cuando hayamos elegido una base para cada espacio involucrado. Para ver que estamos haciendo todo bien, debemos verificar que hay una forma sencilla de cambiar esta matriz si usamos una base distinta, y por ello estudiaremos a las matrices de cambio de base.

Esta fuerte relación que existe entre transformaciones lineales y y matrices nos permitirá llevar información de un contexto a otro. Además, nos permitirá definir el concepto de rango para una matriz (y transformación vectorial). Hasta ahora, sólo hemos distinguido entre matrices invertibles y no invertibles. Las matrices invertibles corresponden a transformaciones lineales que «guardan toda la información». El concepto de rango nos permitirá entender de manera más precisa cuánta información guardan las transformaciones lineales no invertibles.

Recordando a $F^n$

Antes de definir el concepto de espacio vectorial en toda su generalidad, recordemos algunas de las cosas que suceden con $F^n$. De hecho, puedes pensar en algo mucho más concreto como $\mathbb{R}^4$.

Como recordatorio, comenzamos tomando un campo $F$ y dijimos que, para fines prácticos, podemos pensar que se trata de $\mathbb{R}$ y $\mathbb{C}$. A los elementos de $F$ les llamamos escalares.

Luego, consideramos todas las $n$-adas de elementos de $F$ y a cada una de ellas le llamamos un vector. A $F^n$ le pusimos una operación de suma, que tomaba dos vectores en $F^n$ y nos daba otro. Además, le pusimos una operación de producto por escalar, la cual tomaba un escalar en $F$ y un vector en $F^n$ y nos daba como resultado un vector. Para hacer estas operaciones procedíamos entrada a entrada.

Sin embargo, hay varias propiedades que demostramos para la suma y producto por escalar, para las cuales ya no es necesario hablar de las entradas de los vectores. Mostramos que todo lo siguiente pasa:

  1. (Asociatividad de la suma) Para cualesquiera vectores $u,v,w$ en $F^n$ se cumple que $(u+v)+w=u+(v+w)$.
  2. (Conmutatividad de la suma) Para cualesquiera vectores $u,v$ en $F^n$ se cumple que $u+v=v+u$.
  3. (Identidad para la suma) Existe un vector $0$ en $F^n$ tal que $u+0=u=0+u$.
  4. (Inversos para la suma) Para cualquier vector $u$ en $F^n$ existe un vector $v$ en $F^n$ tal que $u+v=0=v+u$.
  5. (Distributividad para la suma escalar) Para cualesquiera escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(a+b)v=av+bv$.
  6. (Distributividad para la suma vectorial) Para cualquier escalar $a$ en $F$ y cualesquiera vectores $v,w$ en $F^n$ se cumple que $a(v+w)=av+aw$.
  7. (Identidad de producto escalar) Para la identidad multiplicativa $1$ del campo $F$ y cualquier vector $v$ en $F^n$ se cumple que $1v=v$.
  8. (Compatibilidad de producto escalar) Para cualesquiera dos escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(ab)v=a(bv)$.

Los primeros cuatro puntos son equivalentes a decir que la operación suma en $F^n$ es un grupo conmutativo. Resulta que hay varios objetos matemáticos que satisfacen todas estas ocho propiedades o axiomas de espacio vectorial, y cuando esto pasa hay muchas consecuencias útiles que podemos deducir. La esencia del álgebra lineal precisamente consiste en deducir todo lo posible en estructuras que tienen las ocho propiedades anteriores. Estas estructuras son tan especiales, que tienen su propio nombre: espacio vectorial.

Definición de espacio vectorial

Estamos listos para la definición crucial del curso.

Definición. Sea $F$ un campo. Un espacio vectorial sobre el campo $F$ es un conjunto $V$ con operaciones de suma y producto por escalar, que denotaremos por \begin{align*}
+:& V\times V \to V \quad \text{y}\\
\cdot:& F\times V \to V,
\end{align*}

para las cuales se cumplen las ocho propiedades de la sección anterior. En otras palabras:

  • El conjunto $V$ es un grupo conmutativo con la suma.
  • Se tiene asociatividad para la suma escalar y la suma vectorial
  • Se tiene identidad y compatibilidad de la mulltiplicación escalar.

A los elementos de $F$ les llamamos escalares. A los elementos de $F^n$ les llamamos vectores. Para hacer restas, las definimos como $u-v=u+(-v)$, donde $-v$ es el inverso aditivo de $v$ con la suma vectorial. Usualmente omitiremos el signo de producto escalar, así que escribiremos $av$ en vez de $a\cdot v$ para $a$ escalar y $v$ vector.

La definición da la impresión de que hay que verificar muchas cosas. De manera estricta, esto es cierto. Sin embargo, de manera intuitiva hay que pensar que a grandes rasgos los espacios vectoriales son estructuras en donde podemos sumar elementos entre sí y multiplicar vectores por escalares (externos) sin que sea muy complicado.

Como ya mencionamos, el conjunto $F^n$ con las operaciones de suma y multiplicación por escalar que se hacen entrada por entrada es un espacio vectorial sobre $F$. En lo que resta de la entrada, hablaremos de otros ejemplos de espacios vectoriales que nos encontraremos frecuentemente.

Espacios vectoriales de matrices

Otros ejemplos de espacios vectoriales con los que ya nos encontramos son los espacios de matrices. Dado un campo $F$ y enteros positivos $m$ y $n$, el conjunto de matrices en $M_{m,n}(F)$ es un espacio vectorial en donde la suma se hace entrada a entrada y la multiplicación escalar también.

¿Qué es lo que tenemos que hacer para mostrar que en efecto esto es un espacio vectorial? Se tendrían que verificar las 8 condiciones en la definición de espacio vectorial. Esto lo hicimos desde la primer entrada del curso, en el primer teorema de la sección «Operaciones de vectores y matrices». Vuelve a leer ese teorema y verifica que en efecto se enuncian todas las propiedades necesarias.

Aquí hay que tener cuidado entonces con los términos que se usan. Si estamos hablando del espacio vectorial $F^n$, las matrices no forman parte de él, y las matrices no son vectores. Sin embargo, si estamos hablando del espacio vectorial $M_{m,n}(F)$, entonces las matrices son sus elementos, y en este contexto las matrices sí serían vectores.

Ejemplo. Sea $\mathbb{F}_2$ el campo con $2$ elementos. Consideremos $M_{2}(\mathbb{F}_2)$. Este es un espacio vectorial. Tiene $16$ vectores de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, en donde cada entrada es $0$ o $1$. La suma y la multiplicación por escalar se hacen entrada a entrada y con las reglas de $\mathbb{F}_2$. Por ejemplo, tenemos $$\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.$$

$\triangle$

Espacios vectoriales de funciones

Ahora veremos algunos ejemplos de espacios vectoriales cuyos elementos son funciones. Esto puede parecer algo abstracto, pero en unos momentos veremos algunos ejemplos concretos que nos pueden ayudar a entender mejor.

Sea $F$ un campo y consideremos cualquier conjunto $X$. Consideremos el conjunto $V$ de todas las posibles funciones de $X$ a $F$. A este conjunto queremos ponerle operaciones de suma y de multiplicación por escalar.

Para definir la suma, tomemos dos funciones que van de $X$ a $F$, digamos $f:X\to F$ y $g:X\to F$. Definiremos a la función $f+g$ como la función que a cada $x$ en $X$ lo manda a $f(x)+g(x)$. Aquí estamos usando la suma del campo $F$. En símbolos, $(f+g):X\to F$ tiene regla de asignación $$(f+g)(x)=f(x)+g(x).$$

Para definir el producto por escalar, tomamos una función $f:X\to F$ y un escalar $c$ en el campo $F$. La función $cf$ será la función $cf:X\to F$ con regla de asignación $$(cf)(x)=cf(x)$$ para todo $x$ en $X$.

Resulta que el conjunto $V$ de funciones de $X$ a $F$ con estas operaciones de suma y producto, es un espacio vectorial. Podemos probar, por ejemplo, la asociatividad de la suma. Para ello, la primer cosa que necesitamos mostrar es la asociatividad de la suma. Es decir, que si tenemos $f:X\to F$, $g:X\to F$ y $h:X\to F$, entonces $$(f+g)+h = f+ (g+h).$$

Esta es una igualdad de funciones. Para que sea cierta, tenemos que verificarla en todo el dominio, así que debemos mostrar que para todo $x$ en $X$ tenemos que $$((f+g)+h)(x)=(f+(g+h))(x).$$

Para demostrar esto, usemos la definición de suma de funciones y la asociatividad de la suma del campo $F$. Con ello, podemos realizar la siguiente cadena de igualdades:

\begin{align*}
((f+g)+h)(x)&=(f+g)(x)+h(x)\\
&=(f(x)+g(x)) + h(x) \\
&=f(x) + (g(x)+h(x)) \\
&=f(x) + (g+h)(x)\\
&=(f+(g+h))(x).
\end{align*}

Así, la suma en $V$ es asociativa. El resto de las propiedades se pueden demostrar con la misma receta:

  • Se enuncia la igualdad de funciones que se quiere mostrar.
  • Para que dicha igualdad sea cierta, se tiene que dar en cada elemento del dominio, así que se evalúa en cierta $x$.
  • Se prueba la igualdad usando las definiciones de suma y producto por escalar, y las propiedades de campo de $F$.

Ejemplo. El ejemplo anterior es muy abstracto, pues $X$ puede ser cualquier cosa. Sin embargo, hay muchos espacios de funciones con los cuales se trabaja constantemente. Por ejemplo, si el campo es el conjunto $\mathbb{R}$ de reales y $X$ es el intervalo $[0,1]$, entonces simplemente estamos hablando de las funciones que van de $[0,1]$ a los reales.

Si tomamos $f:[0,1]\to \mathbb{R}$ y $g:[0,1]\to \mathbb{R}$ dadas por \begin{align*}f(x)&= \sin x – \cos x\\ g(x) &= \cos x + x^2,\end{align*} entonces su suma simplemente es la función $f+g:[0,1]\to \mathbb{R}$ definida por $(f+g)(x)=\sin x + x^2$. Si tomamos, por ejemplo, el escalar $2$, entonces la función $2f:[0,1]\to \mathbb{R}$ no es nada más que aquella dada por
$$(2f)(x)= 2\sin x – 2\cos x.$$

Así como usamos el intervalo $[0,1]$, pudimos también haber usado al intervalo $[-2,2)$, al $(-5,\infty]$, o a cualquier otro.

$\triangle$

Espacios vectoriales de polinomios

Otro ejemplo de espacios vectoriales que nos encontraremos frecuentemente son los espacios de polinomios. Si no recuerdas con precisión cómo se construyen los polinomios y sus operaciones, te recomendamos repasar este tema con material disponible aquí en el blog.

Dado un campo $F$ y un entero positivo $n$ usaremos $F[x]$ para referirnos a todos los polinomios con coeficientes en $F$ y usaremos $F_n[x]$ para referirnos a aquellos polinomios con coeficientes en $F$ y grado a lo más $n$. Aunque el polinomio cero no tiene grado, también lo incluiremos en $F_n[x]$.

Ejemplo. Si $F$ es $\mathbb{C}$, el campo de los números complejos, entonces todos los siguientes son polinomios en $\mathbb{C}[x]$: \begin{align*}p(x)&=(2+i)x^6 + (1+i),\\ q(x)&=3x^2+2x+1,\\ r(x)&=5x^7+(1-3i)x^5-1.\end{align*}

Tanto $p(x)$ como $q(x)$ están en $\mathbb{C}_6[x]$, pues su grado es a lo más $6$. Sin embargo, $r(x)$ no está en $\mathbb{C}_6[x]$ pues su grado es $7$.

El polinomio $q(x)$ también es un elemento de $\mathbb{R}[x]$, pues tiene coeficientes reales. Pero no es un elemento de $\mathbb{R}_1[x]$ pues su grado es demasiado grande.

$\triangle$

Recuerda que para sumar polinomios se tienen que sumar los coeficientes de grados correspondientes. Al hacer multiplicación por escalar se tienen que multiplicar cada uno de los coeficientes. De esta forma, si $f(x)=x^2+1$ y $g(x)=x^3+\frac{x^2}{2}-3x-1$, entonces $$(f+g)(x)=x^3+\frac{3x^2}{2}-3x,$$ y $$(6g)(x)=6x^3+3x^2-18x-6.$$

Resulta que $F[x]$ con la suma de polinomios y con el producto escalar es un espacio vectorial. Puedes verificar cada uno de los axiomas por tu cuenta.

Observa que la suma de dos polinomios de grado a lo más $n$ tiene grado a lo más $n$, pues no se introducen términos con grado mayor que $n$. Del mismo modo, si tenemos un polinomio con grado a lo más $n$ y lo multiplicamos por un escalar, entonces su grado no aumenta. De esta forma, podemos pensar a estas operaciones como sigue:
\begin{align*}
+:& F_n[x] \times F_n[x] \to F_n[x]\\
\cdot: & F\times F_n[x] \to F_n[x].
\end{align*}

De esta forma, $F_n[x]$ con la suma de polinomios y producto escalar de polinomios también es un espacio vectorial.

Más adelante…

Ya dimos la definición de espacio vectorial y vimos varios ejemplos. Dentro de algunas entradas veremos como conseguir muchos más espacios vectoriales.

En el último ejemplo pasa algo curioso: el espacio $F_n[x]$ es un subconjunto del espacio $F[x]$ y además es un espacio vectorial con las mismas operaciones que $F[x]$. Este es un fenómeno muy importante en álgebra lineal. Decimos que $F_n[x]$ es un subespacio de $F[x]$. En la siguiente entrada definiremos en general qué es un subespacio de un espacio vectorial y veremos algunas propiedades que tienen los subespacios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • A partir de los axiomas de espacio vectorial, muestra lo siguiente para un espacio vectorial $V$:
    • La identidad de la suma vectorial es única, es decir, que si existe otro elemento $e$ en $V$ tal que $u+e=u=e+u$ para todo $u$ en $V$, entonces $e=0$.
    • Que si $0$ es la identidad aditiva del campo $F$ y $v$ es cualquier vector en $V$, entonces $0v$ es la identidad de la suma vectorial. En símbolos, $0v=0$, donde el primer $0$ es el de $F$ y el segundo el de $V$.
    • Se vale la regla de cancelación para la suma vectorial, es decir, que si $u,v,w$ son vectores en $V$ y $u+v=u+w$, entonces $v=w$.
    • Se vale la regla de cancelación para el producto escalar, es decir, que si $a$ es un escalar no cero del campo $F$ y $u,v$ son vectores de $V$ para los cuales $au=av$, entonces $u=v$.
    • Que el inverso aditivo de un vector $v$ para la suma vectorial en $V$ es precisamente $(-1)v$, es decir, el resultado de hacer la multiplicación escalar de $v$ con el inverso aditivo del $1$ del campo $F$.
  • Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Sean $u$, $v$ y $w$ vectores en $V$. Justifica la siguiente igualdad enunciando de manera explícita todos los axiomas de espacio vectorial que uses $$u+5v-3w+2u-8v= -3(w+v-u).$$
  • Termina de demostrar que en efecto los espacios de funciones con la suma y producto escalar que dimos son espacios de funciones.
  • Enlista todos los polinomios de $(\mathbb{F}_2)_3[x]$. A continuación hay algunos: $$0, x+1, x^2+x, x^3+1.$$ Para cada uno de ellos, encuentra quien es su inverso aditivo para la suma vectorial de $(\mathbb{F}_2)_3[x]$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Introducción al curso, vectores y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

Esta es la primer entrada correspondiente a las notas del curso Álgebra Lineal I. En esta serie de entradas, cubriremos todo el temario correspondiente al plan de estudios de la materia en la Facultad de Ciencias de la UNAM. Las notas están basadas fuertemente en el libro Essential Lineal Algebra with Applications de Titu Andreescu.

El curso se trata, muy a grandes rasgos, de definir espacios vectoriales y estudiar muchas de sus propiedades. Un espacio vectorial con el que tal vez estés familiarizado es $\mathbb{R}^n$, donde sus elementos son vectores con $n$ entradas. En él se pueden hacer sumas entrada a entrada, por ejemplo, si $n=3$ una suma sería

\begin{align*}
(5,-1,2)+(1,4,9)=(6,3,11).
\end{align*}

También se puede multiplicar un vector por un número real, haciéndolo entrada a entrada, por ejemplo,

\begin{align*}
3(1,5,-2,6)=(3,15,-6,18).
\end{align*}

El álgebra lineal estudia espacios vectoriales más generales que simplemente $\mathbb{R}^n$. Como veremos más adelante, hay muchos objetos matemáticos en los que se puede definir una suma y un producto escalar. Algunos ejemplos son los polinomios, ciertas familias de funciones y sucesiones. La ventaja de estudiar estos espacios desde el punto de vista del álgebra lineal es que todas las propiedades que probemos «en general», se valdrán para todos y cada uno de estos ejemplos.

Lo que haremos en la primer unidad del curso es entender muy a profundidad a $F^n$, una generalización de $\mathbb{R}^n$ en la que usamos un campo arbitrario $F$. También, entenderemos a las matrices en $M_{m,n}(F)$, que son arreglos rectangulares con entradas en $F$. La unidad culmina con estudiar sistemas de ecuaciones lineales y el método de reducción Gaussiana.

Más adelante veremos que estudiar estos conceptos primero es muy buena idea pues los espacios vectoriales más generales tienen muchas de las propiedades de $F^n$, y podemos entender a ciertas transformaciones entre ellos al entender a $M_{m,n}(F)$.

Breve comentario sobre campos

En este curso no nos enfocaremos en estudiar a profundidad las propiedades que tienen los campos como estructuras algebraicas. De manera pragmática, pensaremos que un campo $F$ consiste de elementos que se pueden sumar y multiplicar bajo propiedades bonitas:

  • La suma y el producto son asociativas, conmutativas, tienen neutro (que llamaremos $0$ y $1$ respectivamente y tienen inversos (i.e. se vale «restar» y «dividir»)
  • La suma y producto satisfacen la regla distributiva

De hecho, de manera muy práctica, únicamente usaremos a los campos $\mathbb{Q}$ de racionales, $\mathbb{R}$ de reales, $\mathbb{C}$ de complejos y $\mathbb{F}_2$, el campo de dos elementos $0$ y $1$. Este último sólo lo usaremos para observar que hay algunas sutilezas cuando usamos campos con una cantidad finita de elementos.

Para todos estos campos, supondremos que sabes cómo se suman y multiplican elementos. Si necesitas dar un repaso a estos temas, puedes echarle un ojo a las entradas del curso Álgebra Superior II, que también están aquí en el blog.

Nociones iniciales de álgebra lineal: escalares, vectores y matrices

Quizás te has encontrado con vectores y matrices en otros cursos. Por ejemplo, en geometría analítica es usual identificar a un vector $(x,y)$ con un punto en el plano cartesiano, o bien con una «flecha» que va del origen a ese punto. En álgebra lineal nos olvidaremos de esta interpretación por mucho tiempo. Será hasta unidades posteriores que tocaremos el tema de geometría de espacios vectoriales. Por el momento, sólo nos importan los vectores desde el punto de vista algebraico.

Tomemos un campo $F$. A los elementos de $F$ les llamaremos escalares. Para un entero positivo $n$, un vector $X$ en $F^n$ consiste de un arreglo de $n$ entradas $a_1,a_2,\ldots,a_n$ que pueden estar dispuestas en un vector fila $$X=(a_1, a_2,\ldots, a_n),$$ o bien un vector columna $$X=\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n\end{pmatrix}.$$

Para $i=1,\ldots,n$, a $a_i$ le llamamos la $i$-ésima coordenada o $i$-ésima entrada de $X$.

Como vectores, puedes pensar que el vector fila y el vector columna correspondientes son el mismo. Abajo veremos en qué sentido tenemos que pensarlos como diferentes. Aunque como vectores sean los mismos, los vectores columna tienen varias ventajas conceptuales en álgebra lineal.

Ejemplo 1. El vector $$X=\left(\frac{1}{2}, -1, \frac{2}{3}, 4\right).$$ tiene cuatro entradas, y todas ellas son números racionales. Por lo tanto, es un vector en $\mathbb{Q}^4$. Su primer entrada es $\frac{1}{2}$. Está escrito como vector fila, pero podríamos escribirlo también como vector columna: $$\begin{pmatrix} \frac{1}{2} \\ -1 \\ \frac{2}{3} \\ 4 \end{pmatrix}.$$

El vector $$Y=\left(\pi, \frac{3}{4}, 5, 6, \sqrt{2}\right)$$ es un vector fila en $\mathbb{R}^5$, pero no en $\mathbb{Q}^5$, pues no todas sus entradas son racionales. A $Y$ también lo podemos pensar como un vector en $\mathbb{C}$.

$\triangle$

Una matriz en $M_{m,n}(F)$ es un arreglo rectangular de elementos en $F$ dispuestos en $m$ filas y $n$ columnas como sigue:

$$A=\begin{pmatrix}
a_{11} & a_{12} & a_{13} & \cdots & a_{1n}\\
a_{21} & a_{22} & a_{23} & \cdots & a_{2n}\\
\vdots & & \ddots & \vdots \\
a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}
\end{pmatrix}.$$

Al escalar $a_{ij}$ le llamamos la entrada $(i,j)$ de $A$.

Para cada $i=1,\ldots,m$, definimos a la $i$-ésima fila de $A$ como el vector fila $$L_i=(a_{i1},a_{i2},\ldots,a_{in}),$$ y para cada $j=1,2,\ldots,n$ definimos a la $j$-ésima columna de $A$ como el vector columna $$C_j=\begin{pmatrix} a_{1j} \\ a_{2j} \\ \vdots \\ a_{mj}\end{pmatrix}.$$

Veamos algunas aclaraciones de notación. Cuando $m=n$, las matrices en $M_{m,n}(F)$ tienen la misma cantidad de filas que de columnas. En este caso simplemente usamos la notación $M_{n}(F)$ para ahorrarnos una letra, y si una matriz está en $M_{n}(F)$, le llamamos una matriz cuadrada. También, en ocasiones expresamos a una matriz en forma compacta diciendo cuántas filas y columnas tiene y usando la notación $A=[a_{ij}]$.

Ejemplo 2. Consideremos la matriz $A$ en $M_3(\mathbb{R})$ dada por $A=[a_{ij}]=[i+2j]$. Si queremos poner a $A$ de manera explícita, simplemente usamos la fórmula en cada una de sus entradas:

\begin{align*}
A=\begin{pmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{pmatrix}&=\begin{pmatrix}
1+2\cdot 1 & 1+2\cdot 2 & 1+2\cdot 3\\
2+2\cdot 1 & 2+2\cdot 2 & 2+2\cdot 3\\
3+2\cdot 1 & 3+2\cdot 2 & 3+2\cdot 3\\
\end{pmatrix}\\
&=\begin{pmatrix}
3 & 5 & 7\\
4 & 6 & 8\\
5 & 7 & 9\\
\end{pmatrix}
\end{align*}

Esta es una matriz cuadrada. Sin embargo, la matriz $B$ en $M_{3,2}(\mathbb{R})$ con la misma regla $B=[b_{ij}]=[i+2j]$ no es una matriz cuadrada pues es

\begin{align*}
B=\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32} \\
\end{pmatrix}&=\begin{pmatrix}
1+2\cdot 1 & 1+2\cdot 2\\
2+2\cdot 1 & 2+2\cdot 2\\
3+2\cdot 1 & 3+2\cdot 2\\
\end{pmatrix}\\
&=\begin{pmatrix}
3 & 5 \\
4 & 6 \\
5 & 7 \\
\end{pmatrix},
\end{align*}

la cual es una matriz con $3$ filas y $2$ columnas.

$\triangle$

Cualquier vector fila en $F^n$ lo podemos pensar como una matriz en $M_{1n}(F)$ y cualquier vector columna en $F^n$ lo podemos pensar como una matriz en $M_{n1}(F)$. En este sentido estos dos vectores sí serían distintos. Usualmente será claro si se necesita o no hacer la distinción.

Para que dos vectores o dos matrices sean iguales, tienen que serlo coordenada a coordenada.

Vectores y matrices especiales

Al vector en $F^n$ con todas sus entradas iguales al cero del campo $F$ le llamamos el vector cero y lo denotamos con $0$. El contexto nos ayuda a decidir si estamos hablando del escalar cero (el neutro aditivo del campo $F$) o del vector cero.

De manera similar, a la matriz en $M_{m,n}$ con todas sus entradas iguales al cero del campo $F$ le llamamos la matriz cero y la denotamos con $O_{m,n}$. Si $m=n$, la llamamos simplemente $O_n$.

Otra matriz especial que nos encontraremos frecuentemente es la matriz identidad. Para cada $n$, es la matriz $I_n$ en $M_n(F)$ tal que cada entrada de la forma $a_{ii}$ es igual a uno (el neutro multiplicativo de $F$) y el resto de sus entradas son iguales a $0$.

Cuando estamos trabajando en $M_n(F)$, es decir, con matrices cuadradas, hay otras familias de matrices que nos encontraremos frecuentemente. Una matriz $A=[a_{ij}]$ en $M_{n}(F)$:

  • Es diagonal si cuando $i\neq j$, entonces $a_{ij}=0$.
  • Es triangular superior si cuando $i>j$, entonces $a_{ij}=0$.
  • Y es triangular inferior si cuando $i<j$ entonces $a_{ij}=0$.

A las entradas de la forma $a_{ii}$ se les conoce como las entradas de la diagonal principal de la matriz. En otras palabras, $A$ es diagonal cuando sus únicas entradas no cero están en la diagonal principal. Es triangular superior cuando sus entradas por debajo de la diagonal principal son iguales a cero. Y de manera similar, es triangular inferior cuando sus entradas por encima de la diagonal principal son iguales a cero.

Ejemplo. La matriz $O_{3,2}$ de $M_{3,2}(\mathbb{Q})$ es la siguiente

$$O_{3,2}=\begin{pmatrix}
0 & 0 \\ 0& 0 \\ 0 & 0 \\
\end{pmatrix}$$

La matriz $I_4$ de $M_{4}(F)$ es la siguiente

$$I_4=\begin{pmatrix}
1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

Esta matriz identidad es diagonal, triangular superior y triangular inferior. Una matriz diagonal distinta a la identidad podría ser la siguiente matriz en $M_3(\mathbb{Q})$:

$$\begin{pmatrix}
1 & 0 & 0 \\ 0 & -\frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \\
\end{pmatrix}.$$

Una matriz que es triangular superior, pero que no es diagonal (ni triangular inferior), podría ser la siguiente matriz en $M_4(\mathbb{R})$:

$$\begin{pmatrix}
1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 0\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

$\triangle$

Operaciones de vectores y matrices

Si tenemos dos matrices $A=[a_{ij}]$ y $B=[b_{ij}]$ en $M_{m,n}(F)$, entonces podemos definir a la matriz suma $A+B$ como la matriz cuyas entradas son $[a_{ij}+b_{ij}]$, es decir, se realiza la suma (del campo $F$) entrada por entrada.

Ejemplo 1. Si queremos sumar a las matrices $A$ y $B$ en $M_{4}(\mathbb{R})$ dadas por $$A=\begin{pmatrix}
1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 2\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

y $$B=\begin{pmatrix}
1 & 1 & -1 & -3\\ 0 & 1 & 1 & -2\\ 0& 0 & 1 & 1\\ 0 & 0 & 0 & 1
\end{pmatrix},$$

entonces hacemos la suma entrada por entrada para obtener:

$$A+B=\begin{pmatrix}
2 & 1+\sqrt{2} & 1 & -3+\sqrt{5}\\ 0 & 2 & 1+\sqrt{3} & 0\\ 0 & 0 & 2 & 1+\sqrt{2}\\ 0 & 0 & 0 & 2
\end{pmatrix}.$$

$\triangle$

Es muy importante que las dos matrices tengan la misma cantidad de filas y renglones. Insistiendo: si no coinciden la cantidad de filas o de columnas, entonces las matrices no se pueden sumar.

Si tenemos una matriz $A=[a_{ij}]$ en $M_{m,n}(F)$ y un escalar $c$ en $F$, podemos definir el producto escalar de $A$ por $c$ como la matriz $cA=[ca_{ij}]$, es decir, aquella que se obtiene al multiplicar cada una de las entradas de $A$ por el escalar $c$ (usando la multiplicación del campo $F$).

Ejemplo 2. Al tomar la siguiente matriz en $M_{2}(\mathbb{C})$ $$A=\begin{pmatrix} 1 & i \\ -i & 1 \end{pmatrix}$$ y el escalar $i$ en $\mathbb{C}$, se tiene que $$iA=\begin{pmatrix} i\cdot 1 &i\cdot i \\ i\cdot (-i) & i\cdot 1\end{pmatrix} = \begin{pmatrix} i & -1 \\ 1 & i \end{pmatrix}.$$

$\triangle$

Dada una matriz $A$, a la matriz $(-1)A$ le llamamos simplemente $-A$, y definimos $A-B:=A+(-B)$.

Como todo vector en $F^n$ se puede pensar como una matriz, estas operaciones también se pueden definir para vectores para obtener la suma de vectores y el producto escalar en vectores.

En álgebra lineal frecuentemente hablaremos de escalares, vectores y matrices simultáneamente. Cada que veas una una variable es importante que te preguntes de cuál de estos tipos de objeto es. También, cada que veas una operación (por ejemplo, una suma), es importante preguntarte si es una suma de escalares, vectores o matrices.

Muchas de las buenas propiedades de las operaciones de suma y producto en el campo $F$ también se cumplen para estas definiciones de suma y producto escalar de vectores y matrices.

Teorema. Sean $A,B,C$ matrices en $M_{m,n}(F)$ y $\alpha,\beta,\gamma$ escalares en $F$. Entonces la suma de matrices:

  • Es asociativa: $(A+B)+C = A+(B+C)$
  • Es conmutativa: $A+B=B+A$
  • Tiene neutro: $A+O_{m,n}=A=O_{m,n}+A$
  • Tiene inversos: $A+(-A)=O_{m,n}=(-A)+A$

Además,

  • La suma de escalares y el producto escalar se distribuyen: $(\alpha+\beta)A=\alpha A + \beta A$
  • La suma de matrices y el producto escalar se distribuyen: $\alpha(A+B)=\alpha A + \alpha B$
  • El producto escalar es homogéneo: $\alpha(\beta A) = (\alpha \beta) A$
  • El $1$ es neutral para el producto escalar: $1A = A$

Un teorema análogo se vale al cambiar matrices por vectores. La demostración de este teorema se sigue directamente de las propiedades del campo $F$. La notación de entradas nos ayuda mucha a escribir una demostración sin tener que escribir demasiadas entradas una por una. Veamos, como ejemplo, la demostración de la primera propiedad.

Demostración. Tomemos matrices $A=[a_{ij}]$, $B=[b_{ij}]$ y $C=[c_{ij}]$ en $M_{m,n}(F)$. Para mostrar que $$(A+B)+C=A+(B+C),$$ tenemos que mostrar que la entrada $(i,j)$ del lado izquierdo es igual a la entrada $(i,j)$ del lado derecho para cada $i=1,\ldots,m$ y $j=1,\ldots,n$.

Por definición de suma, $A+B=[a_{ij}]+[b_{ij}]=[a_{ij}+b_{ij}]$. Por ello, y de nuevo por definicón de suma, $$(A+B)+C=[(a_{ij}+b_{ij})+c_{ij}].$$ De manera similar, $$A+(B+C)=[a_{ij}+(b_{ij}+c_{ij})].$$

Pero en $F$ la suma es asociativa, de modo que $$(a_{ij}+b_{ij})+c_{ij}=a_{ij}+(b_{ij}+c_{ij}).$$

Con esto hemos demostrado que $(A+B)+C$ y $A+(B+C)$ son iguales entrada a entrada, y por lo tanto son iguales como matrices.

$\square$

La receta para demostrar el resto de las propiedades es la misma:

  1. Usar la definición de suma o producto por escalares para saber cómo es la entrada $(i,j)$ del lado izquierdo y del lado derecho.
  2. Usar las propiedades del campo $F$ para concluir que las entradas son iguales.
  3. Concluir que las matrices son iguales.

Para practicar las definiciones y esta técnica, la demostración del resto de las propiedades queda como tarea moral. A partir de ahora usaremos todas estas propiedades frecuentemente, así que es importante que las tengas en cuenta.

Base canónica de vectores y matrices

Cuando estamos trabajando en $F^n$, al vector $e_i$ tal que su $i$-ésima entrada es $1$ y el resto son $0$ lo llamamos el $i$-ésimo vector de la base canónica. Al conjunto de vectores $\{e_1,\ldots,e_n\}$ le llamamos la base canónica de $F^n$.

De manera similar, cuando estamos trabajando en $M_{m,n}(F)$, para cada $i=1,\ldots,m$ y $j=1,\ldots,n$, la matriz $E_{ij}$ tal que su entrada $(i,j)$ es $1$ y todas las otras entradas son cero se le conoce como la matriz $(i,j)$ de la base canónica. Al conjunto de todas estas matrices $E_{ij}$ le llamamos la base canónica de $M_{m,n}(F)$.

Ejemplo 1. El vector $e_2$ de $F^3$ es $(0,1,0)$. Ten cuidado, pues este es distinto al vector $e_2$ de $F^5$, que es $(0,1,0,0,0)$.

La matriz $E_{12}$ de $M_{2,3}(\mathbb{R})$ es $$\begin{pmatrix} 0 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix}.$$

$\triangle$

Más adelante veremos el concepto de base en general, cuando hablemos de espacios vectoriales. Por el momento, la intuición para álgebra lineal es que una base es un conjunto que nos ayuda a generar elementos que nos interesan mediante sumas y productos escalares. Los siguientes resultados dan una intuición inicial de este fenómeno.

Teorema. Todo vector $X$ en $F^n$ se puede escribir de manera única de la forma $$X=x_1e_1+x_2e_2+\ldots+x_ne_n,$$ en donde $x_1,\ldots,x_n$ son escalares en $F$ y $\{e_1,\ldots,e_n\}$ es la base canónica.

Demostración. Si $X$ es un vector en $F^n$, entonces es de la forma $X=(x_1,x_2,\ldots,x_n)$. Afirmamos que las coordenadas de $X$ son los $x_i$ buscados.

En efecto, tomemos una $i=1,\ldots,n$. Como $e_i$ tiene $1$ en la $i$-ésima entrada y $0$ en el resto, entonces $x_ie_i$ es el vector con $x_i$ en la $i$-ésima entrada y $0$ en el resto. De esta forma, sumando entrada a entrada, tenemos

\begin{align*}
x_1e_1+x_2e_2+\ldots+x_ne_n&=\begin{pmatrix} x_1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ x_2 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0\\ 0 \\ 0 \\ \vdots \\ x_n \end{pmatrix}\\
&=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X.
\end{align*}

Esto muestra la existencia.

Para demostrar la unicidad, un argumento análogo muestra que si tenemos otros escalares $y_1,\ldots,y_n$ que cumplan, entonces:

$$\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X=y_1e_1+\ldots+y_ne_n=\begin{pmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{pmatrix},$$

de modo que $x_i=y_i$ para todo $i=1,\ldots,n$.

$\square$

Tenemos un resultado análogo para matrices.

Teorema. Toda matriz $A$ en $M_{m,n}(F)$ se puede escribir de manera única de la forma $$A=\sum_{i=1}^m \sum_{j=1}^n x_{ij} E_{ij},$$ en donde para $i=1,\ldots,m$ y $j=1,\ldots,n$, se tiene que $x_{ij}$ son escalares en $F$ y $E_{ij}$ son las matrices de la base canónica.

La demostración es muy similar a la del teorema anterior y como práctica queda como tarea moral.

Ejemplo 2. La matriz $$A=\begin{pmatrix} 2 & 0\\ 0 & -1 \\ 3 & 5 \end{pmatrix}$$ en $M_{3,2}(\mathbb{C})$ se expresa de manera única en términos de la base canónica como $$A=2E_{11}-1E_{22}+3E_{31}+5E_{32}.$$

$\square$

Más adelante…

En esta entrada dimos una breve introducción al álgebra lineal. Ya definimos la suma y el producto escalar para vectores y matrices. En la siguiente entrada hablaremos de otro producto que sucede en álgebra lineal: la de una matriz en $M_{m,n}(F)$ por un vector en $F^n$. Veremos que esta multiplicación nos permite pensar a una matriz $A$ como una función $\varphi_A:F^n\to F^m$ con ciertas propiedades especiales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Explica por qué no puedes sumar la matriz $I_5$ con la matriz $O_4$.
  • Muestra que la suma de dos matrices diagonales es diagonal. Haz lo mismo para matrices triangulares superiores y para matrices triangulares inferiores.
  • Termina de demostrar el teorema de propiedades de las operaciones de suma y producto escalar.
  • Explica por qué si una matriz es simultáneamente triangular superior y triangular inferior, entonces es diagonal.
  • Expresa a la siguiente matriz como combinación lineal de matrices de la base canónica:
    $$\begin{pmatrix}
    2 & \frac{1}{2} & 0 & 1\\
    3 & -3 & 3 & -3\\
    7 & -8 & -1 & 0
    \end{pmatrix}.$$
  • Demuestra el teorema de representación de matrices en términos de la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM».

Álgebra Superior II: Construcción de números complejos

Por Leonardo Ignacio Martínez Sandoval

Introducción

En una entrada anterior esbozamos las construcciones de los números racionales y los números reales. Es hora de construir los números complejos. Para ello, definiremos primero el conjunto, $\mathbb{C}$, sobre el que trabajaremos, después definiremos sus operaciones.

Una forma intuitiva de visualizar a $\mathbb{C}$ es tomar el conjunto de los números reales ($\mathbb{R}$) y en ellos introducir un nuevo elemento, $i$, el cual satisface que $i^2=-1$. Este es, realmente, un nuevo elemento, pues en $\mathbb{R}$ siempre se tiene que $x^2\geq 0$.

Una vez que introducimos a $i$, queremos que las operaciones de suma y producto estén definidas en $\mathbb{C}$ y que, además este conjunto, sea cerrado bajo estas operaciones. Es decir, es necesario que para cualquier número real $b$ se tenga $bi\in \mathbb{C}$ y que para cualesquiera números reales $a$ y $b$ tengamos, también, $a+bi\in \mathbb{C}$. Resulta que esto «es suficiente», en el sentido de que ya no hay que meter más números para que las operaciones estén bien definidas. Veamos como es esto, si tenemos los números de la forma $a+bi$ y $c+di$ con $a,b,c,d\in \mathbb{R}$ y los sumamos y multiplicamos como sigue: $$(a+bi)+(c+di)=(a+c)+(b+d)i$$, vemos que, la suma, «tiene la misma forma» (ya que $a+c$ y $b+d$ son números reales) así como su producto:
\begin{align*}
(a+bi)(c+di)&=ac+bci+adi+bdi^2\\
&=(ac-bd)+(ad+bc)i.
\end{align*}
Desde luego que lo anterior es soló una discusión informal. En las siguientes secciones veremos cómo formalizar estas ideas.

Los números complejos se comportan muy bien en términos algebraicos y en términos de análisis. En términos algebraicos, esto se comenzará a notar en la última parte del curso en donde veremos que cualquier polinomio tiene por lo menos una raíz compleja. En cursos posteriores, como el de álgebra lineal, verás otras de las propiedades algebraicas de los polinomios. Más adelante, si llevas un curso de variable compleja verás las bellas propiedades analíticas que tienen los números complejos.

El campo de los números complejos

La construcción del conjunto de números complejos es bastante sencilla. Para hacerla, simplemente consideraremos las parejas de números reales $$\mathbb{C}=\{(a,b): a,b\in \mathbb{R}\}.$$

Por el momento a cada $(a,b)$ lo puedes pensar de manera informal como el complejo $a+bi$. Lo interesante del conjunto de los números complejos no son sus elementos en sí, sino las siguientes operaciones que están definidas en él.

Definición. Para $(a,b)$ y $(c,d)$ en $\mathbb{C}$, definimos su suma como $$(a,b)+(c,d)=(a+c,b+d).$$

Recordemos que dentro del paréntesis se usa la suma de $\mathbb{R}$ ya que $a$, $b$, $c$ y $d$ son números reales.

Definición. Para $(a,b)$ y $(c,d)$ en $\mathbb{C}$, definimos su producto como $$(a,b)(c,d)=(ac-bd,ad+bc).$$

Igualmente dentro del paréntesis se usan la suma y producto de $\mathbb{R}$. La definición de producto está motivada por la discusión que hicimos en la introducción.

Teorema. El conjunto $\mathbb{C}$, junto con las operaciones de suma y producto que definimos, es un campo.

Demostración. La suma es conmutativa y asociativa ya que cada entrada pertenece a $\mathbb{R}$ y en $\mathbb{R}$ la suma es conmutativa y asociativa. El neutro es $(0,0)$ pues $$(a,b)+(0,0)=(a+0,b+0)=(a,b)$$ y para $(a,b)$ su inverso aditivo es $(-a,-b)$.

Veamos ahora el producto. Probemos que es conmutativo. Para dos complejos $(a,b)$ y $(c,d)$ tenemos que $$(a,b)(c,d)=(ac-bd,ad+bc)$$ y que $$(c,d)(a,b)=(ca-db,cb+da).$$

Ambos resultados son iguales ya que cada entrada pertenece a $\mathbb{R}$ y la suma y el producto son conmutativos en $\mathbb{R}$.

Probemos que el producto es asociativo. Para ello tomemos tres complejos $(a,b)$, $(c,d)$ y $(e,f)$. Tenemos que
\begin{align*}
[(a,b)(c,d)](e,f)&=(ac-bd,ad+bc)(e,f)\\
&=(ace-bde-adf-bcf,acf-bdf+ade+bce),
\end{align*} y que
\begin{align*}
(a,b)[(c,d)(e,f)]&=(a,b)(ce-df,cf+de)\\
&=(ace-adf-bcf-bde,acf+ade+bce-bdf),
\end{align*}

Ambas expresiones son iguales ya que cada entrada pertenece a $\mathbb{R}$ y la suma es conmutativa en $\mathbb{R}$.

El complejo $(1,0)$ actúa como neutro multiplicativo, pues $$(a,b)(1,0)=(a\cdot 1 – b\cdot 0, a\cdot 0 + b\cdot 1)=(a,b).$$ Además, si tomamos un complejo $(a,b)\neq (0,0)$ y lo multiplicamos por $\left(\frac{a}{a^2+b^2},\frac{-b}{a^2+b^2}\right)$ obtenemos \begin{align*}
(a,b)\left(\frac{a}{a^2+b^2},\frac{-b}{a^2+b^2}\right)&= \left(\frac{a^2+b^2}{a^2+b^2}, \frac{-ab}{a^2+b^2}+\frac{ba}{a^2+b^2}\right)\\ &= (1,0),
\end{align*} lo cual muestra que tenemos inversos multiplicativos.

Sólo falta demostrar la propiedad distributiva. Su verificación se deja como tarea moral.

$\square$

La copia de los reales en los números complejos

Dentro de $\mathbb{C}$ hay una copia de los números reales. Esta consiste en asociarle, a cada número real $a$, el número complejo $\varphi(a)=(a,0)$. Esta asociación es claramente biyectiva. Además, si $a$ y $b$ son números reales, tenemos que $$(a,0)+(b,0)=(a+b,0)=\varphi(a+b)$$ y
\begin{align*}
(a,0)(b,0) &= (ab-0\cdot 0, a\cdot 0 + b\cdot 0)\\
&= (ab,0) = \varphi(ab).
\end{align*}
Además los neutros se van a neutros y los inversos a inversos. Esto muestra que $\varphi$ es una asociación biyectiva entre $\mathbb{R}$ y los complejos de la forma $(a,0)$ y que respeta la estructura de campo de $\mathbb{R}$.

Por otro lado, notemos que $$(0,1) (0,1)= (0\cdot 0 – 1\cdot 1, 0\cdot 1 + 1\cdot 0)= (-1, 0).$$

En otras palabras, al elevar el complejo $(0,1)$ al cuadrado obtenemos el número $(-1,0)$, que es precisamente $\varphi(-1)$.

Tras toda esta discusión, estamos justificados entonces en llamar simplemente $1$ al complejo $(1,0)$, en llamar $i$ al complejo $(0,1)$, y por lo tanto en llamar $a+bi$ al complejo $(a,b)$. A partir de aquí ya podemos olvidar la notación de parejas y tratar a los números complejos como lo discutimos en la introducción.

Operaciones en la notación $a+bi$

La notación $a+bi$ para números complejos es bastante práctica. Podemos trabajar con los complejos «igualito que en $\mathbb{R}$, pero, además, con la propiedad de que $i^2=-1$».

Como $i^4=(-1)^2=1$, tenemos que las potencias de $i$ se ciclan cada cuatro: $$1, i, i^2, i^3, i^4, i^5, i^6, \ldots$$ son $$1,i, -1, -i, 1, i,\ldots .$$ Ya mencionamos en la introducción que para complejos $a+bi$ y $c+di$ se tiene que $$(a+bi)+(c+di)=(a+c)+(b+d)i$$ y que $$(a+bi)(c+di)=(ac-bd)+(ad+bc)i,$$ de modo que cualquier composición de sumas y productos de números complejos se puede simplificar a la forma $x+yi$ con $x$ y $y$ reales.

Ejemplo. Simplifica la expresión $$(1+i)(1-i)+(2+i)(3-4i).$$ Solución. Haciendo el producto del primer sumando tenemos $(1+i)(1-i)=1^2-i^2=1-(-1)=2$. Haciendo el producto del segundo sumando tenemos \begin{align*}
(2+i)(3-4i)&=6+3i-8i-4i^2\\
&=6-5i+4\\
&=10-5i.
\end{align*}
De esta forma, el resultado de la operación es $$2+(10-5i)=12-5i.$$

$\triangle$

En complejos también podemos usar expresiones fraccionales, como $\frac{3+2i}{5-i}$. Si queremos pasar estas expresiones a la forma $x+yi$ con $x$ y $y$ reales, tenemos que pensar a $\frac{1}{5-i}$ como «el inverso multiplicativo de $5-i$», que como vimos en la demostración de que $\mathbb{C}$ es un campo, es $$\frac{5}{5^2+(-1)^2}+\frac{1}{5^2+(-1)^2}i=\frac{5}{26}+\frac{1}{26} i.$$ Una vez hecho esto, tenemos que \begin{align*}
\frac{3+2i}{5-i}&=(3+2i)\left( \frac{5}{26}+\frac{1}{26} i \right)\\
&=\frac{13}{26} + \frac{13}{26} i\\
&=\frac{1}{2}+\frac{1}{2} i.
\end{align*}

Otra forma de pensarlo es que a una expresión de la forma $\frac{a+bi}{c+di}$ la podemos simplificar «multiplicando arriba y abajo» por $c-di$. De esta forma, obtenemos
\begin{align*}
\frac{a+bi}{c+di} \cdot \frac{c-di}{c-di} = \left(\frac{ac+bd}{c^2+d^2}\right) + \left(\frac{bc-ad}{c^2+d^2}\right)i.
\end{align*}

Ambos métodos dan el mismo resultado.

Más adelante…

Al tomar un número complejo $z=a+bi$ y calcular su inverso, aparecen de manera natural las expresiones $a-bi$ y $a^2+b^2$. Estas expresiones son fundamentales.

  • A $a-bi$ se le conoce como el conjugado de $z$, y se denota por $\overline{z}$.
  • A $\sqrt{a^2+b^2}$ se le conoce como la norma de $z$ y se denota por $|z|$.

En la siguiente ocasión hablaremos de las propiedades de estas dos operaciones y cómo están relacionadas entre sí. Más adelante veremos su utilidad al resolver ecuaciones cuadráticas en los números complejos.

Si quieres, puedes revisar esta entrada sobre aplicaciones interesantes de los números complejos en la resolución de problemas. Tiene teoría que no hemos visto, pero te puede servir de motivación para aprender lo que veremos a continuación.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra que en los complejos se satisface la ley distributiva.
  2. Verifica que bajo la asociación $\varphi$ en efecto los neutros se van a los neutros y los inversos a inversos.
  3. Realiza la operación $(1+i)(2+i)(1+2i)(2+2i)$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.
  4. Realiza la operación $$\frac{3+5i}{2+i}-\frac{1+2i}{4-3i}$$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.
  5. Realiza la operación $$1+(1+i)+(1+i)^2+(1+i)^3+(1+i)^4$$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»