Archivo de la etiqueta: combinación lineal

Álgebra Lineal II: Existencia de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores demostramos que para cualquier matriz nilpotente existe (y es única) una matriz similar muy sencilla, hecha por lo que llamamos bloques de Jordan de eigenvalor cero. Lo que haremos ahora es mostrar una versión análoga de este resultado para una familia mucho más grande de matrices. De hecho, en cierto sentido tendremos un resultado análogo para todas las matrices.

Pensando en ello, lo que haremos en esta entrada es lo siguiente. Primero, generalizaremos nuestra noción de bloques de Jordan para contemplar cualquier eigenvalor. Estudiaremos un poco de los bloques de Jordan. Luego, enunciaremos el teorema que esperamos probar. Finalmente, daremos el primer paso hacia su demostración. En la siguiente entrada terminaremos la demostración y hablaremos de aspectos prácticos para encontrar formas canónicas de Jordan.

Enunciado del teorema de la forma canónica de Jordan

A continuación definimos a los bloques de Jordan para cualquier eigenvalor y tamaño.

Definición. Sea $F$ un campo. El bloque de Jordan de eigenvalor $\lambda$ y tamaño $k$ es la matriz $J_{\lambda,k}$ en $M_k(F)$ cuyas entradas son todas $\lambda$, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, $J_{\lambda,k}=[a_{ij}]$ con $$a_{ij}=\begin{cases} 1 & \text{si $j=i+1$}\\ \lambda & \text{si $i=j$} \\ 0 & \text{en otro caso.} \end{cases}$$

También podemos expresarlo de la siguiente manera:

$$J_{\lambda,k}=\begin{pmatrix} \lambda & 1 & 0 & \cdots & 0 & 0 \\ 0 & \lambda & 1 & \cdots & 0 & 0 \\ 0 & 0 & \lambda & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & \lambda & 1 \\ 0 & 0 & 0 & \cdots & 0 & \lambda \end{pmatrix},$$ en donde estamos pensando que la matriz es de $k\times k$.

Una última manera en la que nos convendrá pensar a $J_{\lambda,k}$ es en términos de los bloques de Jordan de eigenvalor cero: $J_{\lambda,k}=\lambda I_k + J_{0,k}$.

Definición. Una matriz de bloques de Jordan en $M_n(F)$ es una matriz diagonal por bloques en la que cada bloque en la diagonal es un bloque de Jordan.

Lo que nos gustaría demostrar es el siguiente resultado. En él, piensa en $\leq$ como algún orden total fijo de $F$ (para $\mathbb{R}$ es el orden usual, pero otros campos no necesariamente tienen un orden natural asociado).

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ sobre el campo $F$ y $T:V\to V$ una transformación lineal tal que $\chi_T(X)$ se divide sobre $F$. Entonces, existen únicos valores $\lambda_1\leq \ldots \leq \lambda_n$ en $F$ y únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} para los cuales existe una base de $V$ en la cual $T$ tiene como forma matricial a la siguiente matriz de bloques de Jordan:

$$\begin{pmatrix} J_{\lambda_1,k_1} & 0 & \cdots & 0 \\ 0 & J_{\lambda_2,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{\lambda_d,k_d}\end{pmatrix}.$$

Por supuesto, este teorema también tiene una versión matricial, la cuál tendrás que pensar cómo escribir.

Un teorema de descomposición de kernels

Ya tenemos uno de los ingredientes que necesitamos para dar la demostración de la existencia de la forma canónica de Jordan: su existencia para las transformaciones nilpotentes. Otro de los ingredientes que usaremos es el teorema de Cayley-Hamilton. El tercer ingrediente es un resultado de descoposición de kernels de transformaciones evaluadas en polinomios.

Proposición. Sea $V$ un espacio vectorial sobre $F$. Sea $T:V\to V$ una transformación lineal. Y sean $P_1(X),\ldots,P_r(X)$ polinomios en $F[x]$ cuyo máximo común divisor de cualesquiera dos de ellos es el polinomio $1$. Entonces, $$\ker((P_1P_2\cdots P_r)(T))=\bigoplus_{i=1}^r \ker(P_i(T)).$$

Demostración. Para cada $i\in \{1,2,\ldots,r\}$ consideraremos a $Q_i(X)$ como el polinomio que se obtiene de multiplicar a todos los polinomios dados, excepto $P_i(X)$. Y por comodidad, escribiremos $P(X)=(P_1\cdots P_r)(X)$. Notemos que entonces $P(X)=(Q_iP_i)(X)$ para cualquier $i\in\{1,2,\ldots,r\}$.

Primero probaremos un resultado polinomial auxiliar. Veremos que $Q_1(X),\ldots,Q_r(X)$ tienen como máximo común divisor al polinomio $1$. En caso de no ser así, un polinomio $D(X)$ no constante dividiría a todos ellos. Sin pérdida de generalidad, $D$ es irreducible (tomando, por ejemplo $D(X)$ de grado mínimo con esta propiedad). Como $D(X)$ es irreducible y divide a $Q_r(X)$, entonces debe dividir a alguno de los factores de $Q_r(X)$, que sin pérdida de generalidad (por ejemplo, reetiquetando), es $P_1(X)$. Pero $D(X)$ también divide a $Q_1(X)$, así que debe dividir a alguno de sus factores $P_2(X),\ldots,P_r(X)$, sin pérdida de generalidad a $P_2(X)$. Pero entonces $D(X)$ divide a $P_1(X)$ y $P_2(X)$, lo cual contradice las hipótesis. Así, $Q_1(X),\ldots,Q_r(X)$ tienen como máximo común divisor al polinomio $1$. Por el lema de Bézout para polinomios (ver tarea moral), existen entonces polinomios $R_1(X),\ldots,R_r(X)$ tales que

\begin{equation}
\label{eq:bezout}(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(X)=1.
\end{equation}

Estamos listos para pasar a los argumentos de álgebra lineal. Veamos primero que cualquier elemento en la suma de la derecha está en el kernel de $P(T)$. Tomemos $v=v_1+\ldots+v_r$ con $v_i\in \ker(P_i(T))$. Al aplicar $P$ obtenemos

\begin{align*}
P(v)&=P(v_1)+\ldots+P(v_r)\\
&=Q_1(P_1(v_1))+\ldots+Q_r(P_r(v_r))\\
&=0+\ldots+0=0.
\end{align*}

Esto muestra que $v\in \ker(P(T))$, de donde se obtiene la primera contención que nos interesa.

Veamos ahora la segunda contención, que $\ker(P(T))=\bigoplus_{i=1}^r \ker(P_i(T))$. Tomemos $v\in \ker(P(T))$. Al aplicar \eqref{eq:bezout} en $T$ y evaluar en $v$ obtenemos que

\begin{align*}
v&=\text{Id}(v)=(1)(T)(v)\\
&=(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(T)(v)\\
&=(R_1Q_1)(T)(v)+\ldots+(R_rQ_r)(T)(v).
\end{align*}

Pero esto justo expresa a $v$ como elemento de $\ker(P_i(T))$ pues para cada $i$ tenemos

\begin{align*}
P_i(T)((R_iQ_i)(T)(v))&=(P_iR_i Q_i )(T)(v)\\
&=(R_i Q_i P_i)(T)(v)\\
&=R_i(T)P(T)(v)\\
&=R_i(0)=0,
\end{align*}

de modo que expresamos a $v$ como suma de vectores en $\ker(P_1(T)),\ldots,\ker(P_r(T))$.

Ya demostramos la igualdad de conjuntos, pero recordemos que en la igualdad de suma directa hay otra cosa que hay que probar: que el cero tiene una forma única de expresarse como suma de elementos de cada subespacio (aquella en donde cada elemento es cero). Supongamos entonces que $$0=v_1+\ldots+v_r$$ con $v_i\in \ker(P_i(T))$ para cada $i$. Si aplicamos $Q_i$ en esta igualdad, como tiene todos los factores $P_j$ con $j\neq i$ obtenemos $$0=Q_i(0)=Q_i(v_i).$$

Por otro lado, al aplicar nuevamente \eqref{eq:bezout} en $T$ y evaluar en $v_i$

\begin{align*}
v_i&=\text{Id}(v_i)=(1)(T)(v_i)\\
&=(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(T)(v_i)\\
&=(R_1Q_1)(T)(v_1)+\ldots+(R_rQ_r)(T)(v_i)\\
&=(R_iQ_i)(T)(v_i)\\
&=0.
\end{align*}

De esta forma, en efecto tenemos que los espacios están en posición de suma directa, que era lo último que nos faltaba verificar.

$\square$

Existencia de la forma canónica de Jordan

Estamos listos para demostrar la existencia de la forma canónica de Jordan. Supongamos que $V$ es un espacio vectorial de dimensión finita $n$ sobre $F$ y que $T:V\to V$ es una transformación lineal cuyo polinomio característico se divide en $F[x]$. Sabemos entonces que es de la siguiente forma:

$$\chi_T(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r},$$

donde $\lambda_1,\ldots,\lambda_r$ son eigenvalores distintos de $T$ y $m_1,\ldots,m_r$ son las multiplicidades algebraicas respectivas de estos eigenvalores como raíces de $\chi_T(X)$.

Por el teorema de Cayley-Hamilton, sabemos que $\chi_T(T)=0$, de modo que $\ker(\chi_T(T))=V$. Por la proposición de descomposición de la sección anterior aplicada a los polinomios $P_i(X)=(X-\lambda_i)^{m_i}$ (verifica que son primos relativos dos a dos) para $i\in\{1,\ldots,r\}$ tenemos entonces que $$V=\bigoplus_{i=1}^r \ker((T-\lambda_i \text{id})^{m_i}).$$

Pero, ¿cómo es la transformación $T-\lambda_i \text{id}$ restringida a cada $\ker((T-\lambda_i \text{id})^{m_i})$? ¡Es nilpotente! Precisamente por construcción, $(T-\lambda_i \text{id})^{m_i}$ se anula totalmente en este kernel. Así, por la existencia de la forma canónica de Jordan para matrices nilpotentes, hay una base $\beta_i$ para cada $\ker((T-\lambda_i \text{id})^{m_i})$ tal que $T-\lambda_i \text{id}$ restringida a ese kernel tiene como forma matricial una matriz $J_i$ de bloques de Jordan de eigenvalor cero. Pero entonces $T$ (restringida a dicho kernel) tiene como forma matricial a $J_i+\lambda_i I_{m_i}$, que es una matriz de bloques de Jordan de eigenvalor $\lambda$.

Con esto terminamos: como $V$ es la suma directa de todos esos kernel, la unión de bases $\beta_1,\ldots,\beta_r$ es una base para la cual $T$ tiene como forma matricial a una matriz de bloques de Jordan.

$\square$

Más adelante…

Hemos demostrado la existencia de la forma canónica de Jordan, pero aún nos falta demostrar su unicidad. Además de esto, también necesitaremos un mejor procedimiento para encontrarla. Haremos eso en la siguiente entrada.

Tarea moral

  1. Enuncia el teorema de la forma canónica de Jordan versión matrices.
  2. Investiga más sobre el lema de Bézout para polinomios y cómo se demuestra. Después de esto, expresa al polinomio $1$ como combinación lineal de los polinomios $x^2-1, x^3+1, x^2+5x+4$.
  3. Verifica que los polinomios $P_i(X)=(X-\lambda_i)^{k_i}$ de la demostración de la existencia de la forma canónica de Jordan cumplen las hipótesis de la proposición de descomposición de kernels.
  4. Sea $F$ un campo y $r,s$ elementos en $F$. Sea $n$ un entero. Demuestra que los bloques de Jordan $J_{r,n}$ y $J_{s,n}$ en $M_n(F)$ conmutan.
  5. Siguiendo las ideas de la demostración de existencia, encuentra la forma canónica de Jordan de la matriz $$\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 2 & 2 \\ 0 & 0 & 0 & 2 \end{pmatrix}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Superior I: Los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$

Por Eduardo García Caballero

Introducción

A lo largo de esta unidad nos hemos enfocado en estudiar los vectores, las operaciones entre estos y sus propiedades. Sin embargo, hasta ahora solo hemos ocupado una definición provisional de vectores —listas ordenadas con entradas reales—, pero no hemos dado una definición formal de estos. En esta entrada definiremos qué es un espacio vectorial y exploraremos algunas de las propiedades de dos ejemplos importantes de espacios vectoriales: $\mathbb{R}^2$ y $\mathbb{R}^3$-

Las propiedades de espacio vectorial

En entradas anteriores demostramos que los pares ordenados con entradas reales (es decir, los elementos de $\mathbb{R}^2$), en conjunto con la suma entrada a entrada y el producto escalar, cumplen las siguientes propiedades:

1. La suma es asociativa:
\begin{align*}
(u+v)+w &= ((u_1,u_2) + (v_1,v_2)) + (w_1,w_2) \\
&= (u_1,u_2) + ((v_1,v_2) + (w_1,w_2)) \\
&= u+(v+w).\end{align*}

2. La suma es conmutativa:
\begin{align*}u+v &= (u_1,u_2) + (v_1,v_2) \\&= (v_1,v_2) + (u_1,u_2) \\&= v+u.\end{align*}

3. Existe un elemento neutro para la suma:
\begin{align*}
u + 0 &= (u_1,u_2) + (0,0) \\&= (0,0) + (u_1,u_2) \\&= (u_1,u_2) \\&= u.
\end{align*}

4. Para cada par ordenado existe un elemento inverso:
\begin{align*}
u + (-u) &= (u_1,u_2) + (-u_1,-u_2) \\&= (-u_1,-u_2) + (u_1,u_2) \\&= (0,0) \\&= 0.
\end{align*}

5. La suma escalar se distribuye bajo el producto:
\begin{align*}
(r+s)u &= (r+s)(u_1,u_2) \\&= r(u_1,u_2) + s(u_1,u_2) \\&= ru + su.
\end{align*}

6. La suma de pares ordenados se distribuye bajo el producto escalar:
\begin{align*}
r(u + v) &= r((u_1,u_2) + (v_1,v_2)) \\&= r(u_1,u_2) + r(v_1,v_2) \\&= ru + rv.
\end{align*}

7. El producto escalar es compatible con el producto de reales:
\[
(rs)u = (rs)(u_1,u_2) = r(s(u_1,u_2)) = r(su).
\]

8. Existe un elemento neutro para el producto escalar, que justo es el neutro del producto de reales:
\[
1u = 1(u_1,u_2) = (u_1,u_2) = u.
\]

Cuando una colección de objetos matemáticos, en conjunto con una operación de suma y otra operación de producto, cumple las ocho propiedades anteriormente mencionadas, decimos que dicha colección forma un espacio vectorial. Teniendo esto en consideración, los objetos matemáticos que pertenecen a la colección que forma el espacio vectorial los llamaremos vectores.

Así, podemos ver que los pares ordenados con entradas reales, en conjunto con la suma entrada a entrada y el producto escalar, forman un espacio vectorial, al cual solemos denominar $\mathbb{R}^2$. De este modo, los vectores del espacio vectorial $\mathbb{R}^2$ son exactamente los pares ordenados con entradas reales.

Como recordarás, anteriormente también demostramos que las ternas ordenadas con entradas reales, en conjunto con su respectiva suma entrada a entrada y producto escalar, cumplen las ocho propiedades antes mencionadas (¿puedes verificarlo?). Esto nos indica que $\mathbb{R}^3$ también es un espacio vectorial, y sus vectores son las ternas ordenadas con entradas reales. En general, el que un objeto matemático se pueda considerar o no como vector dependerá de si este es elemento de un espacio vectorial.

Como seguramente sospecharás, para valores de $n$ distintos de 2 y de 3 también se cumple que $\mathbb{R}^n$ forma un espacio vectorial. Sin embargo los espacios $\mathbb{R}^2$ y $\mathbb{R}^3$ son muy importantes pues podemos visualizarlos como el plano y el espacio, logrando así describir muchas de sus propiedades. Por esta razón, en esta entrada exploraremos algunas de las principales propiedades de $\mathbb{R}^2$ y $\mathbb{R}^3$.

Observación. Basándonos en la definición, el hecho de que una colección de elementos se pueda considerar o no como espacio vectorial depende también a las operaciones de suma y producto. Por esta razón, es común (y probablemente más conveniente) encontrar denotado el espacio vectorial $\mathbb{R}^2$ como $(\mathbb{R}^2,+,\cdot)$. Más aún, a veces será importante destacar a los elementos escalares y neutros, encontrando el mismo espacio denotado como $(\mathbb{R}^2, \mathbb{R}, +, \cdot, 0, 1)$. Esto lo veremos de manera más frecuente cuando trabajamos con más de un espacio vectorial, sin embargo, cuando el contexto nos permite saber con qué operaciones (y elementos) se está trabajando, podemos omitir ser explícitos y denotar el espacio vectorial simplemente como $\mathbb{R}^2$ o $\mathbb{R}^3$.

Combinaciones lineales

Como vimos en entradas anteriores, la suma de vectores en $\mathbb{R}^2$ la podemos visualizar en el plano como el resultado de poner una flecha seguida de otra, mientras que el producto escalar lo podemos ver como redimensionar y/o cambiar de dirección una flecha.

En el caso de $\mathbb{R}^3$, la intuición es la misma, pero esta vez en el espacio.

Si tenemos varios vectores, podemos sumar múltiplos escalares de ellos para obtener otros vectores. Esto nos lleva a la siguiente definición.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), definimos una combinación lineal de estos vectores como el resultado de la operación
\[
r_1v_1 + r_2v_2 + \cdots + r_nv_n,
\]
donde $r_1, \ldots, r_n$ son escalares.

Ejemplo. En $\mathbb{R}^2$, las siguientes son combinaciones lineales:
\begin{align*}
4(9,-5) + 7(-1,0) + 3(-4,2) &= (17,-14), \\[10pt]
5(1,0) + 4(-1,-1) &= (1,-4), \\[10pt]
-1(1,0) + 0(-1,-1) &= (-1,0), \\[10pt]
5(3,2) &= (15,10).
\end{align*}
De este modo podemos decir que $(17,-14)$ es combinación lineal de los vectores $(9,-5)$, $(-1,0)$ y $(-4,2)$; los vectores $(1,-4)$ y $(-1,0)$ son ambos combinación lineal de los vectores $(1,0)$ y $(-1,-1)$; y $(15,10)$ es combinación lineal de $(3,2)$.

Las combinaciones lineales también tienen un significado geométrico. Por ejemplo, la siguiente figura muestra cómo se vería que $(1,-4)$ es combinación lineal de $(1,0)$ y $(-1,-1)$:

$\triangle$

Ejemplo. En el caso de $\mathbb{R}^3$, observamos que $(7,13,-22)$ es combinación lineal de los vectores $(8,1,-5)$, $(1,0,2)$ y $(9,-3,2)$, pues
\[
4(8,1,-5) + 2(1,0,2) + (-3)(9,-3,2) = (7,13,-22).
\]

$\triangle$

Espacio generado

La figura de la sección anterior nos sugiere cómo entender a una combinación lineal de ciertos vectores dados. Sin embargo, una pregunta natural que surge de esto es cómo se ve la colección de todas las posibles combinaciones lineales de una colección de vectores dados.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), definimos al espacio generado por ellos como el conjunto de todas sus posibles combinaciones lineales. Al espacio generado por estos vectores podemos encontrarlo denotado como $\operatorname{span}(v_1, \ldots, v_n)$ o $\langle v_1, \ldots, v_n \rangle$ (aunque esta última notación a veces se suele dejar para otra operación del álgebra lineal).

¿Cómo puede verse el espacio generado por algunos vectores? Puede demostrarse que en el caso de $\mathbb{R}^2$ tenemos los siguientes casos.

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector $0$.
  • Una recta: esto sucede si al menos un vector $u$ es distinto de 0 y todos los vectores se encuentran alineados. La recta será precisamente aquella formada por los múltiplos escalares de $u$.
  • Todo $\mathbb{R}^2$: esto sucede si al menos dos vectores $u$ y $v$ de nuestro conjunto no son cero y además no están alineados. Intenta convencerte que en efecto en este caso puedes llegar a cualquier vector del plano sumando un múltiplo de $u$ y uno de $v$.

En $\mathbb{R}^3$, puede mostrarse que el espacio generado se ve como alguna de las siguientes posibilidades:

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector $0$.
  • Una recta: esto sucede si al menos un vector $u$ es distinto de $0$ y todos los vectores se encuentran alineados con $u$. La recta consiste precisamente de los reescalamientos de $u$.
  • Un plano: esto sucede si al menos dos vectores $u$ y $v$ no son cero y no están alineados, y además todos los demás están en el plano generado por $u$ y $v$ estos dos vectores.
  • Todo $\mathbb{R}^3$: esto sucede si hay tres vectores $u$, $v$ y $w$ que cumplan que ninguno es el vector cero, no hay dos de ellos alineados, y además el tercero no está en el plano generado por los otros dos.

Muchas veces no sólo nos interesa conocer la forma del espacio generado, sino también obtener una expresión que nos permita conocer qué vectores pertenecen a este. Una forma en la que podemos hacer esto es mediante ecuaciones.

Ejemplo. Por ejemplo, observemos que el espacio generado el vector $(3,2)$ en $\mathbb{R}^2$ corresponde a los vectores $(x,y)$ que son de la forma
\[
(x,y) = r(2,3),
\]
donde $r \in \mathbb{R}$ es algún escalar. Esto se cumple si y sólo si
\[
(x,y) = (2r,3r),
\]
lo cual a su vez se cumple si y sólo si $x$ y $y$ satisfacen el sistema de ecuaciones
\[
\begin{cases}
x = 2r \\
y = 3r
\end{cases}.
\]
Si despejamos $r$ en ambas ecuaciones y las igualamos, llegamos a que
\[
\frac{x}{2} = \frac{y}{3},
\]
de donde podemos expresar la ecuación de la recta en su forma homogénea:
\[
\frac{1}{2}x – \frac{1}{3}y = 0;
\]
o bien en como función de $y$:
\[
y = \frac{3}{2}x.
\]

$\triangle$

La estrategia anterior no funciona para todos los casos, y tenemos que ser un poco más cuidadosos.

Ejemplo. El espacio generado por $(0,4)$ corresponde a todos los vectores $(x,y)$ tales que existe $r \in \mathbb{R}$ que cumple
\begin{align*}
(x,y) &= r(0,4) \\
(x,y) &= (0,4r),
\end{align*}
es decir,
\[
\begin{cases}
x = 0 \\
y = 4r
\end{cases}.
\]
En este caso, la única recta que satisface ambas ecuaciones es la recta $x = 0$, la cual no podemos expresar como función de $y$.

En la siguiente entrada veremos otras estrategias para describir de manera analítica el espacio generado.

$\triangle$

El saber si un vector está o no en el espacio generado por otros es una pregunta que se puede resolver con un sistema de ecuaciones lineales.

Ejemplo. ¿Será que el vector $(4,1,2)$ está en el espacio generado por los vectores $(2,3,1)$ y $(1,1,1)$? Para que esto suceda, necesitamos que existan reales $r$ y $s$ tales que $r(2,3,1)+s(1,1,1)=(4,1,2)$. Haciendo las operaciones vectoriales, esto quiere decir que $(2r+s,3r+s,r+s)=(4,1,2)$, de donde tenemos el siguiente sistema de ecuaciones:

$$\left\{\begin{matrix} 2r+s &=4 \\ 3r+s&=1 \\ r+s &= 2.\end{matrix}\right.$$

Este sistema no tiene solución. Veamos por qué. Restando la primera igualdad a la segunda, obtendríamos $r=1-4=-3$. Restando la tercera igualdad a la primera, obtendríamos $r=2-4=-2$. Así, si hubiera solución tendríamos la contradicción $-2=r=-3$. De este modo no hay solución.

Así, el vector $(4,1,2)$ no está en el espacio generado por los vectores $(2,3,1)$ y $(1,1,1)$. Geométricamente, $(4,1,2)$ no está en el plano en $\mathbb{R}^3$ generado por los vectores $(2,3,1)$ y $(1,1,1)$.

$\triangle$

Si las preguntas de espacio generado tienen que ver con sistemas de ecuaciones lineales, entonces seguramente estarás pensando que todo lo que hemos aprendido de sistemas de ecuaciones lineales nos servirá. Tienes toda la razón. Veamos un ejemplo importante.

Ejemplo. Mostraremos que cualquier vector en $\mathbb{R}^2$ está en el espacio generado por los vectores $(1,2)$ y $(3,-1)$. Para ello, tomemos el vector $(x,y)$ que nosotros querramos. Nos gustaría (fijando $x$ y $y$) poder encontrar reales $r$ y $s$ tales que $r(1,2)+s(3,-1)=(x,y)$. Esto se traduce al sistema de ecuaciones

$$\left \{ \begin{matrix} r+3s&=x\\2r-s&=y. \end{matrix} \right.$$

En forma matricial, este sistema es $$\begin{pmatrix} 1 & 3 \\ 2 & -1 \end{pmatrix} \begin{pmatrix} r \\ s \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix}.$$

Como la matriz $\begin{pmatrix} 1 & 3 \\ 2 & -1 \end{pmatrix}$ tiene determinante $1(-1)-(3)(2)=-7$, entonces es invertible. ¡Entonces el sistema siempre tiene solución única en $r$ y $s$ sin importar el valor de $x$ y $y$! Hemos con ello demostrado que cualquier vector $(x,y)$ es combinación lineal de $(1,2)$ y $(3,-1)$ y que entonces el espacio generado por ambos es todo $\mathbb{R}^2$.

$\triangle$

Independencia lineal

Mientras platicábamos en la sección anterior de las posibilidades que podía tener el espcio generado de un conjunto de vectores en $\mathbb{R}^2$ y $\mathbb{R}^3$, fuimos haciendo ciertas precisiones: «que ningún vector sea cero», «que nos vectores no estén alineados», «que ningún vector esté en los planos por los otros dos», etc. La intuición es que si pasaba lo contrario a alguna de estas cosas, entonces los vectores no podían generar «todo lo posible». Si sí se cumplían esas restricciones, entonces cierta cantidad de vectores sí tenía un espacio generado de la dimensión correspondiente (por ejemplo, $2$ vectores de $\mathbb{R}^3$ no cero y no alineados sí generan un plano, algo de dimensión $2$). Resulta que todas estas restricciones se pueden resumir en una definición muy importante.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), diremos que son linealmente independientes si es imposible escribir al vector $0$ como combinación lineal de ellos, a menos que todos los coeficientes de la combinación lineal sean iguales a $0$. En otras palabras, si sucede que $$r_1v_1 + r_2v_2 + \cdots + r_nv_n=0,$$ entonces forzosamente fue porque $r_1=r_2=\ldots=r_n=0$.

Puede mostrarse que si un conjunto de vectores es linealmente independiente, entonces ninguno de ellos se puede escribir como combinación lineal del resto de vectores en el conjunto. Así, la intuición de que «generan todo lo que pueden generar» se puede justificar como sigue: como el primero no es cero, genera una línea. Luego, como el segundo no es múltiplo del primero, entre los dos generarán un plano. Y si estamos en $\mathbb{R}^3$, un tercer vector quedará fuera de ese plano (por no ser combinación lineal de los anteriores) y entonces generarán entre los tres a todo el espacio.

La independencia lineal también se puede estudiar mediante sistemas de ecuaciones lineales.

Ejemplo. ¿Serán los vectores $(3,-1,-1)$, $(4,2,1)$ y $(0,-10,-7)$ linealmente independientes? Para determinar esto, queremos saber si existen escalares $r,s,t$ tales que $r(3,-1,-1)+s(4,2,1)+t(0,-10,-7)=(0,0,0)$ en donde al menos alguno de ellos no es el cero. Esto se traduce a entender las soluciones del siguiente sistema de ecuaciones:

$$\left\{ \begin{array} 33r + 4s &= 0 \\ -r +2s -10t &= 0 \\ -r + s -7t &= 0.\end{array} \right. $$

Podemos entender todas las soluciones usando reducción Gaussiana en la siguiente matriz:

$$\begin{pmatrix} 3 & 4 & 0 & 0 \\ -1 & 2 & -10 & 0 \\ -1 & 1 & -7 & 0 \end{pmatrix}.$$

Tras hacer esto, obtenemos la siguiente matriz:

$$\begin{pmatrix}1 & 0 & 4 & 0\\0 & 1 & -3 & 0\\0 & 0 & 0 & 0 \end{pmatrix}.$$

Así, este sistema de ecuaciones tiene a $t$ como variable libre, que puede valer lo que sea. De aquí, $s=3t$ y $r=-4t$ nos dan una solución. Así, este sistema tiene una infinidad de soluciones. Tomando por ejemplo $t=1$, tenemos $s=3$ y $r=-4$. Entonces hemos encontrado una combinación lineal de los vectores que nos da el vector $(0,0,0)$. Puedes verificar que, en efecto, $$(-4)(3,-1,-1)+3(4,2,1)+(0,-10,-7)=(0,0,0).$$

Concluimos que los vectores no son linealmente independientes.

$\triangle$

Si la única solución que hubiéramos obtenido es la $r=s=t=0$, entonces la conclusión hubiera sido que sí, que los vectores son linealmente independientes. También podemos usar lo que hemos aprendido de matrices y determinantes en algunos casos para poder decir cosas sobre la independencia lineal.

Ejemplo. Mostraremos que los vectores $(2,3,1)$, $(0,5,2)$ y $(0,0,1)$ son linealmente independientes. ¿Qué sucede si una combinación lineal de ellos fuera el vector cero? Tendríamos que $r(2,3,1)+s(0,5,2)+t(0,0,1)=(0,0,0)$, que se traduce en el sistema de ecuaciones $$\left\{ \begin{array} 2r &= 0 \\ 3r + 5s &= 0 \\ r + 2s + t &= 0. \end{array}\right.$$

La matriz asociada a este sistema de ecuaciones es $\begin{pmatrix} 2 & 0 & 0 \\ 3 & 5 & 0 \\ 1 & 2 & 1 \end{pmatrix}$, que por ser triangular inferior tiene determinante $2\cdot 5 \cdot 1 = 10\neq 0$. Así, es una matriz invertible, de modo que el sistema de ecuaciones tiene una única solución. Como $r=s=t$ sí es una solución, esta debe ser la única posible. Así, los vectores $(2,3,1)$, $(0,5,2)$ y $(0,0,1)$ son linealmente independientes. Geométricamente, ninguno de ellos está en el plano hecho por los otros dos.

$\triangle$

Bases

Como vimos anteriormente, existen casos en los que el espacio generado por vectores en $\mathbb{R}^2$ (o $\mathbb{R}^3$) no genera a todo el plano (o al espacio). Por ejemplo, en ambos espacios vectoriales, el espacio generado por únicamente un vector es una recta. Esto también puede pasar aunque tengamos muchos vectores. Si todos ellos están alineados con el vector $0$, entonces su espacio generado sigue siendo una recta también. En la sección anterior platicamos que intuitivamente el problema es que los vectores no son linealmente independientes. Así, a veces unos vectores no generan todo el espacio que pueden generar.

Hay otras ocasiones en las que unos vectores sí generan todo el espacio que pueden generar, pero lo hacen de «manera redundante», en el sentido de que uno o más vectores se pueden poner de más de una forma como combinación lineal de los vectores dados.

Ejemplo. Si consideramos los vectores $(2,1)$, $(1,0)$ y $(2,3)$, observamos que el vector $(2,3)$ se puede escribir como
\[
0(2,1)+3(1,0) + 2(2,3) = (7,6)
\]
o
\[
3(2,2) + 1(1,0) + 0(2,3)= (7,6),
\]
siendo ambas combinaciones lineales del mismo conjunto de vectores.

$\triangle$

Uno de los tipos de conjuntos de vectores más importantes en el álgebra lineal son aquellos conocidos como bases, que evitan los dos problemas de arriba. Por un lado, sí generan a todo el espacio. Por otro lado, lo hacen sin tener redundancias.

Definición. Diremos que un conjunto de vectores es base de $\mathbb{R}^2$ (resp. $\mathbb{R}^3$) si su espacio generado es todo $\mathbb{R}^2$ (resp. $\mathbb{R}^3$) y además son linealmente independientes.

El ejemplo de base más inmediato es el conocido como base canónica.

Ejemplo. En el caso de $\mathbb{R}^2$, la base canónica es $(1,0)$ y $(0,1)$. En \mathbb{R}^3$ la base canónica es $(1,0,0)$, $(0,1,0)$ y $(0,0,1)$.

Partiendo de las definiciones dadas anteriormente, vamos que cualquier vector $(a,b)$ en $\mathbb{R}$ se puede escribir como $a(1,0) + b(0,1)$; y cualquier vector $(a,b,c)$ en $\mathbb{R}^3$ se puede escribir como $a(1,0,0) + b(0,1,0) + c(0,0,1)$.

Más aún, es claro que los vectores $(1,0)$ y $(0,1)$ no están alineados con el origen. Y también es claro que $(1,0,0),(0,1,0),(0,0,1)$ son linealmente idependientes, pues la combinación lineal $r(1,0,0)+s(0,1,0)+t(0,0,1)=(0,0,0)$ implica directamente $r=s=t=0$.

$\triangle$

Veamos otros ejemplos.

Ejemplo. Se tiene lo siguiente:

  • Los vectores $(3,4)$ y $(-2,0)$ son base de $\mathbb{R}^2$ pues son linealmente independientes y su espacio generado es todo $\mathbb{R}^2$.
  • Los vectores $(8,5,-1)$, $(2,2,7)$ y $(-1,0,9)$ son base de $\mathbb{R}^3$ pues son linealmente independientes y su espacio generado es todo $\mathbb{R}^3$.

¡Ya tienes todo lo necesario para demostrar las afirmaciones anteriores! Inténtalo y haz dibujos en $\mathbb{R}^2$ y $\mathbb{R}^3$ de dónde se encuentran estos vectores.

$\triangle$

Como podemos observar, las bases de un espacio vectorial no son únicas, sin embargo, las bases que mencionamos para $\mathbb{R}^2$ coinciden en tener dos vectores, mientras que las bases para $\mathbb{R}^3$ coinciden en tener tres vectores. ¿Será cierto que todas las bases para un mismo espacio vectorial tienen la misma cantidad de vectores?

Más adelante…

En esta entrada revisamos qué propiedades debe cumplir una colección de objetos matemáticos para que sea considerado un espacio vectorial, además de que analizamos con más detalle los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$.

Como seguramente sospecharás, para otros valores de $n$ también se cumple que $\mathbb{R}^n$, en conjunto con sus respectivas suma entrada a entrada y producto escalar, forman un espacio vectorial. Sin embargo, en contraste con los espacios $\mathbb{R}^2$ y $\mathbb{R}^3$, este espacio es más difícil de visualizar. En la siguiente entrada generalizaremos para $\mathbb{R}^n$ varias de las propiedades que aprendimos en esta entrada.

Tarea moral

  1. Realiza lo siguiente:
    • De entre los siguientes vectores, encuentra dos que sean linealmente independientes: $(10,16),(-5,-8),(24,15),(10,16),(15,24),(-20,-32)$.
    • Encuentra un vector de $\mathbb{R}^2$ que genere a la recta $2x+3y=0$.
    • Determina qué es el espacio generado por los vectores $(1,2,3)$ y $(3,2,1)$ de $\mathbb{R}^3$.
    • Da un vector $(x,y,z)$ tal que $(4,0,1)$, $(2,1,0)$ y $(x,y,z)$ sean una base de $\mathbb{R}^3$.
  2. Demuestra que $(0,0)$ es el único vector $w$ en $\mathbb{R}^2$ tal que para todo vector $v$ de $\mathbb{R}^2$ se cumple que $v+w=v=w+v$.
  3. Prueba las siguientes dos afirmaciones:
    • Tres o más vectores en $\mathbb{R}^2$ nunca son linealmente independientes.
    • Dos o menos vectores en $\mathbb{R}^3$ nunca son un conjunto generador.
  4. Sean $u$ y $v$ vectores en $\mathbb{R}^2$ distintos del vector cero. Demuestra que $u$ y $v$ son linealmente independientes si y sólo si $v$ no está en la línea generada por $u$.
  5. Encuentra todas las bases de $\mathbb{R}^3$ en donde las entradas de cada uno de los vectores de cada base sean iguales a $0$ ó a $1$.

Entradas relacionadas

Álgebra Superior II: Mínimo común múltiplo

Por Ana Ofelia Negrete Fernández

Introducción

En la entrada anterior hablamos del máximo común divisor, para lo cual lo definimos en términos de ideales. Luego vimos que cumplía las propiedades que esperábamos. Es el turno de hacer lo mismo con el mínimo común múltiplo.

Recordando lo que nos enseñaron en la educación básica, el mínimo común múltiplo de dos enteros $a$ y $b$ tenía que ser simultáneamente múltiplo de ambos y, a la vez, tenía que ser lo más pequeño posible. Siendo un poco más precisos, tenía que ser un múltiplo positivo.

Como ejemplo, tomemos $a = 6$, $b = 8$. Una manera muy sencilla de encontrar un múltiplo en común es multiplicando ambos: $6\cdot 8 = 48$. Pero este no es el múltiplo más pequeño. Para poder encontrar aquel que sí sea el más pequeño, podemos enlistar los múltiplos de cada uno de estos números:

  • Múltiplos de $6$: $6,12,18,24,30,36, \ldots$
  • Múltiplos de $8$: $8, 16, 24, 32, 40, \ldots$

Notamos que el número más pequeño que está en ambas listas es el $24$. En educación básica había otras maneras de obtener esto sin hacer las listas anteriores, por ejemplo, mediante la siguiente tabla, en donde «vamos encontrando divisores en común, o bien de cada número».

862
432
232
133
1
El mínimo común múltiplo de 8 y 6 es $2^3\cdot 3 = 24.$

Lo que haremos será un poco distinto. Nuestra definición se basará nuevamente en el concepto de ideales. Veremos cómo hacer esto y cómo regresar al terreno familiar de mínimo común múltiplo que ya conocemos.

Mínimo Común Múltiplo

En la entrada de ideales en $\mathbb{Z}$ demostramos que la intersección de cualesquiera dos ideales es un ideal. También vimos que cualquier ideal era generado por algún entero no negativo. Esto nos lleva a la siguiente definición.

Definición. Sean $a$ y $b$ números enteros. Definimos a su mínimo común múltiplo como al entero no negativo $k$ tal que $a\mathbb{Z} \cap b\mathbb{Z} = k \mathbb{Z}$. En símbolos, nos referimos al mínimo común múltiplo de $a$ y $b$ como $\text{mcm}(a,b)$, o bien simplemente como $[a,b]$.

Ejemplo. Retomemos el ejemplo de la introducción. Si queremos calcular, por definición, al mínimo común múltiplo de los enteros $6$ y $8$, debemos considerar a los ideales $6\mathbb{Z}$ y $8\mathbb{Z}$, que respectivamente son:

$$6 \mathbb{Z} = \{\ldots, -12, -6, 0, 6, 12 ,18, 24, \ldots \}$$

$$8 \mathbb{Z}= \{\ldots, -16, -8, 0 ,8, 16, 24, 32, \ldots \}$$

Si hacemos la intersección de ambos ideales, notemos que obtenemos lo siguiente:

$$6 \mathbb{Z} \cap 8 \mathbb{Z} = \{\ldots, -24, 0, 24, 48, 72, \ldots\},$$

que es el ideal generado por el $24$. Así, tenemos, por definición, que el mínimo común múltiplo de $6$ y $8$ es igual a $24$.

$\triangle$

Propiedad fundamental del mínimo común múltiplo

Lo que nos gustaría hacer ahora es demostrar que el mínimo común múltiplo que obtuvimos de nuestra definición es, en efecto, el número que cumple con las propiedades que esperamos. Escribimos esto en la siguiente proposición.

Proposición. Sean $a$ y $b$ números enteros. Se cumple que:

  • $a\mid [a,b]$ y $b\mid [a,b]$
  • Si $a\mid m$ y $b\mid m$, entonces $[a,b]\mid m$.

Demostración. La primera parte es sencilla. Como $[a,b]$ genera a $a\mathbb{Z} \cap b \mathbb{Z}$, en particular está en este conjunto. Como $[a,b]\in a\mathbb{Z}$, entonces $a|[a,b]$ y como $[a,b]\in b\mathbb{Z}$, entonces $b|[a,b]$.

Para la segunda parte, si $a\mid m$ y $b\mid m$, entonces $m\in a\mathbb{Z}$ y $m\in b\mathbb{Z}$, pero entonces $m\in a\mathbb{Z} \cap b\mathbb{Z} = [a,b]\mathbb{Z}$. De este modo, $[a,b]|m$.

$\square$

Así, el primer punto dice que $[a,b]$ es en efecto un múltiplo en común. El segundo punto es el que dice que «es el mínimo», pues a partir de la divisibilidad ahí escrita se deduce que $|[a,b]|\leq |m|$. Si pedimos que $m$ sea positivo, tenemos entonces que, en efecto, $[a,b]\leq m$. En resumen.

Corolario. Sean $a$ y $b$ enteros y $m$ un entero positivo múltiplo tanto de $a$ como de $b$. Entonces $m\geq [a,b]$.

Otra propiedad del mínimo común múltiplo

Tanto el mínimo común múltiplo, como el máximo común divisor, tienen muchas propiedades que se pueden demostrar. Hay dos caminos que usualmente funcionan: o bien usar la definición a partir de ideales, o bien usar las propiedades fundamentales de cada uno de los conceptos. Veamos algunos ejemplos para el mínimo común múltiplo.

La siguiente propiedad dice que ahora mostraremos que el mínimo común múltiplo «saca constantes» en cierto sentido. Veremos una demostración usando ideales.

Proposición. Sea $k$ un entero positivo, y $b,c$ enteros cualesquiera. Se cumple que $ [kb, kc] = k[b,c]. $

Demostración. Por definición, $[kb,kc]$ es el entero no negativo que genera al ideal $(kb)\mathbb{Z} \cap (kc)\mathbb{Z}$. Nos gustaría ver que dicho entero es $k[b,c]$, en otras palabras, hay que verificar la siguiente igualdad de conjuntos:

$$(kb)\mathbb{Z} \cap (kc)\mathbb{Z} = k[b,c]\mathbb{Z}.$$

Veamos que el lado izquierdo está contenido en el derecho. Tomemos un entero $m$ del lado izquierdo. Como es múltiplo de $kb$, lo podemos escribir como $m=kbr$ para $r \in \mathbb{Z}$. Como es múltiplo de $kc$, lo podemos escribir como $m=kcs$ para $s\in \mathbb{Z}$. Tenemos entonces $kbr=m=kcs$, de donde $br=cs$ (usando $k>0$). Así, $n=br=cs$ es simultánteamente múltiplo de $b$ y $c$, así que debe ser múltiplo de $[b,c]$, digamos $n=t[b,c]$. De este modo, tenemos que $m=kbr=kn=kt[b,c]$. Esto muestra que $m$ está en $k[b,c]\mathbb{Z}$.

Ahora veamos que el lado derecho está contenido en el izquierdo. Un entero $m$ en $k[b,c]\mathbb{Z}$ es de la forma $m=k[b,c]t$ para $t$ un entero. Como $[b,c]$ es múltiplo de $b$ y $c$, podemos escribir $[b,c]=rb$ y $[b,c]=sc$ para algunos enteros $r$ y $s$. Tenemos entonces que

$$m=k[b,c]t=krbt=(kb)(rt),$$

lo cual muestra que $m$ está en $(kb)\mathbb{Z}$ y que

$$m=k[b,c]t=ksct=(kc)(st),$$

lo cual muestra que $m$ está en $(kc)\mathbb{Z}$. Esto muestra que $m$ está en la intersección buscada.

$\square$

Mínimo común múltiplo y primos relativos

Cuando dos números positivos son primos relativos, es sencillo encontrar su mínimo común múltiplo: simplemente se multiplican. De hecho, esto es una caracterización para los números primos relativos.

Proposición. Sean $a$ y $b$ dos números enteros positivos. Se tiene que $(a,b)=1$ si y sólo si $[a,b]=ab$.

Demostración. Supongamos primero que $(a,b)=1$. Tenemos que $a|[a,b]$ y que $b|[a,b]$ Por una propiedad de primos relativos de la entrada anterior, podemos deducir que $ab|[a,b]$. A la vez, sabemos que $[a,b]$ divide a cualquier múltiplo en común de $a$ y $b$, en particular, a $ab$, así, $[a,b]|ab$. Por cómo interactúa la divisibilidad con los valores absolutos, obtenemos entonces que $[a,b]=|[a,b]|=ab$, como queríamos.

Ahora supongamos que $[a,b]=ab$. Tomemos un número $d$ que divida tanto a $a$ como a $b$. Veremos que ese número debe ser $1$ ó $-1$. Escribamos $a=dr$ y $b=ds$. Tomemos el número $n=drs$. Notemos que $n=as=br$, así que $n$ es un múltiplo común de $a$ y $b$. Por ello, debe ser múltiplo del mínimo común múltiplo de ambos, que estamos suponiendo que es $ab$. Así, existe un entero $k$ con $drs=kab$ y por lo tanto $$drs=kab=kdrds.$$ De aquí deducimos que $1=kd$, por lo que $d$ debe de dividir a $1$ y por lo tanto es $1$ ó $-1$, como queríamos.

$\square$

En realidad esta proposición tiene una versión más general. Siempre se cumple, para cualesquiera dos enteros $a$ y $b$, que $|ab|=[a,b]\cdot (a,b)$. Este es un problema clásico que estudiaremos más adelante.

Más adelante…

El mínimo común múltiplo y el máximo común divisor son dos conceptos que se utilizan mucho en la teoría de números enteros. En estas últimas dos entradas hemos platicado un poco acerca de ellos. Más adelante veremos que estas mismas nociones se pueden generalizar para otras estructuras algebraicas, como la de los polinomios.

Por ahora continuaremos estudiando teoría de la divisibiliad dentro de los números enteros. Es el momento de introducir otro de los conceptos estelares: el de números primos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra el mínimo común múltiplo de los números $24$ y $36$. Luego, encuentra su máximo común divisor.
  2. Demuestra que, para $a,b\in \mathbb{Z}$ se cumple: $[a,b] = [-a,b] = [a,-b] = [-a, -b].$
  3. Sean $a$ y $b$ enteros positivos. Muestra que $[a^2,b^2]=[a,b]^2$ y que, en general, para un entero $k\geq 1$ se cumple que $[a^n,b^n]=[a,b]^n$.
  4. ¿Cómo definirías el mínimo común múltiplo de tres números? ¿Y el máximo común divisor de tres números?
  5. Sean $a$, $b$, $c$ enteros. ¿Cómo están relacionados entre sí $[a,c]$, $[b,c]$ y $[a+b,c]$? ¿Será alguno de ellos la suma de los otros dos? Demuéstralo o da un contraejemplo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior II: Máximo común divisor

Por Ana Ofelia Negrete Fernández

Introducción

La entrada anterior fue un poco técnica y habló acerca de ideales en los números enteros. Podemos apoyarnos de los ideales para construir otras nociones conocidas de la teoría de números enteros. En esta entrada hablaremos de una de ellas: la de máximo común divisor.

Quizás recuerdes la idea general del máximo común divisor a partir de lo que aprendiste en la educación básica. Por ejemplo, si tenemos a los números $14$ y $35$,y queremos encontrar su máximo común divisor, lo que se hacía es escribir los divisores de ambos:

  • Divisores de $14$: $1,2,7,14$.
  • Divisores de $35$: $1,5,7,35$.

Ya teniendo ambas listas, se elige número más grande que estén en ambas: el $7$.

Con lo que platicaremos en esta entrada vamos a recuperar esta misma noción, sin embargo lo haremos desde un punto de vista un poco más teórico, el cual nos permitirá entender más aspectos de divisibilidad de los máximos comunes divisores.

Definición de máximo común divisor

Recordemos, que en la entrada pasada vimos cómo encontrar al «ideal más pequeño» que tuviera a dos números $a$ y $b$ enteros dados.

Proposición. Si $a$ y $b$ son enteros, entonces:

  • El conjunto $M=\{ra+sb:r,s\in \mathbb{Z}\}$ es un ideal de $\mathbb{Z}$ que tiene a $a$ y a $b$.
  • Si $I$ es un ideal de $\mathbb{Z}$ que tiene a $a$ y a $b$, entonces $M\subseteq I$.

Como $M$ es el ideal más pequeño que tiene a $a$ y a $b$, le llamamos el ideal generado por $a$ y $b$, y lo escribimos como $\langle a,b\rangle$.

Además, en la entrada anterior también vimos que cualquier ideal de $\mathbb{Z}$ forzosamente es de la forma $k\mathbb{Z}$ para algún entero no negativo $k$, es decir, que consiste justo de los múltiplos de algún entero no negativo $k$. Esto nos permite plantear la siguiente definición.

Definición. Si $a$ y $b$ son enteros, definimos a su máximo común divisor como el entero no negativo $k$ tal que $$k\mathbb{Z}=\langle a,b\rangle.$$ A este número $k$ a veces se le denota por $\text{MCD}(a,b)$, o bien simplemente $(a,b)$.

Esta es una definición muy distinta de la que nos dan en la educación básica, sin embargo, pronto recuperaremos las propiedades familiares: veremos que en efecto es un divisor de $a$, es un divisor de $b$, y que de entre los divisores en común, es el más grande de ellos. Antes de pasar a las propiedades, veamos un ejemplo.

Ejemplo. Tomemos a los enteros $6$ y $14$. ¿Qué ideal $I$ generan? Es decir, ¿quién es $\langle 6,8\rangle$? Bueno, dicho ideal $I$ debe tener a $6$ y $14$, así que por cerradura de la resta tiene también a $14-6-8$, y similarmente debe tener a $8-6=2$. Pero recordemos que los ideales también son cerrados bajo producto por cualquier entero, así que al estar $2$ en $I$, debe pasar que todos los números pares están en $I$. Y en efecto, los números pares son un ideal de $\mathbb{Z}$ que tienen a $6$ y $14$. Con esto acabamos de demostrar que $\langle 6,14 \rangle = 2\mathbb{Z}$. De este modo, por definición, el máximo común divisor de $6$ y $14$ es igual a $2$.

$\triangle$

Propiedades del máximo común divisor

En esta sección veremos dos propiedades muy importantes del máximo común divisor. Por un lado, veremos que siempre se puede escribir «como combinación» de los números originales, en un sentido muy específico. Por otro lado, recuperaremos las «propiedades usuales» que queremos que se cumplan por lo que aprendimos en educación básica.

Proposición. Sean $a$ y $b$ números enteros. Entonces, existen enteros $r$ y $s$ tales que $$(a,b)=ra+sb.$$

Demostración. Por definición, $(a,b)$ es el entero tal que $\langle a,b \rangle =(a,b)\mathbb{Z}$, en particular, $(a,b)$ está en $\langle a,b\rangle$. Pero también ya sabemos que $$\langle a,b \rangle = \{ra+sb:r,s\in \mathbb{Z}\}.$$ Como $(a,b)$ está en $\langle a,b \rangle$, entonces se puede escribir de la forma de los elementos del conjunto de la derecha también, es decir, existen enteros $r$ y $s$ tales que $$(a,b)=ra+sb.$$

$\square$

Como estamos poniendo a $(a,b)$ de la forma $ra+sb$, en donde los coeficientes de $a$ y $b$ son los números enteros $r$ y $s$, decimos que $(a,b)$ se puede escribir como una combinación lineal entera de $a$ y $b$. La proposición anterior nos demuestra la existencia de dicha combinación lineal, sin embargo no nos dice exactamente cómo encontrarla. Más adelante veremos el algoritmo de Euclides, el cual nos da una forma práctica de encontrar al máximo común divisor de dos números como combinación lineal de ellos.

Veamos ahora el resultado que nos dice que, en efecto, el máximo común divisor divide a cada número, y que es «el más grande» que hace esto.

Proposición. Sean $a$ y $b$ números enteros. Entonces, se cumple lo siguiente:

  • $(a,b)|a$ y $(a,b)|b$.
  • Si $d$ es algún otro número tal que $d|a$ y $d|b$, entonces $d|(a,b)$.

Demostración. Notemos que $a\in \langle a, b\rangle$, y que por definición $\langle a,b \rangle = (a,b) \mathbb{Z}$. De este modo, $a$ es múltiplo de $(a,b)$. Análogamente, $b$ es múltiplo de $(a,b)$. Esto muestra el primer inciso.

Ahora supongamos que $d$ es otro número tal que $d|a$ y $d|b$. Por la proposición anterior, existen enteros $r$ y $s$ tales que $(a,b)=ra+sb$. Como $d|a$, entonces $d|ra$. Como $d|b$, entonces $d|sb$. Así, $d|ra+sb=(a,b)$, como queríamos.

$\square$

La proposición anterior sí dice que el máximo común divisor divide a ambos, sin embargo no es totalmente directo por qué es el «máximo» en tamaño. La segunda parte habla más bien de una divisibilidad. Pero esto se traduce rápidamente a una desigualdad con la ayuda de las propiedades de la divisibilidad. Observa que si $d$ es un número tal que $d|a$ y $d|b$, entonces $d|(a,b)$. Tenemos entonces que $|d|\leq |(a,b)|$. Pero $(a,b)$ siempre es no negativo por definición, así que $|d|\leq (a,b)$. En resumen, tenemos el siguiente resultado.

Corolario. Si $a$ y $b$ son enteros y $d$ es un entero tal que $d|a$ y $d|b$, entonces $|d|\leq (a,b)$.

Números primos relativos (de máximo común divisor igual a uno)

Una situación muy especial en la teoría de los números ocurre cuando el máximo común divisor de dos números es igual a $1$.

Definición. Decimos que dos números enteros $a$ y $b$ son primos relativos si su máximo común divisor es igual a $1$. En símbolos, son primos relativos si $(m,n)=1$.

Por lo que hemos discutido hasta ahora, algunas de las consecuencias de que dos números $a$ y $b$ sean primos relativos son las siguientes:

  • Si $d$ es un número que divide a $a$ y a $b$, entonces $|d|\leq (a,b)=1$, es decir, $d=1$ o $d=-1$. De este modo, los únicos divisores que tienen en común son el $1$ y el $-1$.
  • El ideal generado por $a$ y $b$ es $1\cdot \mathbb{Z} = \mathbb{Z}$, es decir, consiste de todos los enteros.
  • Por esa misma razón, se tiene que $\{ra+sb: r,s \in \mathbb{Z}\}=\mathbb{Z}$, en otras palabras, cualquier entero es combinación lineal entera de $a$ y de $b$.
  • En particular, el $1$ es combinación lineal entera de $a$ y de $b$, es decir, existen enteros $r,s$ tales que $ra+sb=1$.

Estas consecuencias son prácticamente inmediatas de la definición, y es recomendable que intentes deducirlas por tu cuenta.

Veamos algunas otras propiedades que relacionan a los números primos relativos, con divisibilidad de algunas expresiones.

Proposición. Sean $a,b,c$ números enteros . Si $a\mid bc$ y $(a,b) = 1$, entonces $a\mid c.$

Demostración. Como $a$ divide a $bc$, existe $x \in \mathbb{Z}$ tal que $ax = bc$. Como $a$ y $b$ son primos relativos, sabemos que existen enteros $r$ y $s$ tales que $1 = ra+sb$. Multipliquemos esta última igualdad por $c$. Tenemos entonces que:
$$ c = rac + sbc = rac+ sax = a (rc+sx).$$

De aquí obtenemos la divisibilidad $a\mid c$ que buscábamos.

$\square$

En la proposición anterior es crucial la hipótesis de que $a$ y $b$ sean primos relativos. Por ejemplo, $7|28=14\cdot 2$, pero no pasa que $7|2$. Es decir, usualmente si dividimos a un producto, no se cumple que dividamos a cualquiera de sus factores.

A continuación tenemos otro resultado con un estilo similar.

Proposición. Sean $a,b,c \in \mathbb{Z}.$ Si $a\mid c$, $b\mid c$ y $(a,b) =1,$ entonces $ab \mid c$.

Demostración. Ya que $a,b$ son primos relativos, existen $m,n \in \mathbb{Z}$ tales que $1=am + bn $. Multipliquemos dicha ecuación por $c$: $$c=cam + cbn.$$

Como $a\mid c$ y $b\mid c$, existen $q,r \in \mathbb{Z}$ tales que $aq = c$ y $br = c$. Sustituyendo esto en la ecuación anterior, obtenemos que: $$c=cam + cbn = bram + aqbn = ab(rm+qn).$$

Esta igualdad justo nos dice que $ab\mid c$, como queríamos.

$\square$

Intenta encontrar un contraejemplo cuando no se cumple la hipótesis de que $a$ y $b$ son números primos relativos.

Más adelante…

Dejaremos el estudio del máximo común divisor hasta aquí por el momento. En la siguiente entrada hablaremos de un concepto muy cercano: el de mínimo común múltiplo. Así como en el caso de esta entrada, introduciremos la noción a partir de un contexto de ideales, para luego ver ejemplos y algunas propiedades clave.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra todas las consecuencias de ser primos relativos de la lista enunciada en la entrada.
  2. Prueba que dos enteros consecutivos siempre son primos relativos. Usa esto para demostrar que siempre que se eligen $51$ números distintos entre $1$ y $100$, forzosamente debes tener dos de ellos que sean primos relativos.
  3. Sea $m$ un entero positivo. Demuestra que $(a,b)=1$ si y sólo si $(a^m, b^m) =1.$
  4. De acuerdo a la entrada, al tomar dos números $a$ y $b$ podemos encontrar enteros $r$ y $s$ tales que $(a,b)=ra+sb$. Demuestra que siempre sucede que $(r,s)=1$.
  5. Encuentra el máximo común divisor de $91$ y $70$ e intenta escribirlo como combinación lineal entera de ellos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Algunas aclaraciones sobre las formas lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Uno de los momentos del curso de Álgebra Lineal I en el que se da un brinco de abstracción es cuando se introduce el espacio dual. En ese momento, empiezan a aparecer objetos que tratamos simultáneamente como funciones y como vectores: las formas lineales. De repente puede volverse muy difícil trasladar incluso conceptos muy sencillos (como el de suma vectorial, o el de independencia lineal) a este contexto. En esta entrada intentaremos dejar esto mucho más claro.

Igualdad de funciones

Para hablar del dual de un espacio vectorial $V$ sobre un campo $F$, necesitamos hablar de las funciones $l:V\to F$. Antes de cualquier cosa, debemos de ponernos de acuerdo en algo crucial. ¿Cuándo dos funciones son iguales?

Definición. Dos funciones $f:A\to B$ y $g:C\to D$ son iguales si y sólo si pasan las siguientes tres cosas:

  • $A=C$, es decir, tienen el mismo dominio.
  • $B=D$, es decir, tienen el mismo codominio
  • $f(a)=g(a)$ para todo $a\in A$, es decir, tienen la misma regla de asignación.

Los dos primeros puntos son importantes. El tercer punto es crucial, y justo es lo que nos permitirá trabajar y decir cosas acerca de las funciones. Implica dos cosas:

  • Que si queremos demostrar la igualdad de dos funciones, en parte necesitamos demostrar que se da la igualdad de las evaluaciones para todos los elementos del conjunto.
  • Que si ya nos dan la igualdad de las funciones, entonces nos están dando muchísima información, pues nos están diciendo la igualdad de todas las evaluaciones posibles.

Veamos algunos ejemplos.

Ejemplo 1. Tomemos las funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las reglas de asignación $f(x,y)=2x+3y$ y $g(x,y)=6x-y$. ¿Son iguales? Los primeros dos puntos en la definición de igualdad se cumplen, pues tienen el mismo dominio y codominio. Entonces, debemos estudiar si tienen la misma regla de asignación.

Al evaluar en $(1,1)$ obtenemos que $f(1,1)=2+3=5$ y que $g(1,1)=6-1=5$. Al evaluar en $(2,2)$ obtenemos que $f(2,2)=4+6=10$ y que $g(2,2)=12-2=10$. Hasta aquí parecería que todo va bien, pero dos ejemplos no son suficientes para garantizar que $f=g$. Necesitaríamos la igualdad en todos los valores del dominio, es decir, en todas las parejas $(x,y)$.

Al evaluar en $(2,0)$ obtenemos que $f(2,0)=4+0=4$ y que $g(2,0)=12-0=12$. Los valores de las funciones fueron distintos, así que las funciones son distintas.

$\triangle$

Ejemplo 2. Imagina que $A$ y $B$ son dos números tales que las dos funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las siguientes reglas de asignación son iguales:

\begin{align*}
f(x,y)&=2x-5y+A\\
g(x,y)&=Bx-5y+3.
\end{align*}

¿Cuáles tendrían que ser los valores de $A$ y $B$? Por supuesto, una exploración «a simple vista» sugiere que tendríamos que poner $B=2$ y $A=3$. Pero, ¿cómo vemos formalmente esto? ¿Cómo nos aseguramos de que sea la única posibilidad? Lo que tenemos que hacer es usar nuestra definición de igualdad de funciones. Para ello, podemos utilizar los valores $(x,y)$ que nosotros queremos pues la igualdad de funciones garantiza la igualdad en todas las evaluaciones. Así, podemos ponernos creativos y proponer $(3,5)$ para obtener que:

\begin{align*}
f(3,5)&=6-25+A=-19+A\\
g(3,5)&=3B-25+3=3B-22.
\end{align*}

Como las funciones son iguales, debe pasar que $f(3,5)=g(3,5)$, por lo que $-19+A=3B-22$. ¿Esto es suficiente para saber quién es $A$ y $B$? Todavía no, aún hay muchas posibilidades. Propongamos entonces otro valor de $(x,y)$ para evaluar. Veamos qué sucede con $(-2,1)$. Obtenemos:

\begin{align*}
f(-2,1)&=-4-5+A=-9+A\\
g(-2,1)&=-2B-5+3=-2B-2.
\end{align*}

Ahora tenemos más información de $A$ y $B$. Sabemos que $-9+A=-2B-2$. Reordenando ambas cosas que hemos obtenido hasta ahora, tenemos el siguiente sistema de ecuaciones:

\begin{align*}
A-3B=-3\\
A+2B=7.
\end{align*}

Restando la primera de la segunda obtenemos $5B=10$, de donde $B=2$. Sustituyendo en la segunda obtenemos $A+4=7$, de donde $A=3$, justo como queríamos.

$\triangle$

En el ejemplo anterior pudimos haber sido más astutos y evitarnos el sistema de ecuaciones. Recordemos que la igualdad $f(x,y)=g(x,y)$ se tiene para todas todas las parejas $(x,y)$, así que nos conviene usar parejas que 1) Sean sencillas de usar y 2) Nos den suficiente información.

Ejemplo 3. En el ejemplo anterior hicimos un par de sustituciones que finalmente sí nos llevaron a los valores que queríamos. Pero hay «mejores» sustituciones. Si hubiéramos usado la pareja $(0,0)$ obtendríamos inmediatemente $A$ pues: $$A=0-0+A=f(0,0)=g(0,0)=0-0+3=3,$$ de donde $A=3$. Ya sabiendo $A$, pudimos usar la pareja $(1,0)$ para obtener $$B+3=B-0+3=g(1,0)=2-0+3=5.$$ De aquí se obtiene nuevamente $B=2$.

$\triangle$

Veamos un último ejemplo, en el que es imposible encontrar un valor fijo que haga que dos funciones que nos dan sean iguales.

Ejemplo 4. Veamos que es imposible encontrar un número real $A$ para el cual las dos funciones $f:\mathbb{R}^2\to\mathbb{R}$ y $g:\mathbb{R}^2\to \mathbb{R}$ con las siguientes reglas de asignación sean iguales:

\begin{align*}
f(x,y)&=x^2+Ay^2\\
g(x,y)&=Axy.
\end{align*}

Imaginemos, de momento, que esto sí es posible. Entonces, tendríamos la igualdad de funciones y por lo tanto tendríamos la igualdad para todas las evaluaciones. Evaluando en $(1,0)$ obtendríamos que $$0=A\cdot 1 \cdot 0 = g(1,0)=f(1,0)=1^2+A\cdot 0^2=1.$$ Esto nos lleva a la contradicción $0=1$, lo cual muestra que ningún valor de $A$ podría funcionar.

$\triangle$

La forma lineal cero

Otra noción básica, pero que es importante de entender, es la noción de la forma lineal cero.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $0$ el neutro aditivo del campo $F$. La forma lineal cero es la función $L_0:V\to F$ que manda a cualquier vector $v$ de $V$ a $0$, es decir, cuya regla de asignación es $L_0(v)=0$ para todo $v$ en $V$.

En álgebra lineal rápidamente nos queremos deshacer de notación estorbosa, pues muchas cosas son claras a partir del contexto. Pero esto tiene el problema de introducir ambigüedades que pueden ser confusas para alguien que apenas está comenzando a estudiar la materia. Lo que prácticamente siempre se hace es que a la forma lineal cero le llamamos simplemente $0$, y dejamos que el contexto nos diga si nos estamos refiriendo al neutro aditivo de $F$, o a la forma lineal cero $L_0$.

En esta entrada intentaremos apegarnos a llamar a la forma lineal cero siempre como $L_0$, pero toma en cuenta que muy probablemente más adelante te la encuentres simplemente como un $0$. Combinemos esta noción con la de igualdad.

Ejemplo. ¿Cómo tienen que ser los valores de $A$, $B$ y $C$ para que la función $l:\mathbb{R}^3\to \mathbb{R}$ con la siguiente regla de asignación sea igual a la forma lineal cero $L_0$? $$f(x,y,z)=(A+1)x+(B+C)y+(A-C)z$$

Debemos aprovechar la definición de igualdad de funciones: sabemos que la igualdad se da para las ternas que nosotros queramos. Evaluando en $(1,0,0)$ obtenemos $$A+1 = f(1,0,0)=L_0(1,0,0)=0.$$

Aquí a la derecha estamos usando que la forma lineal cero siempre es igual a cero. De manera similar, evaluando en $(0,1,0)$ y $(0,0,1)$ respectivamente obtenemos que \begin{align*}B+C&=f(0,1,0)=L_0(0,0,0)=0\\A-C&=f(0,0,1)=L_0(0,0,0)=0.\end{align*}

Ya tenemos información suficiente para encontrar $A$, $B$ y $C$. De la primer ecuación que obtuvimos, se tiene $A=-1$. De la tercera se tiene $C=A=-1$ y de la segunda se tiene $B=-C=1$.

Pero, ¡momento! Estos valores de $A$, $B$, $C$ funcionan para las tres ternas que dimos. ¿Funcionarán para cualquier otra terna? Si elegimos $A=-1$, $B=1$ y $C=-1$ entonces tendríamos $$f(x,y,z)=0\cdot x + 0\cdot y + 0\cdot z.$$ En efecto, sin importar qué valores de $(x,y,z)$ pongamos, la expresión anterior dará cero. Así, se daría la igualdad de reglas de correspondencia entre $f$ y $L_0$ y como tienen el mismo dominio y codominio concluiríamos que $f=L_0$.

$\triangle$

Suma y producto escalar de formas lineales

Otro aspecto que puede causar confusión es la suma de funciones y el producto escalar. En la duda, siempre hay que regresar a la definición. Enunciaremos los conceptos para formas lineales. Pero en realidad podemos definir la suma de funciones de manera similar siempre que el codominio sea un lugar en donde «se puede sumar». Similarmente, podríamos definir el producto escalar de un elemento con una función siempre que sepamos cómo multiplicar a ese elemento con cada elemento del codominio.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sean $l:V\to F$ y $m:V\to F$ formas lineales. Definimos la suma de $l$ con $m$, a la cual denotaremos por $l+m$, como la función $l+m:V\to F$ con la siguiente regla de asignación:$$(l+m)(v)=l(v)+m(v),$$ para cualquier $v$ en $V$.

De nuevo nos estamos enfrentando a un posible problema de ambigüedad de símbolos: por un lado estamos usando $+$ para referirnos a la suma en el campo $F$ y por otro lado para referirnos a la suma de funciones que acabamos de definir.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $l:V\to F$ una forma lineal y sea $r$ un elemento de $F$. Definimos el producto escalar de $r$ con $F$, al cual denotaremos por $r\cdot l$ como la función $r\cdot l:V\to F$ con la siguiente regla de asignación:$$(r\cdot l)(v)=r\cdot (l(v))$$ para cualquier $v$ en $V$.

Así, estamos usando tanto la suma en $F$ como el producto en $F$ para definir una nueva suma de funciones y un nuevo producto entre un real y una función. En el caso del producto escalar, como con muchos otros productos, usualmente quitamos el punto central y ponemos $rl$ en vez de $r\cdot l$.

Ejemplo. Tomemos las funciones $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3\to \mathbb{R}$ con las siguientes reglas de asignación:

\begin{align*}
f(x,y,z)&=2x-y+z\\
g(x,y,z)&=3x+y-5z.
\end{align*}

Mostraremos que la función $3f+(-2)g$ es igual a la función $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z)=-5y+13z$. Lo haremos con todo el detalle posible. Primero, notamos que las dos funciones tienen dominio $\mathbb{R}^3$ y codominio $\mathbb{R}$ así que nos podemos enfocar en la regla de asignación. Debemos ver que ambas coinciden para todas las ternas $(x,y,z)$ en $\mathbb{R}^3$. Tomemos entonces una de estas ternas $(x,y,z)$.

Por definición de producto escalar de funciones, tenemos que $$(3f)(x,y,z)=3(f(x,y,z))=3(2x-y+z)=6x-3y+3z.$$. Aquí estamos usando la distributividad en los reales. Por definición de producto escalar de funciones, tenemos que $$ ((-2)g)(x,y,z)=(-2)(g(x,y,z))=(-2)(3x+y-5z)=-6x-2y+10z.$$ Una vez más estamos usando distributividad. Luego, por definición de suma de funciones obtenemos que

\begin{align*}
(3f+(-2)g)(x,y,z)&=(3f)(x,y,z)+(-2g)(x,y,z)\\
&= (6x-3y+3z)+(-6x-2y+10z)\\
& = -5y+13z\\
&= h(x,y,z).
\end{align*}

$\square$

Usualmente tomamos atajos para seguir simplificando la notación. Por ello, típicamente a veces vemos escrito todo lo anterior simplemente como: $$3(2x-y+z)-2(2x+y-5z)=-5y+13z.$$ De hecho esto es muy práctico, pues se puede mostrar que las funciones «sí podemos operarlas como si fueran expresiones en $x$, $y$, $z$ y usáramos las reglas usuales». Así, podemos «trabajar simbólicamente» y concluir rápidamente que $$(x+y)+(3x+2z)-3(x+y-z)$$ en verdad tiene la misma regla de asignación que $-2y+5z$.

Ahora sí, ¿quién es el espacio dual?

Si tenemos un espacio vectorial $V$ sobre un campo $F$ podemos construirnos otro espacio vectorial con otro conjunto base y otras operaciones que no son las del espacio original. Una forma de hacer esto es construir el espacio dual, al que llamaremos $V^\ast$. Los elementos de $V^\ast$ son las formas lineales de $V$, es decir, funciones lineales con dominio $V$ y codominio $F$. Debemos acostumbrarnos a pensar simultáneamente a un elemento de $V^\ast$ tanto como un vector (de $V^\ast$) como una función (de $V$ a $F$).

Para verdaderamente pensar a $V^\ast$ como un espacio vectorial, debemos establecer algunas cosas especiales:

  • La suma vectorial de $V^\ast$ será la suma de funciones que platicamos en la sección anterior.
  • El producto escalar vectorial de $V^\ast$ será el producto escalar que platicamos en la sección anterior.
  • El neutro aditivo vectorial de $V^\ast$ será la forma lineal $L_0$, y se puede verificar que en efecto $l+L_0=l$ para cualquier forma lineal $l$.

Por supuesto, típicamente a la suma vectorial le llamaremos simplemente «suma» y al producto escalar vectorial simplemente «producto escalar». Aquí estamos haciendo énfasis en lo de «vectorial» sólo para darnos cuenta de que nuestras operaciones de funciones se transformaron en operaciones para el espacio vectorial que estamos definiendo.

El espacio dual cumple muchas propiedades bonitas, pero ahorita no nos enfocaremos en enunciarlas y demostrarlas. Esto se puede encontrar en la página del curso de Álgebra Lineal I en el blog. Lo que sí haremos es irnos a los básicos y entender cómo se verían algunas definiciones básicas de álgebra lineal en términos de lo que hemos discutido hasta ahora.

Combinaciones lineales de formas lineales

Para hablar de las nociones de álgebra lineal para formas lineales, hay que pensarlas como vectores y como funciones. ¿Qué sería una combinación lineal de las formas lineales $l_1,\ldots,l_r$ del espacio vectorial, digamos, $\mathbb{R}^n$. Debemos tomar elementos $\alpha_1,\ldots,\alpha_r$ en $\mathbb{R}$ y construir la función $\ell=\alpha_1l_1+\ldots+\alpha_rl_r$. Aquí estamos usando la suma vectorial y el producto escalar vectorial que quedamos que serían la suma como funciones y el producto escalar como funciones. Así, obtenemos un elemento $\ell$ que por un lado es un vector del espacio dual, y por otro es una función $\ell:\mathbb{R}^n\to \mathbb{R}$. ¿Cuál es la regla de asignación? Es precisamente la dada por las definiciones de suma y producto escalar para funciones. Para ser muy precisos, se puede mostrar inductivamente que su regla de asignación es:

\begin{align*}
(\alpha_1l_1+&\ldots+\alpha_rl_r)(x_1,\ldots,x_n)=\\
&\alpha_1(l_1(x_1,\ldots,x_n))+\ldots+\alpha_r(l_r(x_1,\ldots,x_n)).
\end{align*}

Entendiendo esto, ahora sí podemos preguntarnos si una forma lineal es combinación lineal de otras.

Ejemplo. La forma lineal $h:\mathbb{R}^2\to\mathbb{R}$ con regla de asignación $h(x,y)=2x-y$ es combinación lineal de las formas lineales $f(x,y):\mathbb{R}^2\to\mathbb{R}$ y $g(x,y):\mathbb{R}^2\to\mathbb{R}$ con reglas de asignación

\begin{align*}
f(x,y)&=x+y\\
g(x,y)&=x-y.
\end{align*}

En efecto, tenemos que es igual a la combinación lineal $\frac{1}{2}f + \frac{3}{2} g$, pues su regla de asignación es:

$$\left(\frac{1}{2}f + \frac{3}{2} g\right)(x,y)=\left(\frac{x+y}{2}\right)+\left(\frac{3x-3y}{2}\right)=2x-y,$$

que es justo la regla de asignación de $h$. Así, $h=\frac{1}{2}f+\frac{3}{2}g$.

$\triangle$

Independencia lineal de formas lineales

Veamos un ejemplo más de cómo entender nociones de álgebra lineal cuando hablamos de formas lineales (o funciones en general). ¿Cómo sería el concepto de independencia lineal para formas lineales $l_1,\ldots,l_r$? A partir de una combinación lineal de ellas igualada a la forma lineal cero $L_0$, debemos mostrar que todos los coeficientes son iguales a cero. Es decir, a partir de $$\alpha_1l_1+\ldots+\alpha_rl_r=L_0,$$ debemos mostrar que $\alpha_1=\ldots=\alpha_r=0.$$ Usualmente el truco en estas situaciones es que ya nos están dando una igualdad de funciones. Entonces, podemos evaluar en los valores que nosotros queramos de ambos lados de la igualdad pues funciones iguales tienen todas sus evaluaciones iguales. Esto se parece a los ejemplos de la sección de igualdad de funciones.

Ejemplo. Vamos a demostrar que las formas lineales de $\mathbb{R}^4$ dadas por $f(w,x,y,z)=4w+2x+z$, $g(w,x,y,z)=4w+2z+y$, $h(w,x,y,z)=4w+2y+x$, $k(w,x,y,z)=w+x+y+z$ son linealmente independientes. Tomemos una combinación lineal de ellas igualda a cero (¡recordemos que en este espacio vectorial el cero es la forma lineal $L_0$!):

$$Af+Bg+Ch+Dk=L_0.$$

Debemos demostrar que $A=B=C=D=0$. ¿Cómo hacemos esto? Lo que haremos es evaluar: pondremos valores convenientes de $(w,x,y,z)$ en la igualdad anterior para obtener información de $A$, $B$, $C$, $D$. Poniendo $(1,0,0,0)$ obtenemos que:

\begin{align*}
0&=L_0(1,0,0,0)\\
&= (Af+Bg+Ch+Dk)\\
&=Af(1,0,0,0)+ Bg(1,0,0,0) +Ch(1,0,0,0) +Dk(1,0,0,0) \\
&=4A + 4B + 4C + D.
\end{align*}

Así, $4A+4B+4C+D=0$. Usando esta ecuación y las evaluaciones $(0,1,0,0)$, $(0,0,1,0)$ y $(0,0,0,1)$, obtenemos todo lo siguiente:

\begin{align*}
4A+4B+4C+D&=0\\
2A+C+D&=0\\
B+2C+D&=0\\
A+2B+D&=0.
\end{align*}

De aquí se puede mostrar (como puedes verificar como ejercicio) que la única solución posible es $A=B=C=D=0$. De este modo, las formas lineales $f,g,h,k$ son linealmente independientes.

$\square$

Más adelante

Esta es más una entrada auxiliar que una entrada que forma parte del flujo de la teoría principal. Sin embargo, espero que te haya servido para dejar más claros los conceptos de cuándo tenemos formas lineales iguales, cómo se operan, cuándo varias formas lineales son linealmente independientes, etc.

Tarea moral…

  1. Verifica que para cualquier forma lineal $l:\mathbb{R}^n\to \mathbb{R}$ y la forma lineal cero $L_0:\mathbb{R}^n\to\mathbb{R}$ en efecto se tiene que $l+L_0=l$. Usa las definiciones de la forma lineal cero, de la igualdad de funciones y de la suma de funciones.
  2. Verifica que $V^\ast$ con las operaciones de suma, producto escalar y el neutro aditivo que dimos en efecto es un espacio vectorial. ¿Cómo tendrían que ser los inversos aditivos?
  3. Considera las formas lineales $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3 \to \mathbb{R}$ dadas por $f(x,y,z)=x+3y+z$ y $g(x,y,z)=-x+5y-z$.
    1. Demuestra que es imposible encontrar reales $A$ y $B$ ambos distintos de cero tales que $Af+Bg$ sea la forma lineal cero.
    2. Encuentra reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z) = -x + 21 – z$.
    3. Demuestra que es imposible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $j:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $j(x,y,z)= -2x + 4y -3z$.
    4. ¿Será posible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $k:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $k(x,y,z)=5x+5y+5z$?
  4. Para cada uno de los siguientes casos, determina si las formas lineales son linealmente independientes:
    1. $f(x,y)=5x+3y$, $g(x,y)=x-3y$.
    2. $f(x,y,z)=5x+2y-z$, $g(x,y,z)=z$, $h(x,y,z)=x-y-z$.
    3. $f(w,x,y,z)=w+y$, $g(w,x,y,z)=3x-2z$, $h(w,x,y,z)=x+y+z$, $k=(w,x,y,z)=w+2x-3z$.
  5. Considera el espacio vectorial de polinomios con coeficientes reales $\mathbb{R}[x]$. Considera la función $\text{ev}_k:\mathbb{R}[x]\to \mathbb{R}$ que a cada polinomio lo manda a su evaluación en $k$, es decir, con regla de asignación $\text{ev}_k(p)=p(k)$.
    1. Demuestra que cualquier $\text{ev}_k$ es una forma lineal.
    2. Sean $k_1,\ldots,k_r$ reales distintos. Muestra que $\text{ev}_{k_1},\ldots,\text{ev}_{k_r}$ son formas lineales linealmente independientes.

Entradas relacionadas