Álgebra Superior II: Esbozo de construcción de los números racionales y reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la unidad pasada vimos la construcción de los números enteros a partir de los números naturales. Lo que hicimos fue considerar parejas de números naturales $(a,b)$ para las que dimos la relación $\sim$ definida por $(a,b)\sim (c,d)$ si y sólo si $a+d=b+c$, vimos que esta relación es de equivalencia. Dijimos que, aunque era incorrecto formalmente, convenía pensar a la pareja $(a,b)$ como $a-b$ (es incorrecto ya que no siempre se puede restar en $\mathbb{N}$).

La relación $\sim$, así definida, genera las clases de equivalencia $$\overline{(a, b)}=\lbrace (c, d)\in \mathbb{N}\times\mathbb{N} : a+d=b+c\rbrace$$ en $\mathbb{N}\times\mathbb{N}$. El conjunto $\mathbb{Z}$ lo construimos como el conjunto de todas estas clases de equivalencia. En él definimos las operaciones:

  • Suma: $\overline{(a,b)}+\overline{(c,d)}=\overline{(a+c,b+d)}$.
  • Producto: $ \overline{(a,b)}\overline{(c,d)}=\overline{(ac+bd,ad+bc)}$.

Vimos que estas operaciones están bien definidas. La suma es bastante natural. El producto parece algo artificial, pero se vuelve natural si pensamos en «multiplicar $a-b$ con $c-d$», pues $(a-b)(c-d)=(ac+bd)-(ad+bc)$. Recordemos que es una justificación informal, pero ayuda a entender la intuición.

Después, nos dedicamos a probar que con estas operaciones, suma y producto, el conjunto $\mathbb{Z}$ es un anillo conmutativo con $1$ en donde se vale cancelar. A partir de ahí empezamos a ver a $\mathbb{Z}$ desde el punto de vista de la teoría de números. Estudiamos el máximo común divisor, la relación de divisibilidad, el anillo de enteros módulo $n$, congruencias, ecuaciones en congruencias, teorema chino del residuo y mencionamos un poco de ecuaciones diofantinas.

Con eso terminamos la unidad de enteros, correspondiente al segundo segundo parcial del curso.

Las siguientes dos unidades contempladas por el temario oficial son:

  • Números complejos.
  • Anillo de polinomios.

Vale la pena hacer una observación. Típicamente tenemos la siguiente cadena de contenciones entre sistemas numéricos $$\mathbb{N}\subset \mathbb{Z}\subset \mathbb{Q} \subset \mathbb{R}\subset \mathbb{C}.$$

En las primeras dos unidades del curso hablamos de $\mathbb{N}$ y de $\mathbb{Z}$. De acuerdo a las contenciones anteriores, lo siguiente sería tratar a detalle los racionales $\mathbb{Q}$ y los reales $\mathbb{R}$. Sin embargo el temario oficial «se los salta». Esto es un poco raro, pero podría estar justificado en que estos sistemas numéricos se estudian en otros cursos del plan de estudios. Por ejemplo, $\mathbb{R}$ se estudia con algo de profundidad en los cursos de cálculo.

De cualquier forma nos va a ser muy útil mencionar, por lo menos por «encima», cómo hacer la construcción de $\mathbb{Q}$ y $\mathbb{R}$. La construcción de los números racionales ayuda a repasar la construcción de los enteros. En la construcción de los números reales nos encontraremos con propiedades útiles que usaremos, de manera continua, cuando hablemos de la construcción de los números complejos $\mathbb{C}$. Por estas razones, aunque no vayamos a evaluar, las construcciones de $\mathbb{Q}$ y $\mathbb{R}$, en el curso, las ponemos aquí para que las conozcas o las repases.

Motivación de construcción de los racionales

Los naturales no son suficientes para resolver todas las ecuaciones de la forma $$x+a=b,$$ pues si $a>b$ la ecuación no tiene solución en $\mathbb{N}$ y esta fue nuestra motivación para construir los números enteros. En $\mathbb{Z}$ todas estas ecuaciones tienen solución. Sin embargo, en $\mathbb{Z}$ la ecuación $$ax=b$$ tiene solución si y sólo si $a$ divide a $b$ (por definición se tiene que $a$ divide a $b$ si y sólo si $b$ es un múltiplo de $a$), pero no siempre sucede esto. Por ejemplo, $3x=7$ no tiene solución en $\mathbb{Z}$.

Construcción de los racionales

Para la construcción de los racionales consideremos el conjunto $\mathbb{Z}\times \mathbb{Z}\setminus\{0\}$ y sobre él la relación $\sim$ definida por $(a,b)\sim (c,d)$ si y sólo si $ad=bc$. Resulta que $\sim$ es relación de equivalencia, así que, para cada pareja $(a,b)$ denotaremos como $\overline{(a,b)}$ a su clase de equivalencia. En este caso $$\overline{(a, b)}=\lbrace (m, n)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\} : an=bm\rbrace.$$

Observa que esta construcción se parece mucho a la que hicimos para $\mathbb{Z}$, aunque ahora nos basamos en el producto en $\mathbb{Z}$ (antes era la suma en $\mathbb{N}$). De nuevo, una forma de pensar bastante intuitiva (aunque formalmente incorrecta), es pensar a cada clase $\overline{(a,b)}$ «como $\frac{a}{b}$». Nota que estamos considerando sólo aquellas parejas $(a,b)$ tales que $b\neq 0$.

De esta forma $\mathbb{Q}$ es el conjunto de clases de equivalencia de las parejas $(a,b)$ tales que $b\neq 0$, en símbolos, $$\mathbb{Q}:=\{\overline{(a,b)}: a\in \mathbb{Z}, b\in \mathbb{Z}\setminus\{0\}\}.$$

Operaciones y orden en los racionales

Vamos a definir las operaciones en $\mathbb{Q}$. Ahora el producto es «intuitivo» y la suma no tanto.

  • Suma: $\overline{(a,b)} + \overline{(c,d)} = \overline{(ad+bc,bd)}$.
  • Producto: $\overline{(a,b)}\overline{(c,d)}=\overline{(ac,bd)}$.

La suma se vuelve mucho más intuitiva si primero pensamos en nuestra interpretación (informal) de $\overline{(a,b)}$ como $\frac{a}{b}$ y luego, por lo que aprendimos en educación primaria sobre la suma de fracciones, vemos que $$\frac{a}{b}+\frac{c}{d}=\frac{ad+bc}{bd}.$$

Ahora, para definir el orden en $\mathbb{Q}$, tomemos la pareja $(a,b)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\}$. Tenemos que la clase $\overline{(a,b)}$ es

  • Cero si $a=0$,
  • Positiva si ambos ($a$ y $b$) son negativos o ninguno es negativo con el orden definido en $\mathbb{Z}$ y
  • Negativa si exactamente alguno ($a$ o $b$) es negativo con el orden definido en $\mathbb{Z}$.

Diremos que $\overline{(a,b)}>\overline{(c,d)}$ si $\overline{(a,b)}-\overline{(c,d)}$ es positiva.

Se puede probar que estas operaciones suma y producto, así como el orden están bien definidas (es decir que no dependen del representante que se tome).

Antes, de continuar, consideremos lo siguiente: un campo se puede pensar como un conjunto en el que están definidas la «suma» y la «multiplicación» tales que:

  • La suma es asociativa, conmutativa, tiene un neutro (el $0$) e inversos aditivos.
  • La multiplicación es asociativa, conmutativa, tiene un neutro (el $1$) y todo elemento distinto de $0$ tiene un inverso multiplicativo.
  • Se tiene la distributividad del producto sobre la suma $a(b+c)=ab+bc$.

En vista de lo anterior queremos mencionar que se puede probar lo siguiente:

Teorema. El conjunto $\mathbb{Q}$ con sus operaciones de suma y producto es un campo ordenado.

Retomando lo que hablamos del neutro para la multiplicación, en un campo, veamos un ejemplo.

Ejemplo. La clase $\overline{(c,c)}$ es el neutro multiplicativo en $\mathbb{Q}$, veamos:

Se tiene que $$\overline{(a, b)(c, c)} = \overline{(ac,bc)}=\lbrace (m, n)\in\mathbb{Z}\times\mathbb{Z}\setminus\{0\}: acn=bcm\rbrace$$

y $\lbrace (m, n)\in\mathbb{Z}\times\mathbb{Z}\setminus\{0\}: acn=bcm\rbrace=\lbrace (m, n)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\}: anc=bmc\rbrace$, pero $\lbrace (m, n)\in\mathbb{Z}\times\mathbb{Z}\setminus\{0\}: anc=bmc\rbrace=\lbrace (m, n)\in\mathbb{Z}\times\mathbb{Z}\setminus\{0\}: an=bm\rbrace=\overline{(a, b)}$. Por lo tanto $\overline{(a, b)(c, c)}=\overline{(a, b)}$. Nota que aquí estamos usando que el producto en $\mathbb{Z}$ es asociativo, conmutativo y que se pueden cancelar factores distintos de cero.

En $\mathbb{Q}$, el inverso multiplicativo de la clase $\overline{(a,b)}$ es $\overline{(b,a)}$, veamos:

Su producto es $$\overline{(ab,ba)}=\lbrace (m, n)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\}: abn=bam\rbrace$$ y $\lbrace (m, n)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\}: abn=bam\rbrace=\lbrace (m, n)\in \mathbb{Z}\times\mathbb{Z}\setminus\{0\}: m=n\rbrace=\overline{(c, c)}$.

$\triangle$

Notación simple de racionales y ecuaciones aún sin solución

Vamos a denotar la clase de equivalencia $\overline{(a,b)}$ por $\frac{a}{b}$, a partir de lo cual nuestra interpretación de pensarlo así ya se vuelve formal. Se puede mostrar que todo lo que aprendimos de esta notación en la primaria se deduce de las propiedades de $\mathbb{Q}$.

La ecuación $$ax=b$$ tiene solución casi siempre, el único problema es si $a=0$. Pero si $a\neq 0$, la solución es única y es $x=\frac{b}{a}$.

El conjunto $\mathbb{Q}$ es bastante bueno algebraicamente, pero le falta todavía más para ser bueno para análisis y cálculo. Todavía tiene «bastantes hoyos»: en él no podemos probar, por ejemplo, el teorema del valor intermedio para funciones continuas. Así mismo, hay varias ecuaciones que todavía no tienen solución en $\mathbb{Q}$.

Ejercicio. La ecuación $x^2=3$ no tiene una solución en $\mathbb{Q}$.

Una forma de enunciar el resultado anterior es decir «$\sqrt{3}$ es irracional». Pero nota que es incorrecto enunciarlo así, pues para ponerle un nombre a $\sqrt{3}$, es necesario saber quién es, y justo el punto del ejercicio es que, tan sólo con $\mathbb{Q}$, no podemos definirlo.

Solución. Vamos a proceder por contradicción. Supongamos que la ecuación $x^2=3$ tiene una solución $p/q$ en los racionales. De esta forma,$(p/q)^2=3$. Multiplicando por $q^2$ en ambos lados, $p^2=3q^2$.

La factorización en primos del lado izquierdo tiene una cantidad par de $3$’s. La factorización en primos del lado derecho tiene una cantidad impar de $3$’s. Esto es una contradicción al teorema fundamental de la aritmética, por lo tanto, no existe $p/q$ solución racional de $x^2=3$.

$\triangle$

Reales y hoyos en los racionales

Para la construcción de los reales, ya no podemos proceder como le hemos estado haciendo, considerando simplemente parejas de números del sistema anterior y construyendo una relación de equivalencia sobre ellas. Lo que buscamos cuando damos el paso entre $\mathbb{Q}$ y $\mathbb{R}$ ya no es sólo que los números tengan «inversos aditivos» o «inversos multiplicativos», sino que «todos los conjuntos acotados por abajo tengan un mejor mínimo». Esto es lo que garantiza que se «llenen los hoyos» que tienen los racionales.

Entendamos el concepto de «hoyo»:

Definición. Sea $X$ un orden total $\le$ y $S$ un subconjunto de $X$, un ínfimo de $S$, en $X$, es un $r\in X$ tal que

  • $r\leq s$ para todo $s\in S$ y
  • si $t\leq s$ para todo $t\in S$, entonces $t\leq s$.

Definición. Un conjunto $X$ con un orden total $\le$ es completo si todo subconjunto $S$ de $X$, acotado inferiormente, tiene un ínfimo.

Ejemplo. El conjunto $\mathbb{Q}$ no es completo, pues el subconjunto $$S=\{x\in \mathbb{Q}: x^2\geq 3\}$$ está acotado inferiormente, pero no tiene un ínfimo en $\mathbb{Q}$ (su ínfimo es $\sqrt{3}$ y $\sqrt{3}$ no pertenece a $\mathbb{Q}$).

$\triangle$

Sucesiones de Cauchy y construcción de los reales

Hay varias formas de construir un sistema numérico que extienda a $\mathbb{Q}$ y que no tenga hoyos. Se puede hacer mediante cortaduras de Dedekind, mediante expansiones decimales o mediante sucesiones de Cauchy de números racionales. Todas estas construcciones son equivalentes. Daremos las ideas generales de la última.

Definición. Una sucesión $$\{x_n\}=\{x_1,x_2,x_3,\ldots\}$$ es de Cauchy si para todo $N$ existe un $M$ tal que si $m\geq M$ y $n\geq M$, entonces $|x_m-x_n|<\frac{1}{N}$. Denotaremos con $C(\mathbb{Q})$ al conjunto de todas las sucesiones de Cauchy de números racionales.

Construiremos una relación de equivalencia $\sim$ en $C(\mathbb{Q})$. Si tenemos dos de estas sucesiones:
\begin{align*}
\{x_n\}&=\{x_1,x_2,x_3,\ldots\} \quad \text{y}\\
\{y_n\}&=\{y_1,y_2,y_3,\ldots\},
\end{align*}

diremos que $\{x_n\}\sim \{y_n\}$ si para todo natural $N$ existe un natural $M$ tal que para $n\geq M$ tenemos que $$|x_n-y_n|<\frac{1}{N}.$$

Se puede probar que $\sim$ es una relación de equivalencia. Para cada sucesión $\{x_n\}$ de Cauchy usamos $\overline{\{x_n\}}$ para denotar a la clase de equivalencia de $\{x_n\}$. Por definición, el conjunto $\mathbb{R}$ es el conjunto de clases de equivalencia de $\sim$, en símbolos: $$\mathbb{R}:=\{\overline{\{x_n\}}: \{x_n\} \in C(\mathbb{Q})\}.$$

Operaciones y orden en los reales

En $\mathbb{R}$ podemos definir las siguientes operaciones:

  • Suma: $\overline{\{x_n\}} + \overline{\{y_n\}}= \overline{\{x_n + y_n\}}$ .
  • Producto: $\overline{\{x_n\}} \overline{\{y_n\}}= \overline{\{x_ny_n\}}$.

También podemos definir el orden en $\mathbb{R}$. Decimos que $\overline{\{x_n\}}$ es positivo si para $n$ suficientemente grande tenemos $x_n>0$. Decimos que $\overline{\{x_n\}}>\overline{\{y_n\}}$ si $\overline{\{x_n\}}- \overline{\{y_n\}}$ es positivo.

Se puede ver que las operaciones de suma y producto, así como el orden, están bien definidos. Más aún, se puede probar el siguiente resultado.

Teorema. El conjunto $\mathbb{R}$ con sus operaciones de suma y producto es un campo ordenado y completo.

Como antes, una vez que se prueba este teorema, se abandona la notación de sucesiones y de clases de equivalencia. En realidad se oculta, pues la construcción siempre está detrás, como un esqueleto que respalda las propiedades que encontramos.

El teorema nos dice que $\mathbb{R}$ ya no tiene hoyos, y esto es precisamente lo que necesitamos para resolver algunas ecuaciones como $x^2=3$. Un esbozo de por qué es el siguiente. Gracias a la existencia de ínfimos se puede probar el teorema del valor intermedio en $\mathbb{R}$. Se puede probar que la función $x^2$ es continua, que en $x=0$ vale $0$ y que en $x=2$ vale $4$, de modo que por el teorema del valor intermedio debe haber un real $x$ tal que $x^2=3$.

Más adelante…

Las muchas otras importantes consecuencias de que $\mathbb{R}$ sea un campo ordenado y completo se discuten a detalle en cursos de cálculo. Si bien este es un logro enorme, aún tenemos un pequeño problema: ¡todavía no podemos resolver todas las ecuaciones polinomiales! Consideremos la ecuación $$x^2+1=0.$$ Podemos mostrar que para cualquier real $x$ tenemos que $x^2\geq 0$, de modo que $x^2+1\geq 1>0$. ¡Esta ecuación no tiene solución en los números reales!

Para encontrar una solución vamos a construir los números complejos. Con ellos podremos, finalmente, resolver todas las ecuaciones polinomiales, es decir, aquellas de la forma

$$a_nx^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0=0.$$

Hablaremos de esto en el transcurso de las siguientes dos unidades: números complejos y polinomios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Cuál de las clases de equivalencia sería el neutro aditivo en $\mathbb{Q}$?
  2. ¿Por qué la definición de orden en $\mathbb{Q}$ no depende del representante elegido?
  3. ¿Cómo construirías el inverso multiplicativo de la sucesión de Cauchy $\{x_n\}$? Ten cuidado, pues algunos de sus racionales pueden ser $0$.
  4. Aprovecha esta entrada de transición entre unidades para repasar las construcciones de $\mathbb{N}$ y de $\mathbb{Z}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Introducción a espacio dual

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada empezamos la tercera unidad del curso de Álgebra Lineal I. Los conceptos fundamentales de esta nueva unidad son el de espacio dual y el de formas bilineales.

Hagamos un pequeño recordatorio, que será útil para entender los temas que vendrán. Ya definimos qué es un espacio vectorial y qué son las transformaciones lineales.

Para los espacios vectoriales, hablamos de subespacios, de conjuntos generadores, independientes y bases. A partir de ellos definimos qué quiere decir que un espacio sea de dimensión finita y, en ese caso, dijimos cómo definir la dimensión. Un lema fundamental para hacer esto fue el lema del intercambio de Steinitz.

Dijimos que las transformaciones lineales son funciones «bonitas» entre espacios vectoriales que «abren sumas» y «sacan escalares». Dimos como ejemplos a las proyecciones y las simetrías. Vimos lo que le hacen a generadores, linealmente independientes y bases. También, vimos que podemos expresarlas a través de matrices.

Un tipo de matrices de trasformaciones lineales muy importante son las matrices de cambios de base, que permiten conocer las coordenadas de vectores en distintas bases y pasar matrices de transformaciones lineales entre distintas bases. Finalmente, hablamos del rango para matrices y transformaciones lineales.

Es muy bueno entender estos temas lo mejor posible antes de continuar. Aunque no te queden 100% claras todas las demostraciones, por lo menos intenta sí conocer las hipótesis y los enunciados de los resultados principales.

Los temas que vendrán están basados en los capítulos 6 y 10 del libro de Titu Andreescu.

Dualidad y espacio dual

Antes de continuar, el siguiente ejemplo te debe de quedar clarísimo. Dice que hay una forma de hacer un espacio vectorial cuyos elementos son transformaciones lineales. Así es, cada vector de este espacio es una transformación lineal. Esto no debería de ser tan raro pues ya estudiamos algunos espacios vectoriales de funciones.

De ser necesario, verifica que en efecto se satisfacen los axiomas de espacio vectorial, para entender todavía mejor el ejemplo.

Ejemplo 1. Si $V$ y $W$ son espacios vectoriales sobre un mismo campo $F$, entonces el conjunto de transformaciones lineales de $V$ a $W$ es un espacio vectorial con las operaciones de suma de funciones y multiplicación por escalar.

Recordemos que la suma de funciones manda a las funciones $S:V\to W$ y $T:V\to W$ a la función $S+T:V\to W$ para la cual $$(S+T)(v)=S(v)+T(v)$$ y que la multiplicación por escalar manda al escalar $c\in F$ y a la función $T:V\to W$ a la función $cT:V\to W$ para la cual $$(cT)(v)=cT(v).$$

La razón por la cual este es un espacio vectorial es que es un subconjunto del espacio vectorial de todas las funciones de $V$ a $W$, y además es cerrado bajo sumas y multiplicaciones por escalar, de modo que es un subespacio.

A este espacio vectorial le llamamos $\text{Hom}(V,W)$.

$\triangle$

En esta unidad vamos a estudiar $\text{Hom}(V,W)$, pero para un caso particular muy concreto: para cuando $W$ es $F$, el campo sobre el cual está $V$. Podemos hacer esto, pues recuerda que podemos pensar al campo $F$ como un espacio vectorial sobre sí mismo.

A partir de ahora fijaremos el campo $F$. Si quieres, puedes pensarlo como $\mathbb{R}$ o $\mathbb{C}$ pero lo que digamos funcionará para campos arbitrarios.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. El espacio dual $V^\ast$ de $V$ es el conjunto de transformaciones lineales $l:V\to F$ dotado con las operaciones suma dada por $$(l_1+l_2)(v)=l_1(v)+l_2(v)$$ y producto por escalar dado por $$(cl)(v)=c(l(v))$$ para $l_1,l_2, l$ en $V^\ast$, $v$ en $V$ y $c$ en $F$.

A cada elemento de $V^\ast$ le llamamos una forma lineal en $V$. Usamos la palabra «forma» para insistir en que es una transformación que va hacia el campo $F$ sobre el cual está $V$.

Ejemplo 2. Consideremos al espacio vectorial $\mathbb{R}^3$. Está sobre el campo $\mathbb{R}$. Una forma lineal aquí es simplemente una transformación lineal $S_1:\mathbb{R}^3\to \mathbb{R}$, por ejemplo $$S_1(x,y,z)=x+y-z.$$ Otra forma lineal es $S_2:\mathbb{R}^3\to \mathbb{R}$ dada por $$S_2(x,y,z)=y+z-x.$$ Si sumamos ambas formas lineales, obtenemos la forma lineal $S_1+S_2$, la cual cumple $$(S_1+S_2)(x,y,z)=(x+y-z)+(y+z-x)=2y.$$

Estas son sólo dos formas lineales de las que nos interesan. Si queremos construir todo el espacio dual $(\mathbb{R}^3)^\ast$, necesitamos a todas las transformaciones lineales de $\mathbb{R}^3$ a $\mathbb{R}$.

Recordemos que cada transformación lineal $T$ de estas está representada de manera única por una matriz en $M_{1,3}(\mathbb{R})$ de la forma, digamos, $\begin{pmatrix} a & b & c\end{pmatrix}$. Así, toda transformación lineal de $\mathbb{R}^3$ a $\mathbb{R}$ lo que hace es enviar a $(x,y,z)$ a $$\begin{pmatrix} a& b & c \end{pmatrix}\begin{pmatrix}x\\ y\\ z\end{pmatrix}=ax+by+cz.$$ Se puede verificar que la suma de matrices y el producto escalar corresponden precisamente con la suma de sus transformaciones lineales asociadas, y su producto escalar.

Dicho de otra forma, $(\mathbb{R}^3)^\ast$ se puede pensar como el espacio vectorial de matrices $M_{1,3}(\mathbb{R})$. Observa que $\mathbb{R}^3$ y $(\mathbb{R}^3)^\ast$ tienen ambos dimensión $3$.

$\triangle$

Ejemplo 3. Consideremos el espacio vectorial $V$ de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$. Una forma lineal es una transformación lineal que a cada vector de $V$ (cada función) lo manda a un real en $\mathbb{R}$. Un ejemplo es la forma lineal $T:V\to \mathbb{R}$ tal que $$T(f)=\int_0^1 f(t)\,dt.$$ Otro ejemplo es la forma lineal $\text{ev}_0:V\to \mathbb{R}$ que manda a cada función a lo que vale en $0$, es decir, $$\text{ev}_0(f)=f(0).$$ Aquí dimos dos formas lineales, pero hay muchas más. De hecho, en este ejemplo no está tan sencillo decir quienes son todos los elementos de $V^\ast$.

$\triangle$

Espacio dual de un espacio de dimensión finita

Sea $V$ un espacio de dimensión finita $n$ y $B=\{e_1,e_2,\ldots,e_n\}$ una base de $V$. Como ya vimos antes, una transformación lineal queda totalmente definida por lo que le hace a los elementos de una base. Más concretamente, si $v=x_1e_1+\ldots+x_ne_n$, entonces lo que hace una forma lineal $l$ en $v$ es $$l(x_1e_1+\ldots+x_ne_n)=x_1a_1+\ldots+x_na_n,$$ en donde $a_i=l(e_i)$ son elementos en $F$.

Hay una manera canónica de combinar a un elemento $l$ de $V^\ast$ y a un elemento $v$ de $V$: evaluando $l$ en $v$. Así, definimos al emparejamiento canónico entre $V$ y $V^\ast$ como la función $$\langle\cdot, \cdot \rangle: V^\ast \times V$$ definida para $l$ en $V^\ast$ y $v$ en $V$ como $$\langle l,v\rangle = l(v).$$

Observa que $\langle\cdot, \cdot \rangle$ es lineal en cada una de sus entradas por separado, es decir para $c$ en $F$, para $l_1,l_2,l$ en $V^\ast$ y para $v_1,v_2,v$ en $V$ se tiene que $$\langle cl_1+l_2,v\rangle = c\langle l_1,v\rangle + \langle l_2,v\rangle$$ y que $$\langle l,cv_1+v_2\rangle = c\langle l,v_1\rangle +\langle l,v_2\rangle.$$ Esto es un ejemplo de una forma bilineal. Estudiaremos estas formas a detalle más adelante.

Vamos a hacer una pequeña pausa. Hasta ahora, para un espacio vectorial $V$ definimos:

  • Su espacio dual $V^\ast$.
  • El emparejamiento canónico entre $V$ y $V^\ast$.

Si a $V^\ast$ le estamos llamando «el dual» es porque esperamos que sea «muy parecido» a $V$. También, en una operación de dualidad nos gustaría que al aplicar dualidad dos veces «regresemos» al espacio original.

Por esta razón, nos gustaría a cada elemento $v$ de $V$ asociarle un elemento de $V^ {\ast \ast} $, el espacio dual del espacio dual. Afortunadamente, hay una forma muy natural de hacerlo. Para cada $v$ en $V$ podemos considerar la forma lineal $\text{ev}_v:V^\ast \to F$ que a cada forma lineal $l$ en $V^\ast$ le asigna $l(v)$.

Ejemplo. Considera el espacio vectorial de matrices $M_{2}(\mathbb{R})$. El espacio dual $M_{2}(\mathbb{R})^\ast$ consiste de todas las transformaciones lineales $T: M_{2}(\mathbb{R}) \to \mathbb{R}$. Un ejemplo de estas transformaciones es la transformación $T$ que a cada matriz la manda a la suma de sus entradas, $T\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+b+c+d$. Otro ejemplo es la transformación $S$ que a cada matriz la manda a su traza, es decir, $S\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+d$.

Consideremos ahora a la matriz $A=\begin{pmatrix} 5 & 2\\ 1 & 1\end{pmatrix}$.

A esta matriz le podemos asociar la transformación $\text{ev}_A:M_{2}(\mathbb{R})^\ast\to F$ tal que a cualquier transformación lineal $L$ de $ M_{2}(\mathbb{R})$ a $\mathbb{R}$ la manda a $L(A)$. Por ejemplo, a las $T$ y $S$ de arriba les hace lo siguiente $$\text{ev}_A(T)=T(A)=5+2+1+1=9$$ y $$\text{ev}_A(S)=S(A)=5+1=6.$$

$\triangle$

La discusión anterior nos permite dar una transformación lineal $\iota: V \to V {\ast \ast}$ tal que a cada $v$ la manda a $\text{ev}_v$, a la cual le llamamos la bidualidad canónica entre $V$ y $V^ {\ast \ast} $. Nota que $$\langle \iota(v), l\rangle=\langle l, v\rangle.$$ Un teorema importante que no probaremos en general, sino sólo para espacios vectoriales de dimensión finita, es el siguiente.

Teorema. Para cualquier espacio vectorial $V$, la bidualidad canónica es inyectiva.

De hecho, para espacios vectoriales de dimensión finita veremos que es inyectiva y suprayectiva, es decir, que es un isomorfismo entre $V$ y $V^{\ast \ast}$.

Formas coordenadas

En esta sección hablaremos de cómo encontrar una base para el espacio dual de un espacio vectorial $V$ de dimensión finita.

Supongamos que $V$ es de dimensión finita $n$ y sea $B=\{e_1,\ldots,e_n\}$ una base de $V$. A partir de la base $B$ podemos obtener $n$ formas lineales $e_i^\ast:V\to F$ como sigue. Para obtener el valor de $e_i^\ast$ en un vector $v$, expresamos a $v$ en términos de la base $$v=x_1e_1+x_2e_2+\ldots+x_n e_n$$ y definimos $e_i^\ast(v)=x_i$. A $e_i^\ast$ le llamamos la $i$-ésima forma coordenada para la base $B$ de $V$.

Directamente de las definiciones que hemos dado, tenemos que $$v=\sum_{i=1}^n e_i^\ast(v) e_i = \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i.$$

Otra relación importante es que $e_i^\ast(e_j)=0$ si $i\neq j$ y $e_i^\ast(e_j)=1$ si $i=j$. De hecho, muchas veces tomaremos esta como la definición de la base dual.

Ejemplo. Si estamos trabajando en $F^n$ y tomamos la base canónica $e_i$, entonces la forma canónica $e_i^\ast$ manda al vector $(x_1,\ldots,x_n)$ a $x_i$, que es precisamente la $i$-ésima coordenada. De aquí el nombre de formas coordenadas. En efecto, tenemos que $$v=x_1e_1+x_2e_2+\ldots+x_ne_n.$$

$\triangle$

Estamos listos para enunciar el teorema principal de esta entrada introductoria a dualidad lineal.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B=\{e_1,\ldots,e_n\}$ una base de $V$. Entonces el conjunto de formas coordenadas $B^\ast=\{e_1^\ast, \ldots,e_n^\ast\}$ es una base de $V^\ast$. En particular, $V^\ast$ es de dimensión finita $n$. Además, la bidualidad canónica $\iota:V\to V^{\ast \ast}$ es un isomorfismo de espacios vectoriales.

Más adelante…

Esta primera entrada introduce los conceptos de espacio dual. Estos conceptos son bastante útiles más adelante. Veremos que gracias a ellos, podemos dar una interpretación en términos de transformaciones lineales de la matriz transpuesta. En esta primer entrada también hablamos de formas lineales. Más adelante, veremos como éstas nos llevan de manera natural al concepto de «hiperplanos» en cualquier espacio vectorial. Uno de los resultados clave que demostraremos con la teoría de dualidad es que cualquier subespacio de un espacio vectorial de dimensión finita se puede pensar como intersección de hiperplanos. Gracias a esto encontraremos una fuerte relación entre subespacios y sistemas de ecuaciones lineales.

Antes de poder hacer estas cosas bien, necesitamos desarrollar bases sólidas. Por ello, en la siguiente entrada demostraremos el último teorema enunciado. También, veremos algunas recetas para resolver problemas de bases duales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Revisa por definición que si $V$ y $W$ son espacios vectoriales sobre $F$, entonces $\text{Hom}(V,W)$ es un espacio vectorial sobre $F$.
  • Encuentra más formas lineales en el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$.
  • Justifica por qué $\iota:V\to V^{\ast \ast}$ es una transformación lineal y argumenta por qué $\langle \iota (v),l\rangle = \langle l,v\rangle$.
  • En el espacio de polinomios $\mathbb{R}_n[x]$ con coeficientes reales y grado a lo más $n$, ¿quienes son las formas coordenadas para la base ordenada $(1,x,x^2,\ldots,x^{n-1},x^n)$?, ¿quiénes son las formas coordenadas para la base ordenada $(1,1+x,\ldots,1+\ldots+x^{n-1},1+\ldots+x^n)$?
  • Aplica el último teorema a la base canónica $E_{ij}$ de $M_2(\mathbb{R})$ para encontrar una base de $M_2(\mathbb{R})^\ast$
  • Considera el espacio vectorial $V$ de matrices en $M_2(\mathbb{R})$. ¿Quién es el kernel de la forma lineal en $V$ que a cada matriz la manda a su traza? ¿Quién es el kernel de la forma lineal $\text{ev}_A$ en $V^\ast$, donde $A=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Aritmética de números complejos

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores de esta sección hablamos de propiedades aritméticas de números enteros. En esta entrada veremos varias de las propiedades aritméticas de los números complejos y cómo se pueden usar para resolver problemas, incluso aquellos en los que los números complejos no están mencionados de manera explícita en el enunciado.

Distintas formas de los números complejos

La forma más común en la que pensamos en números complejos es en su forma rectangular, en donde un complejo se escribe de la forma $z=a+bi$, en donde $a$ y $b$ son números reales y pensamos a $i$ como un número tal que $i^2=-1$. A $a$ le llamamos la parte real y a $b$ la parte imaginaria.

Podemos colocar al complejo $z=a+ib$ en el plano cartesiano, identificándolo con el punto $(a,b)$. De aquí, la forma polar del complejo es $z=r(\cos \theta + i \sin \theta)$, en donde $r$ es la norma $|z|:=\sqrt{a^2+b^2}$ y si $z\neq 0$, $\theta$ es el argumento, que es el ángulo en el sentido antihorario desde el origen entre el eje horizontal y el punto $(a,b)$. Si $z=0+i0=0$, no definimos el argumento.

Forma polar y rectangular de un complejo
Forma polar y rectangular de un complejo.

Así como le hacíamos en el caso de trabajar con módulos, a veces conviene pensar que el argumento es el único ángulo en $[0,2\pi)$ que cumple lo anterior. En otras ocasiones, conviene pensar al argumento como a veces que es la clase de todos los ángulos módulo $2\pi$.

Cuando tenemos a complejos $w=a+ib$ y $z=c+id$ en forma rectangular, su suma $w+z=(a+c) + i(b+d)$ corresponde geométricamente a encontrar la diagonal del paralelogramo definido por $(a,b)$, $(c,d)$ y el origen, pues corresponde justo al punto $(a+c,b+d)$.

Suma de números complejos
Suma de números complejos.

Su multiplicación $wz$ en forma rectangular es $(ac-bd)+(ad+bc)i$, que geométricamente no es tan claro que sea.

La forma exponencial $z=re^{i\theta}$ es simplemente una forma de abreviar a la forma polar, pues por definición $e^{i\theta}=\cos \theta + i \sin \theta$. En forma exponencial, el producto es más sencillo de entender.

Ejercicio. Demuestra lo siguiente:

  • Muestra que la norma es multiplicativa, es decir, que para complejos $r$ y $s$ se tiene que $|rs|=|r||s|$.
  • Muestra que $e^{i\alpha}e^{i\beta}=e^{i(\alpha+\beta)}$.

Sugerencia. Para el primer punto, haz las cuentas usando la forma rectangular. Para el segundo punto, escribe las definiciones de todos los términos en forma polar. Haz las multiplicaciones en el lado izquierdo y usa las fórmulas trigonométricas para sumas de ángulos.

Por el ejercicio anterior, si tenemos a los complejos en forma polar $w=re^{i\alpha}$, $z=se^{i\beta}$, entonces el producto es $wz=rse^{i(\alpha+\beta)}$, de modo que el producto corresponde al complejo con el producto de normas y suma de argumentos. En ocasiones esto nos permite plantear algunos problemas geométricos en términos de números complejos.

Producto de números complejos.
Multiplicación de números complejos.


Aplicaciones de aritmética de complejos

Veamos dos aplicaciones de la teoría anterior a problemas que no mencionan en el enunciado a los números complejos.

Problema. Sean $a$ y $b$ enteros. Muestra que el número $(a^2+b^2)^n$ se puede expresar como la suma de los cuadrados de dos números enteros.

Podría ser tentador usar el binomio de Newton para elevar el binomio a la $n$-ésima potencia. Sugerimos que intentes esto para darte cuenta de las dificultades que presenta.

Sugerencia pre-solución. Escribe a $a^2+b^2$ como el cuadrado de la norma de un complejo y usa que es multiplicativa.

Solución. El número $r=a^2+b^2$ es la norma al cuadrado del número complejo $z=a+ib$. Entonces, el número $r^n=(a^2+b^2)^n$ es la norma al cuadrado del número complejo $z^n=(a+ib)^n$. Pero al desarrollar $(a+ib)^n$ obtenemos únicamente a $i$, potencias de $a$ y de $b$, y coeficientes binomiales. De modo que $z^n=(a+ib)^n=c+id$ con $c$ y $d$ enteros (aquí estamos usando notación adecuada: no es necesario saber quienes son, sólo que son enteros). Así, $r^n=c^2+d^2$ con $c$ y $d$ enteros.

$\square$

Veamos ahora un ejemplo de geometría. Este problema es posible resolverlo de muchas formas, pero notemos que los números complejos nos dan una forma de hacerlo de manera algebraica de manera inmediata.

Problema. En la siguiente figura hay tres cuadrados de lado $1$ pegados uno tras otro. Determina la suma de los ángulos marcados con $\alpha$ y $\beta$.

Problema de suma de ángulos
Determinar el valor de la suma $\alpha+\beta$.

Sugerencia pre-solución. El problema pide determinar una suma de ángulos, así que conviene pensar esta suma de ángulos como el ángulo del producto de dos complejos. Haz tu propia figura, pero ahora sobre el plano complejo.

Solución. El ángulo $\alpha$ es igual al argumento del complejo $2+i$ y el ángulo $\beta$ es igual al argumento del complejo $3+i$. De esta forma, $\alpha+\beta$ es igual al argumento del complejo $(2+i)(3+i)=(6-1)+(2+3)i=5+5i$. Este complejo cae sobre la recta $\text{Re}(z)=\text{Im}(z)$, de modo que su argumento es $\pi / 4$.

$\square$

Este problema también se puede resolver de (numerosas) maneras geométricas, que puedes consultar en este video.

Fórmula de De Moivre

El siguiente teorema se puede demostrar por inducción sobre $n$.

Teorema (fórmula de De Moivre). Para cualquier entero $n$ y ángulo $\theta$ se tiene que $$(\cos \theta + i \sin \theta)^n=\cos (n\theta) + i \sin (n\theta).$$ Dicho de otra forma, en términos de la forma exponencial, se vale usar la siguiente ley de los exponentes $$(e^{\theta i})^n=e^{(n\theta) i}.$$

La fórmula de De Moivre es otra herramienta que ayuda a resolver problemas de números reales enunciándolos en términos trigonométricos. El truco consiste en:

  1. Tomar una expresión real que queramos entender.
  2. Identificarla como la parte real o imaginaria de una expresión compleja.
  3. Usar la aritmética de números complejos para entender la expresión compleja.
  4. Regresar lo que entendamos a los reales.

Veamos un par de ejemplos, relacionados con funciones trigonométricas. Comenzamos con una fórma de encontrar la fórmula para el coseno de cinco veces un ángulo.

Problema. Sea $\theta\in [0,2\pi)$. Expresa a $\cos 5\theta$ en términos de $\cos \theta$.

Sugerencia pre-solución. Identifica a $\cos 5\theta$ como la parte real de un número complejo. Inspírate en la fórmula de De Moivre. Usa binomio de Newton.

Solución. Por la fórmula de De Moivre, $\cos 5\theta$ es la parte real del complejo $(\cos \theta + i \sin \theta)^5$, así que calculemos quién es exactamente este número usando binomio de Newton. Para simplificar la notación, definimos $a=\cos \theta$ y $b=\sin \theta$. Tenemos que

\begin{align*}
(a+ib)^5&=a^5+5a^4(bi)+10a^3(ib)^2+10a^2(ib)^3+5a(ib)^4+(ib)^5\\
&=(a^5-10a^3b^2+5ab^4) + (5a^4b-10a^2b^3+b^5) i.
\end{align*}

Además, por la identidad pitagórica recordemos que $a^2+b^2=1$, de donde $b^2=1-a^2$, de modo que la parte real de la expresión anterior es $$a^5-10a^3(1-a^2)+5a(1-2a^2+a^4),$$ que agrupando es $$16a^5-20a^3+5a.$$ Recordando que $a$ es $\cos \theta$, obtenemos la fórmula final $$\cos 5\theta = 16\cos^5 \theta – 20 \cos^3 \theta + 5\cos \theta.$$

$\square$

Raíces de la unidad

En muchos problemas se utilizan las raíces de la ecuación $x^n=1$.

Teorema. Sea $n\geq 1$ un entero. Las ecuación $x^n=1$ tiene $n$ soluciones complejas, que en el plano complejo forman los vértices del $n$-ágono regular con centro en $0$ y tal que uno de sus vértices es $1$. Si $\omega$ es la raíz de menor argumento positivo, entonces estas soluciones son $1,\omega, \omega^2,\ldots,\omega^{n-1}$.

Raíces de la unidad en los números complejos
Raíces $n$-ésimas de la unidad para $n=5$.

A estas soluciones les llamamos las raíces $n$-ésimas de la unidad. Notemos que $\omega^{n}=1$, y que en general si escribimos a un entero $m$ usando el algoritmo de la división como $m=qn+r$, entonces $\omega^m=\omega^r$. ¡Los productos de raíces de la unidad se comportan como los elementos de $\mathbb{Z}_n$ bajo suma módulo $n$!

Proposición. Sea $n\geq 2$ un entero. La suma de las $n$ raíces $n$-ésimas de la unidad es $0$ y su producto es $1$.

La proposición anterior nos permite, en ocasiones, «filtrar» ciertas expresiones algebraicas. A continuación presentamos un ejemplo, que retomamos de los primeros ejemplos que vimos, cuando estábamos aprendiendo la heurística de encontrar un patrón.

Problema. Determina el valor de la suma $$\binom{100}{0}+\binom{100}{3}+\binom{100}{6}+\ldots+\binom{100}{99}.$$

Sugerencia pre-solución. Si no recuerdas lo que debería salir, vuelve a experimentar con los primeros valores, para cuando en vez de usar $100$ se usan números más chiquitos. Para entender mejor el patron, generaliza el problema, y en vez de sólo tener múltiplos de $3$ abajo, explora también qué sucede cuando tienes los números que dejan residuo $0$, $1$ o $2$ módulo $3$.

Ya que recuerdes la fórmula que queremos, considera una raíz cúbica $\omega$ de la unidad distinta de $1$. Calcula $(1+1)^{100}$, $(1+\omega)^{100}$ y $(1+\omega^2)^{100}$ usando el binomio de Newton y aprovechando que toda potencia de $\omega$ es $1$, $\omega$ u $\omega^2$ para simplificar la notación.

Solución. Sea $\omega$ una raíz cúbica de la unidad distinta de $1$. Tenemos que $\omega^3=1$ y que $1+\omega+\omega^2=0$. De este modo, podemos usar $\omega$ y el binomio de Newton para calcular las siguientes expresiones

\begin{align*}
(1+1)^{100}&=\binom{100}{0}+\binom{100}{1}+\binom{100}{2}+ \binom{100}{3}+ \ldots\\
(1+\omega)^{100}&= \binom{100}{0}+\binom{100}{1}\omega+\binom{100}{2}\omega^2+\binom{100}{3}+\ldots\\
(1+\omega^2)^{100}&= \binom{100}{0}+\binom{100}{1}\omega^2+\binom{100}{2}\omega+ \binom{100}{3}+\ldots
\end{align*}

¿Qué sucede al sumar las tres expresiones? En el lado derecho, cada vez que $m$ es un múltiplo de $3$, tenemos $3\binom{100}{m}$, y cada vez que $m$ no es un múltiplo de $3$, tenemos $$(1+\omega+\omega^2)\binom{100}{m}=0.$$ ¡Se filtran exactamente los coeficientes binomiales con parte inferior múltiplo de $3$! Así, tres veces la suma que buscamos es igual a $$2^{100}+(1+\omega)^{100}+(1+\omega^2)^{100}.$$

Esta ya es una expresión suficientemente cerrada, pero podemos simplificar todavía más:

\begin{align*}
(1+\omega)^{100}&=(-\omega^2)^{100}=\omega^{200}=\omega^2\\
(1+\omega^2)^{100}&=(-\omega)^{100}=\omega\\
(1+\omega)^{100}+(1+\omega^2)^{100}&=\omega^2+\omega=-1.
\end{align*}

Así, la expresión que queremos es $\frac{2^{100}-1}{3}$.

$\square$

Más ejemplos

Puedes ver más ejemplos del uso de esta teoría en la Sección 3.5 del libro Problem Solving through Problems de Loren Larson.

Álgebra Superior II: Ecuaciones diofantinas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores platicamos de congruencias y teoremas que nos sirven para trabajar con aritmética modular. Así mismo, aprendimos a resolver ecuaciones lineales y sistemas de ecuaciones lineales en congruencias en una variable.

Regresemos a $\mathbb{Z}$. Se usa el término ecuación diofantina para referirse a una ecuación en la cual las variables deben tomar soluciones enteras. Existe una gran variedad de formas que puede tomar una ecuación diofantina. «Resolver una ecuación diofantina» se refiere a encontrar, con demostración, una descripción del conjunto de todas sus soluciones en «términos sencillos».

Ejemplo 1. Encuentra todas las soluciones enteras $x$ a la ecuación $13x=91$.

Ejemplo 2. Encuentra todas las soluciones enteras $x,y$ a la ecuación $7x+5y=3$.

Los ejemplos $1$ y $2$ son ecuaciones diofantinas lineales en una y dos variables respectivamente. El objetivo de esta entrada es explicar cómo resolver estas ecuaciones. Continuamos la discusión de más ejemplos para abrir el panorama del tipo de problemas que aparecen en el área, y de las técnicas que se pueden usar.

Ejemplo 3. Encuentra todas las soluciones con enteros $x,y,z$ a la ecuación $x^2+y^2=z^2$.

Al Ejemplo 3 se le conoce como la ecuación pitagórica. Esa es posible resolverla con todo lo que hemos visto hasta ahora, pero no es tan sencillo. Requiere de un análisis cuidadoso de casos.

Ejemplo 4. Encuentra todas las soluciones enteras positivas $x,y$ a la igualdad $x^y=y^x$.

El Ejemplo $4$ es curioso. Si consideramos a la función real $f(x)=x^{\frac{1}{x}}$, el problema pide encontrar a aquellas parejas de enteros $x$ y $y$ tales que $f(x)=f(y)$. Una forma de resolver la ecuación es utilizando herramientas de cálculo diferencial en $f(x)$ para mostrar que para $x>5$ la función ya es estrictamente creciente. Esto reduce el análisis de casos de enteros que tenemos que intentar, y muestra que $(2,4)$, $(4,2)$ y $(n,n)$ son las únicas parejas de enteros válidas. La moraleja de este ejemplo es que a veces se tienen que usar herramientas de otras áreas de las matemáticas para resolver una ecuación, aunque esta sólo requiera de soluciones enteras.

Ejemplo 5. Encuentra todas las soluciones con enteros $x,y,z$ a la ecuación $x^3+y^3=z^3$.

El Ejemplo $5$, o bien cualquier ecuación del estilo $x^n+y^n=z^n$ se le llama una ecuación de tipo Fermat, pues Pierre Fermat conjeturó que no existen soluciones para cuando $n\geq 3$ y $x,y,z$ son todos distintos de cero. Esta conjetura fue demostrada en $1995$ por Andrew Wiles. Una demostración de esta conjetura queda muy lejos de la teoría que hemos desarrollado hasta ahora, pero vale la pena decir que esta ecuación motivó fuertemente el desarrollo de varias herramientas de teoría de números, sobre unas llamadas curvas elípticas.

Ejemplo 6. Encuentra todas las soluciones enteras positivas $x,y$ a la igualdad $|2^x-3^y|=1$.

El Ejemplo $6$ se puede resolver también con herramientas que ya hemos visto en el curso, pero requiere de un análisis detallado. Este problema pide, en otras palabras, determinar cuándo «una potencia de $3$ está junto a una potencia de $2$». Un ejemplo de esto son $2^3=8$ y $3^2=9$. Otra pregunta clásica del área es la conjetura de Catalán, la cual afirma que estas son las únicas dos potencias no triviales que son consecutivas. Fue demostrada en $2002$ por Mihăilescu. Las técnicas también están muy lejos del alcance de este curso. Se usan técnicas en campos ciclotómicos y módulos de Galois.

En realidad, uno podría tomar cualquier ecuación en reales y hacerse la pregunta de si existirán soluciones en enteros y, de ser así, determinar cuántas o cuáles son. Ha existido (y existe) mucha investigación en el área. El interés de una ecuación diofantina en particular está relacionado con su aplicación a otros problemas y con la teoría que ayuda a desarrollar.

Ecuaciones diofantinas lineales

La ecuación diofantina del Ejemplo 1 se puede preguntar en general. Dados enteros $a$ y $b$, ¿cuáles son las soluciones enteras $x$ a la ecuación $ax=b$?

  • Si $a=0$, la ecuación tiene solución si y sólo si $b=0$, y en este caso, cualquier valor entero de $x$ es solución.
  • Si $a\neq 0$, esta ecuación tiene solución en enteros si y sólo si $a$ divide a $b$, y en este caso $x=b/a$ es la única solución entera.

Estudiemos ahora la generalización del Ejemplo 2.

Problema. Sean $a$ y $b$ enteros distintos de $0$ y $c$ un entero. Determina todas las soluciones enteras a la ecuación $$ax+by=c.$$

Primero, determinemos condiciones necesarias y suficientes en $a$, $b$ y $c$ para que la ecuación tenga soluciones enteras $x$ y $y$. Lo que nos está pidiendo la ecuación es que escribamos a $c$ como combinación lineal entera de $a$ y $b$. Recordemos que $$a\mathbb{Z}+b\mathbb{Z} = \text{MCD}(a,b) \mathbb{Z},$$ de modo que la ecuación tiene solución si y sólo si $\text{MCD}(a,b)$ divide a $c$. ¿Cuáles son todas las soluciones? Esto lo determinaremos mediante las siguientes proposiciones.

Proposición. Sean $a$ y $b$ enteros distintos de $0$ y $c$ un entero divisible entre $M:=\text{MCD}(a,b)$. Sean $a’=a/M$, $b’=b/M$, $c’=c/M$. Las soluciones enteras a la ecuación $ax+by=c$ son las mismas que para la ecuación $a’x+b’y=c’$.

Demostración. Se sigue de manera directa usando que $M\neq 0$, ya que de la original podemos pasar a la nueva dividiendo entre $M$, y de la nueva a la anterior multiplicando por $M$.

$\square$

Ejemplo 1. $x=2$ y $y=7$ son soluciones a la ecuación $6x-4y=-16$, y también son soluciones a la ecuación $3x-2y=-8$.

$\triangle$

Al dividir ambos lados de la ecuación entre el máximo común divisor de $a$ y $b$ obtenemos una ecuación en la que los coeficientes de las variables ahora son primos relativos. Este fenómeno ya lo habíamos visto cuando hablamos de ecuaciones en congruencias. Estudiemos este tipo de ecuaciones en enteros. Comenzaremos con unas un poco más sencillas: aquellas en las que $c=0$. A estas les llamamos ecuaciones homogéneas.

Proposición. Sean $a$ y $b$ enteros distintos de $0$ y primos relativos. Las soluciones de la ecuación diofantina $ax+by=0$ son exactamente de la forma $x=-kb$, $y=ka$ para $k$ en los enteros.

Demostración. De la ecuación obtenemos $-ax=by$, por lo que $a$ divide a $by$. Como $a$ y $b$ son primos relativos, tenemos que $a$ divide a $y$. Así, existe un $k$ entero tal que $y=ka$. Entonces, $-ax=bka$. Como $a\neq 0$, podemos cancelar y despejar $x=-kb$.

En efecto, todas estas parejas son soluciones pues $a(-kb)+b(ka)=0$.

$\square$

Ejemplo 2. Determina todas las soluciones a la ecuación diofantina $9x+5y=0$.

Solución. Tenemos que $9$ y $5$ son primos relativos y que la ecuación es homogénea. Por el resultado anterior, las soluciones son de la forma $x=-5k$ y $y=9k$.

$\triangle$

Ejemplo 3. Determina todas las soluciones a la ecuación diofrantina $9x-6y=0$.

Solución. Aquí hay que tener cuidado. Si bien la ecuación es homogénea, los coeficientes de las variables no son primos relativos. Si sólo consideramos las soluciones de la forma $x=6k$ y $y=9k$, en efecto todas estas son soluciones, pero nos faltará la solución $x=2$, $y=3$ que no es de esta forma.

Antes de poder usar la proposición, necesitamos dividir entre el máximo común divisor de $9$ y $6$, que es $3$, para obtener primero la ecuación diofantina equivalente $3x-2y=0$. Ahora sí, todas las soluciones enteras de esta ecuación (y por lo tanto de la original) son de la forma $x=2k$ y $y=3k$.

$\triangle$

Pasemos ahora al caso en el que los coeficientes de las variables son primos relativos, pero la ecuación ya no es homogénea.

Proposición. Sean $a$ y $b$ enteros distintos de $0$ y primos relativos. Sea $c$ un entero divisible entre $\text{MCD}(a,b)$. Se puede obtener una solución $x_0, y_0$ a la ecuación diofantina $ax+by=c$ usando el algoritmo de Euclides. El resto de las soluciones son exactamente de la forma $x=x_0-kb$, $y=y_0+ka$ en donde $k$ es cualquier entero positivo.

Demostración. Notemos que en efecto las soluciones propuestas satisfacen la ecuación diofantina pues
\begin{align*}
ax+by&=a(x_0-kb)+b(y_0+ka)\\
&=ax_0+by_0 + (-kab+kab)\\
&=ax_0+by_0\\
&=c.
\end{align*}

Aquí usamos que $x_0,y_0$ es una solución de $ax+by=c$. Veamos que estas soluciones son las únicas.

Si $x_1,y_1$ es una solución, entonces tenemos $$ax_1+by_1=c=ax_0+by_0,$$ y entonces $$a(x_1-x_0)+b(y_1-y_0)=c-c=0,$$ de modo que $(x_1-x_0)$, $(y_1-y_0)$ es una solución de la ecuación homogénea $ax+by=0$, y por la proposición anterior, debe suceder que $x_1-x_0=-ka$ y $y_1-y_0=kb$ con $k$ un entero. Así, $x_1=x_0-ka$ y $y_1=y_0+kb$, como queríamos.

$\square$

Ejemplo 4. Determina todas las soluciones a la ecuación diofantina $12x+13y=1$.

Solución. Por inspección, una solución es $x=-1$, $y=1$. Los coeficientes de las variables son primos relativos. Por la proposición anterior, todas las soluciones son de la forma $-13k-1$, $12k+1$ donde $k$ es un entero arbitrario.

$\triangle$

Resumimos todo lo obtenido en el siguiente resultado.

Teorema. Sean $a$ y $b$ enteros distintos de $0$ y $c$ un entero. Consideremos la ecuación diofantina $ax+by=c$. Si $M:=\text{MCD}(a,b)$ no divide a $c$, entonces la ecuación no tiene solución. Si sí, podemos usar el algoritmo de Euclides para encontrar una solución $x_0,y_0$. El resto de las soluciones son de la forma $x_0-ka’$, $y_0+kb’$, en donde $a’=a/M$, $b’=b/M$ y $k$ es cualquier entero.

Veamos un ejemplo en el que juntamos todo lo que ya sabemos.

Ejemplo 5. Determina todas las soluciones a la ecuación diofantina $21x-35y=14$.

Solución. Los coeficientes de las variables no son primos relativos, pues su máximo común divisor es $7$. Tenemos que $7$ divide a $14$, así que la ecuación sí tiene soluciones y son las mismas que las de la ecuación $3x-5y=2$. Por inspección, una solución es $x=-1, y=-1$. Así, todas las soluciones a esta ecuación (y por lo tanto a la original), son de la forma $x=5k-1, y=3k-1$.

$\triangle$

Más adelante…

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Resuelve el Ejemplo 2.
  2. En todos los ejemplos, verifica que las soluciones obtenidas en efecto son soluciones del sistema original.
  3. ¿Para cuántos enteros $c$ entre $1$ y $100$ se tiene que la ecuación lineal $21x+18y=c$ tiene solución $x,y$ en enteros?
  4. Sólo hemos visto ecuaciones diofantinas lineales en dos variables. Sin embargo, con lo visto hasta ahora puedes argumentar por qué la ecuación diofantina $91x+14y-70z=100$ no tiene soluciones en enteros. ¿Por qué?
  5. Investiga acerca de la ecuación pitagórica $x^2+y^2=z^2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que $V$ es un espacio vectorial de dimensión $n$ y que $W$ es un espacio vectorial sobre el mismo campo que $V$. Una transformación lineal $T:V\to W$ puede «guardar mucha independencia lineal» o «muy poquita». Si $T$ es inyectiva, ya vimos antes que $T$ manda linealmente independientes a linealmente independientes. Si $T$ es la transformación $0$, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}^3$. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano $xy$, entonces «perdemos» al vector $(0,0,1)$, pues se va al $(0,0,0)$. Si es la proyección al eje $x$, «perdemos» al $(0,1,0)$ y al $(0,0,1)$ pues ambos se van a $(0,0,0)$. Y si es la transformación $0$, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango $3$, $2$, $1$ y $0$ respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo $F$.

Definición. Sean $V$ y $W$ espacios de dimensión finita. El rango de una transformación lineal $T:V\to W$ es la dimensión de la imagen de $T$, es decir, $$\rank(T)=\dim\Ima T.$$

Si $B$ es una base de $V$, entonces genera a $V$. La transformación $T$ es suprayectiva de $V$ a $\Ima T$, de modo que $T(B)$ es generador de $\Ima T$. De esta forma, para encontrar el rango de una transformación lineal $T:V\to W$ basta:

  • Tomar una base $B$ de $V$.
  • Aplicar $T$ a cada elemento de $B$.
  • Determinar un conjunto linealmente independiente máximo en $T(B)$.

Para hacer este último paso, podemos poner a los vectores coordenada de $T(B)$ con respecto a una base de $W$ como los vectores fila de una matriz $A$ y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de $T$ es el número de vectores fila no cero en la forma escalonada reducida $A_{\text{red}}$ de $A$.

Ejemplo. Encuentra el rango de la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$

Solución. Tomemos $e_1,e_2,e_3$ la base canónica de $\mathbb{R}^3$. Tenemos que $T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}$, $T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix}$ y $T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}$.

Tomando la base canónica $E_{11},E_{12},E_{21},E_{22}$ de $M_2(\mathbb{R})$, podemos entonces poner a las coordenadas de $T(e_1),T(e_2),T(e_2)$ como vectores fila de una matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.$$ Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz $$\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.$$ De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es $2$.

$\triangle$

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean $U$, $V$ y $W$ espacios de dimensión finita. Sean $S:U\to V$, $T:V\to W$, $T’:V\to W$ transformaciones lineales. Entonces:

  1. $\rank(T)\leq \dim V$
  2. $\rank(T)\leq \dim W$
  3. $\rank(T\circ S)\leq \rank(T)$
  4. $\rank(T\circ S)\leq \rank(S)$
  5. $\rank(T+T’)\leq \rank(T) + \rank(T’)$

Demostración. (1) Pensemos a $T$ como una transformación $T:V\to \Ima(T)$. Haciendo esto, $T$ resulta ser suprayectiva, y por un resultado anterior tenemos que $\dim V\geq \dim \Ima T = \rank (T)$.

(2) Sabemos que $\Ima (T)$ es un subespacio de $W$, así que $\rank(T)=\dim \Ima T \leq \dim W$.

(3) La imagen de $T$ contiene a la imagen de $T\circ S$, pues cada vector de la forma $T(S(v))$ es de la forma $T(w)$ (para $w=S(v)$). Así, \begin{align*}\rank(T) &=\dim \Ima T \geq \dim \Ima T\circ S\\ &= \rank (T\circ S).\end{align*}

(4) La función $T\circ S$ coincide con la restricción $T_{\Ima S}$ de $T$ a $\Ima S$. Por el inciso (1), $\rank(T_{\Ima S})\leq \dim \Ima S = \rank(S)$, así que $\rank (T\circ S) \leq \rank(S)$.

(5) Tenemos que $\Ima (T+T’) \subseteq \Ima T + \Ima T’$. Además, por un corolario de la fórmula de Grassman, sabemos que
\begin{align*}
\dim (\Ima T + \Ima T’)&\leq \dim \Ima T + \dim \Ima T’\\
&= \rank(T) + \rank(T’).
\end{align*}

Así,
\begin{align*}
\rank(T+T’)&\leq \rank(\Ima T + \Ima T’)\\
&\leq \rank(T)+\rank(T’).
\end{align*}

$\square$

Proposición. Sean $R:U\to V$, $T:V\to W$ y $S:W\to Z$ transformaciones lineales con $R$ suprayectiva y $S$ inyectiva. Entonces $$\rank(S\circ T\circ R)=\rank (T).$$

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que $\rank(S\circ T)\leq \rank (T)$. La restricción $S_{\Ima T}$ de $S$ a la imagen de $T$ es una transformación lineal de $\Ima T$ a $\Ima (S\circ T)$ que es inyectiva, de modo que $\dim \Ima T \leq \dim \Ima (S\circ T)$, que es justo $\rank(T)\leq \rank(S\circ T)$, de modo que tenemos la igualdad $\rank(S\circ T)=\rank (T)$.

Como $R$ es suprayectiva, $\Ima R= V$, de modo que $\Ima(S\circ T \circ R)=\Ima(S\circ T)$. Así, \begin{align*}\rank (S\circ T \circ R) &= \rank (S\circ T)\\&=\rank(T).\end{align*}

$\square$

Teorema de rango-nulidad

Una transformación lineal $T:V\to W$ determina automáticamente dos subespacios de manera natural: el kernel $\ker T$ y la imagen $\Ima T$. Resulta que las dimensiones de $\ker T$, de $\Ima T$ y de $V$ están fuertemente relacionadas entre sí.

Teorema. Sean $V$ y $W$ espacios de dimensión finita. Sea $T:V\to W$ una transformación lineal. Entonces $$\dim\ker T + \rank(T) = \dim V.$$

Demostración. Supongamos que $\dim V=n$ y $\dim \ker T = k$. Queremos mostrar que $\rank(T)=n-k$. Para ello, tomemos una base $B$ de $\ker T$ y tomemos $B’=\{v_1,\ldots,v_{n-k}\}$ tal que $B\cup B’$ sea base de $V$. Basta mostrar que $T(B’)=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T$ es base de $\Ima T$. Sea $U$ el generado por $B’$, de modo que $V=U \oplus \ker T$.

Veamos que $T(B’)$ es generador de $\Ima T$. Tomemos $T(v)$ en $\Ima T$. Podemos escribir $v=z+u$ con $z\in \ker T$ y $u\in U$. Así, $T(v)=T(z)+T(u)=T(u)$, y este último está en el generado por $T(B’)$.

Ahora veamos que $T(B’)$ es linealmente independiente. Si $$\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,$$ entonces $T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0$, de modo que $\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k}$ está en $U$ y en $\ker T$, pero la intersección de estos espacios es $\{0\}$. Como esta combinación lineal es $0$ y $B’$ es linealmente independiente, $\alpha_1=\ldots=\alpha_n=0$.

De esta forma, $T(B’)$ es linealmente independiente y genera a $\Ima T$, de modo que $\rank(T) =|B’|=n-k$.

$\square$

Ejemplo. Consideremos de nuevo la transformación lineal $T:\mathbb{R}^3\to M_{2}(\mathbb{R})$ que manda $(x,y,z)$ a $$\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.$$ Muestra que $T$ no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango $2$. Por el teorema de rango-nulidad, su kernel tiene dimensión $1$. Así, hay un vector $v\neq (0,0,0)$ en el kernel, para el cual $T(v)=0=T(0)$, de modo que $T$ no es inyectiva.

$\square$

Problema. Demuestra que para cualquier entero $n$ existe una terna $(a,b,c)\neq (0,0,0)$ con $a+b+c=0$ y tal que $$\int_0^1 at^{2n}+bt^n+c \,dt = 0.$$

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales $T:\mathbb{R}^3\to \mathbb{R}$ y $S:\mathbb{R}^3\to \mathbb{R}$ dadas por
\begin{align*}
T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\
S(x,y,z)&=x+y+z.
\end{align*}
Notemos que $T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1)$, de modo que ni $T$ ni $S$ son la transformación $0$. Como su rango puede ser a lo más $\dim\mathbb{R}=1$, entonces su rango es $1$. Por el teorema de rango-nulidad, $\dim \ker S= \dim \ker T = 2$. Como ambos son subespacios de $\mathbb{R}^3$, es imposible que $\ker S \cap \ker T=\{0\}$, de modo que existe $(a,b,c)$ no cero tal que $T(a,b,c)=S(a,b,c)=0$. Esto es justo lo que buscábamos.

$\square$

Rango para matrices

Definición. El rango de una matriz $A$ en $M_{m,n}(F)$ es el rango de la transformación lineal asociada de $F^n$ a $F^m$ dada por $X\mapsto AX$. Lo denotamos por $\rank(A)$.

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean $m$, $n$ y $p$ enteros. Sea $B$ una matriz en $M_{n,p}(F)$ y $A$, $A’$ matrices en $M_{m,n}(F)$. Sea $P$ una matriz en $M_{n,p}(F)$ cuya transformación lineal asociada es suprayectiva y $Q$ una matriz en $M_{r,m}(F)$ cuya transformación lineal asociada es inyectiva. Entonces:

  1. $\rank(A)\leq \min(m,n)$
  2. $\rank(AB)\leq \min(\rank(A),\rank(B))$
  3. $\rank(A+A’)\leq \rank(A) + \rank(A’)$
  4. $\rank(QAP) = \rank(A)$

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz $A$ en $M_{m,n}(F)$, podemos aplicar esta idea con los vectores $e_1,\ldots,e_n$ de la base canónica de $F^{n}$. Como hemos visto con anterioridad, para cada $i=1,\ldots, n$ tenemos que el vector $Ae_i$ es exactamente la $i$-ésima columna de $A$. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^m$ generado por sus vectores columna.

Problema. Determina el rango de la matriz $$\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.$$

Solución. Como es una matriz con $3$ filas, el rango es a lo más $3$. Notemos que entre las columnas están los vectores $(3,0,0)$, $(0,2,0)$ y $(0,0,-2)$, que son linealmente independientes. De esta forma, el rango de la matriz es $3$.

$\triangle$

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices $A$, $B$ en $M_n(F)$ se tiene que $$\rank(AB)\geq \rank(A)+\rank(B)-n.$$

Solución. Tomemos $T_1:F^n\to F^n$ y $T_2:F^n\to F^n$ tales que $T_1(X)=AX$ y $T_2(X)=BX$. Lo que tenemos que probar es que $$\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) – n.$$

Consideremos $S_1$ como la restricción de $T_1$ a $\Ima T_2$. Tenemos que $\ker S_1 \subset \ker T_1$, así que $\dim \ker S_1 \leq \dim \ker T_1$. Por el teorema de rango-nulidad en $S_1$, tenemos que
\begin{align*}
rank(T_2) &= \dim \Ima T_2 \\
&= \dim \ker S_1 + \rank(S_1) \\
&= \dim \ker S_1 + \rank(T_1\circ T_2)\\
&\leq \dim \ker T_1 + \rank(T_1\circ T_2),
\end{align*} así que $$\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).$$

Por el teorema de rango-nulidad en $T_1$ tenemos que $$\dim \ker T_1 + \rank(T_1)=n.$$

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

$\square$

El teorema $PJQ$ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea $A$ una matriz en $M_{m,n}(F)$ y $r$ un entero en $\{0,\ldots,\min(m,n)\}$. El rango de $A$ es igual a $r$ si y sólo si existen matrices invertibles $P\in M_m(F)$ y $Q\in M_n(F)$ tales que $A=PJ_rQ$, en donde $J_r$ es la matriz en $M_{m,n}$ cuyas primeras $r$ entradas de su diagonal principal son $1$ y todas las demás entradas son cero, es decir, en términos de matrices de bloque, $$J_r=\begin{pmatrix}
I_r & 0 \\
0 & 0
\end{pmatrix}.$$

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema 1. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos $r$ al rango de $A$. Escribimos $A=PJ_rQ$ usando el teorema $PJQ$, con $P$ y $Q$ matrices invertibles. Tenemos que $^tA=^tQ\, ^tJ_r \,^tP$, con $^tQ$ y $^tP$ matrices invertibles. Además, $^t J_r$ es de nuevo de la forma de $J_r$. Así, por el teorema $PJQ$, tenemos que $^t A$ es de rango $r$.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en $M_{m,n}(F)$ es igual a la dimensión del subespacio de $F^n$ generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema $PJQ$.

Problema 2. Muestra que una matriz $A$ de rango $r$ se puede escribir como suma de $r$ matrices de rango $1$. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos $A=PJ_rQ$ usando el teorema $PJQ$. Si definimos $A_i=PE_{ii}Q$ para $i=1,\ldots,r$, donde $E_{ii}$ es la matriz cuya entrada $(i,i)$ es uno y las demás cero, claramente tenemos que $J_r=E_{11}+E_{22}+\ldots+E_{rr}$, por lo que $$A=PJ_rQ=A_1+A_2+\ldots+A_r.$$ Además, como $E_{ii}$ es de rango $1$, por el teorema $PJQ$ cada matriz $A_i$ es de rango $1$.

Veamos que es imposible con menos. Si $B_1,\ldots,B_s$ son matrices de rango $1$, como el rango es subaditivo tenemos que $\rank (B_1+\ldots+B_s)\leq s$. Así, si sumamos menos de $r$ matrices, no podemos obtener a $A$.

$\square$

Más adelante…

Esta entrada es solamente una breve introducción al concepto de rango y a algunas propiedades que pueden ser de utilidad al momento de calcular el rango de una matriz o una transformación lineal. Más adelante, veremos que el rango de una matriz está también relacionado con las soluciones de su sistema lineal homogéneo asociado.

El teorema de rango-nulidad es fundamental para el álgebra lineal. Muchas veces necesitamos calcular el rango de la imagen de una transformación lineal, pero es mucho más fácil calcular la dimensión de su kernel. O viceversa. En estas situaciones es muy importante recordar la forma en la que dicho teorema las relaciona.

Con este tema termina la segunda unidad del curso. Ahora estudiaremos aspectos un poco más geométricos de espacios vectoriales. En la siguiente unidad, hablaremos de dualidad, ortogonalidad, formas bilineales y productos interiores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea $T$ una transformación de un espacio vectorial $V$ de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si $T$ es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz $$\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.$$
  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices $A_1,\ldots, A_n$ del mismo tamaño tenemos que $$\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).$$
  • Escribe la demostración de la última proposición de la sección del teorema $PJQ$
  • Revisa la demostración del teorema de descomposición $PJQ$ en el libro de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»