Archivo del Autor: Leonardo Ignacio Martínez Sandoval

Leonardo Ignacio Martínez Sandoval

Acerca de Leonardo Ignacio Martínez Sandoval

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Seminario de Resolución de Problemas: Coeficientes binomiales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los coeficientes binomiales aparecen en muchos problemas de matemáticas, y por ello es útil conocerlos bien y saber sus propiedades básicas. En esta entrada hablaremos de varios aspectos de los coeficientes binomiales: algebraicos, combinatorios y de teoría de números. Aunque resolvamos un problema con una técnica en particular, te recomendamos intentar usar las distintas herramientas en otros problemas, para conocer sus alcances y limitaciones.

Antes de empezar, ponemos una figura con un hecho curioso acerca de los coeficientes binomiales:

Coeficientes binomiales, Pascal y Fibonacci
«Las sumas de las diagonales del triángulo de Pascal dan los números de Fibonacci»

Definición algebraica de coeficientes binomiales

Como recordatorio, para $n\geq 0$ un entero, definimos $n!$ recursivamente como $0!=1$ y $n!=n(n-1)!$. En otras palabras, para $n\geq 1$ tenemos $$n!=1\cdot 2\cdot \ldots \cdot n.$$

Definimos para $n\geq 0$ un entero y $k$ un entero en $\{0,\ldots,n\}$al coeficiente binomial $n$ en $k$ como $$\binom{n}{k}:=\frac{n!}{k!(n-k)!}.$$ Si $n$ es un entero negativo o $k$ es un entero fuera del rango $\{0,\ldots,n\}$ es conveniente definir $\binom{n}{k}=0$.

A partir de la definición, es claro que $\binom{n}{n}=\binom{n}{0}=1$ para todo entero positivo $n$. Lo que no es inmediato a partir de la definición es que $\binom{n}{k}$ siempre sea un entero. Veremos eso en la siguiente sección.

Mientras tanto, veamos algunas propiedades de los coeficientes binomiales que se pueden verificar sin mostrar que $\binom{n}{k}$ es entero.

Propiedad (simetría). $\binom{n}{k}=\binom{n}{n-k}.$

Propiedad (fórmula de Pascal). $\binom{n+1}{k+1}=\binom{n}{k}+\binom{n}{k+1}.$

Propiedad (propiedad de entrada-salida). $\binom{n+1}{k+1}=\frac{n+1}{k+1}\binom{n}{k}.$

El siguiente problema se puede resolver usando estas identidades.

Propiedad (suma cambiando arriba). Muestra que para $n$ y $k$ enteros positivos se tiene que $$\sum_{j=0}^k \binom{n+j}{n} = \binom{n+k+1}{n+1}.$$

Sugerencia pre-solución. Primero, formula un problema equivalente usando la propiedad de simetría. Luego, procede por inducción y usa otra de las propiedades de coeficientes binomiales mencionada arriba.

Solución. Usando la propiedad de simetría de coeficientes binomiales, el problema es equivalente a demostrar que $$\sum_{j=0}^k \binom{n+j}{j} = \binom{n+k+1}{k}.$$ Fijemos un entero $n\geq 0$ y hagamos inducción sobre $k$. Para $k=0$, la identidad es cierta pues $$\binom{n}{0}=1=\binom{n+1}{0}.$$

Para $k=1$, tenemos que mostrar que $\binom{n}{0}+\binom{n+1}{1}=\binom{n+2}{1}$. El primer término se puede escribir como $\binom{n+1}{0}$, pues ambos son $1$. Así, lo que hay que mostrar es $$\binom{n+1}{0}+\binom{n+1}{1}=\binom{n+2}{1},$$ que es cierto por la fórmula de Pascal.

Suponiendo el resultado cierto para una $k$ dada, mostraremos que es cierto para $k+1$. Esto se sigue de la siguiente cadena de igualdades, en donde en la segunda igualdad usamos la hipótesis inductiva, y en la tercera la fórmula de Pascal:

\begin{align*}
\sum_{j=0}^{k+1} \binom{n+j}{j} &= \sum_{j=0}^{k} \binom{n+j}{j}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+1}{k}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+2}{k+1}.
\end{align*}

Esto termina la inducción.

$\square$

Existen otras formas de demostrar identidades con coeficientes binomiales, y de hecho una misma identidad se puede mostrar de varias formas. Veamos más técnicas.

Aspectos combinatorios de los coeficientes binomiales

El coeficiente binomial $\binom{n}{k}$ cuenta la cantidad de subconjuntos de tamaño $k$ de un conjunto de tamaño $n$. Argumentar esto es relativamente fácil, usando un argumento de doble conteo. Supongamos que dicha cantidad de subconjuntos es igual a $A$.

Respondamos la pregunta, ¿cuántos vectores de $k$ entradas existen, tales que las entradas son distintas y vienen de un conjunto de $n$ elementos? La pregunta es un poco distinta, pues como tenemos vectores, aquí sí importa el orden de los elementos. Supongamos que la respuesta es $B$.

Una forma de responder la pregunta es la siguiente. Primero, elegimos cuál subconjunto de tamaño $k$ conformará las entradas. Esto se puede hacer de $A$ formas (que aunque no sepamos cuánto vale, lo podemos usar). Luego, hay que ordenar las $k$ entradas elegidas, que se puede hacer de $k!$ maneras. Así, esto muestra que $B=k! A$.

Otra forma de responder la pregunta es la siguiente. Elegimos el primer elemento, que se puede hacer de $n$ formas. Luego el segundo, de entre los $n-1$ restantes, que se puede hacer de $n-1$ formas. Siguiendo de esta manera, el último de los $k$ hay que elegirlo entre $n-k+1$ restantes. Así, esta otra forma de contar dice que $$B=n\cdot(n-1)\cdot\ldots\cdot (n-k+1)=\frac{n!}{(n-k)!}.$$

Como ambas formas de contar son válidas, tenemos que $k!A=B=\frac{n!}{(n-k)!}$, de donde $A=\frac{n!}{k!(n-k)!}=\binom{n}{k}$.

Hay problemas que de lejos parecen preguntar algo de álgebra, pero que pueden ser interpretados en términos combinatorios para dar una solución.

Problema. Para $n$ un entero positivo, muestra que $$\sum_{k=1}^n k \binom{n}{k} = n 2^{n-1}.$$

Sugerencia pre-solución. Construye un problema de conteo cuya respuesta se pueda poner tanto en términos del lado izquierdo, como en términos del lado derecho.

Solución. Preguntémonos, ¿de cuántas formas se puede elegir un subconjunto de un conjunto de $n$ elementos en el que uno de sus elementos está pintado de azul?

Por un lado, primero se puede elegir qué elemento va a ser el azul. Hay $n$ formas de hacer esta elección, y ésta forza a que el elemento en azul esté en el subconjunto. Luego, de los $n-1$ elementos restantes hay que elegir un subconjunto para completar la elección, lo cual se puede hacer de $2^{n-1}$ formas posibles. Así, una forma de contar da $n2^{n-1}$.

Por otro lado, primero se puede decidir de qué tamaño $k$ va a ser el subconjunto. Como hay un elemento especial, el tamaño $k$ va de $1$ a $n$. Ya elegido $k$, hay $\binom{n}{k}$ formas de elegir cuál será el subconjunto. Ya elegido el subconjunto, hay $k$ formas de elegir cuál será el elemento pintado de azul. Así, otra posible respuesta, también correcta, es $\sum_{k=1}^n k \binom {n}{k}$.

Como estamos contando lo mismo con ambas expresiones, concluimos la igualdad del problema.

$\square$

A este método de resolver problemas se le conoce como contar de dos formas distintas y funciona no sólo con coeficientes binomiales, sino también con cualquier otra expresión algebraica que tenga términos que se puedan interpretar de manera combinatoria. Hay otro ejemplo en el blog, en donde vemos cómo aparecen los números de Fibonacci en el triángulo de Pascal. En esa entrada también hablamos de cómo aparecen los coeficientes binomiales en el triángulo de Pascal.

Coeficientes binomiales y binomio de Newton

La interpretación combinatoria de los coeficientes binomiales nos da una demostración para la fórmula del binomio de Newton, que ya vimos en una entrada anterior. Aquí enunciamos la fómula como recordatorio.

Teorema (binomio de Newton). Para $a$ y $b$ números reales y $n$ un entero no negativo, se tiene que
\begin{align*}
(a+b)^n=\sum_{j=0}^n \binom{n}{j}a^{n-j}b^j.
\end{align*}

Si en el binomio de Newton ponemos $a=b=1$, obtenemos $$\binom{n}{0}+\binom{n}{1}+\ldots+\binom{n}{n}=(1+1)^n=2^n.$$ Otra forma de probar esta identidad es simplemente notar que tanto la suma de la izquierda como el término de la derecha cuentan la cantidad de subconjuntos de un conjunto de $n$ elementos: la de la izquierda los cuenta por tamaño, y el de la derecha decidiendo para cada elemento si está o no.

Si ponemos $a=1$, $b=-1$, obtenemos que $$\binom{n}{0}-\binom{n}{1}+\ldots+(-1)^n\binom{n}{n} = 0,$$ o bien $$\binom{n}{0}+\binom{n}{2}+\ldots = \binom{n}{1}+\binom{n}{3}+\ldots.$$

Se obtienen otras identidades de coeficientes binomiales interesantes si se usan raíces $n$-ésimas de la unidad, como ya vimos en la entrada de aritmética compleja.

Hay otras formas de usar el binomio de Newton para probar identidades de coeficientes binomiales.

Problema. Muestra que $$\binom{n}{0}^2+\binom{n}{1}^2+\ldots+\binom{n}{n}^2=\binom{2n}{n}.$$

Sugerencia pre-solución. Considera el polinomio $(1+x)^{2n}$.

Solución. Consideremos el polinomio $(1+x)^{2n}$ y determinemos el coeficiente de su término $x^n$.

Usando el binomio de Newton directamente, tenemos que $$(1+x)^{2n}=\sum_{j=0}^{2n} \binom{2n}{j}x^j,$$ de modo que el coeficiente de $x^n$ es $\binom{2n}{n}$.

Por otro lado, podemos escribir $(1+x)^{2n}=(1+x)^n(1+x)^n$. Usando el binomio de Newton, tenemos $$(1+x)^n=\sum_{j=0}^n \binom{n}{j} x^j.$$ Al multiplicar esta expresión consigo misma, los términos que quedan de grado $n$ son cuando, para cada $j$, elegimos en un paréntesis al término que tiene $x^j$ (que tiene coeficiente $\binom{n}{j}$) y en el otro al que tiene a $x^{n-j}$ (que tiene coeficiente $\binom{n}{n-j}$).

De esta forma, el coeficiente del término de grado $n$ es $$\sum_{j=0}^n \binom{n}{j} \binom{n}{n-j}.$$ Usando la identidad de simetría, podemos cambiar $\binom{n}{n-j}$ por $\binom{n}{j}$, para obtener $$\sum_{j=0}^n \binom{n}{j}^2.$$ Igualando ambas formas de encontrar el coeficiente, obtenemos la identidad deseada.

$\square$

Hay otras técnicas que usan herramientas de integrales o derivadas. Vimos un ejemplo de esto en una entrada anterior.

Coeficientes binomiales y teoría de números

El hecho de que los coeficientes binomiales son la respuesta a un problema de conteo, implica que son enteros no negativos. Alternativamente, esto se puede demostrar por inducción usando la identidad de Pascal.

Este hecho nos puede ayudar a resolver problemas de teoría de números. Veamos un ejemplo clásico.

Problema. Muestra que el producto de $n$ enteros consecutivos siempre es divisible entre $n!$.

Sugerencia pre-solución. Haz una división en casos para ver si se incluye al cero, si son sólo negativos o sólo positivos. Reduce el caso de negativos a positivos y usa notación adecuada para escribir al producto de dichos enteros usando un coeficiente binomial.

Solución. Si alguno de los enteros es $0$, entonces el producto es $0$, que es divisible entre cualquier número. Si son $n$ enteros negativos, entonces podemos cambiar el signo a todos y su producto diferirá, quizás, en un factor $-1$ que no afecta la divisibilidad, y habremos obtenido un problema con $n$ enteros positivos consecutivos. De esta manera, podemos enfocarnos en el caso de $n$ enteros positivos consecutivos.

Llamemos al primero $k+1$, para $k\geq 0$. Los demás son entonces $k+2,\ldots,k+n$. Su producto es
\begin{align*}
(k+1)(k+2)\ldots(k+n)&=\frac{k!}{k!}(k+1)(k+2)\ldots(k+n)\\
&=\frac{(n+k)!}{k!}\\
&=n!\binom{n+k}{k}.
\end{align*}

Como $\binom{n+k}{k}$ es un entero, tenemos que el lado derecho es un múltiplo de $n!$, como queríamos.

$\square$

Otro tipo de técnicas hablan de la divisibilidad de un coeficiente binomial. Por ejemplo si tenemos un primo $p$, sabemos que todos los siguiente coeficientes binomiales son enteros $$\binom{p}{1}, \binom{p}{2},\ldots,\binom{p}{p}.$$ Por su expresión en términos de factoriales, todos tienen a $p$ en el numerador, pero no tienen ningún divisor de $p$ distinto de $1$ en el denominador, pues $p$ es primo. Así, todos ellos son enteros divisibles entre $p$. Eso puede ayudar en problemas como el siguiente.

Problema. Muestra que si $p$ es un número primo, entonces $p^2$ divide a $\binom{2p}{p} -2$.

Sugerencia pre-solución. Formula un problema equivalente usando un resultado anterior.

Solución. Por un problema anterior, $$\binom{2p}{p}=\binom{p}{0}^2+\binom{p}{1}^2+\ldots+\binom{p}{p}^2.$$

Por la discusión previa, para $j=1,\ldots,p-1$ tenemos que $p\mid \binom{p}{j}$, así que $p^2\mid \binom{p}{j}^2$. De esta forma, trabajando módulo $2p$ tenemos \begin{align*}
\binom{2p}{p}&\equiv \binom{p}{0}^2+\binom{p}{p}^2 \\
&\equiv 1+1\equiv 2 \pmod{p^2}.
\end{align*}

Esto es justo lo que queríamos mostrar.

$\square$

Más problemas

Puedes encontrar más problemas de coeficientes binomiales en la sección 5.1 del libro Problem Solving through Problems de Loren Larson.

Álgebra Superior II: El anillo de polinomios con coeficientes reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Estamos listos para la cuarta y última parte del curso, en donde construiremos el anillo de polinomios con coeficientes reales. Los elementos de este anillo son polinomios, los cuales aparecen en numerosas áreas de las matemáticas. Tras su construcción, aprenderemos varias herramientas para trabajar con ellos.

En las tres primeras partes del curso ya trabajamos con otras estructuras algebraicas. Hasta ahora, hemos hablado de lo siguiente:

  • Naturales: Construimos a partir de teoría de conjuntos al conjunto $\mathbb{N}$ de números naturales, sus operaciones y orden. De lo más relevante es que dentro de los naturales podemos hacer definiciones por recursión y pruebas por inducción.
  • Enteros: Con $\mathbb{N}$ construimos a los enteros $\mathbb{Z}$, sus operaciones y orden. Hablamos de divisibilidad y factorización. Esto dio pie a construir $\mathbb{Z}_n$, los enteros módulo $n$, junto con su aritmética. Aprendimos a resolver ecuaciones en $\mathbb{Z}$ y sistemas de congruencias.
  • Racionales y reales: Mencionamos brevemente cómo se construye $\mathbb{Q}$ a partir de $\mathbb{Z}$ y cómo se construye $\mathbb{R}$ a partir de $\mathbb{Q}$. Tanto $\mathbb{R}$ como $\mathbb{Q}$ son campos, así que ahí se pueden hacer sumas, restas, multiplicaciones y divisiones.
  • Complejos: A partir de $\mathbb{R}$ construimos el campo $\mathbb{C}$ de los números complejos. Definimos suma, multiplicación, inversos, norma y conjugados. Luego, desarrollamos herramientas para resolver varios tipos de ecuaciones en $\mathbb{C}$. Finalmente, construimos las funciones exponenciales, logarítmicas y trigonométricas.

Quizás a estas alturas del curso ya veas un patrón de cómo estamos trabajando. Aunque varias de estas estructuras ya las conocías desde antes, hay una primer parte importante que consiste en formalizar cómo se construyen. Luego, vimos cómo se definen las operaciones en cada estructura y qué propiedades tienen. Haremos algo muy parecido con los polinomios.

Intuición de los polinomios

La idea de esta entrada es llegar a los polinomios que ya conocemos, es decir, a expresiones como la siguiente: $$4+5x+\frac{7}{2}x^2-x^4+3x^5.$$ Lo que tenemos que formalizar es qué significa esa «x», y cómo le hacemos para sumar y multiplicar expresiones de este tipo.

Intuitivamente, lo que queremos ese que en la suma «se sumen términos del mismo grado» y que en el producto «se haga la distribución y se agrupen términos del mismo grado». Por ejemplo, queremos que la suma funcione así

\begin{align*}
(1+&x-x^2+3x^3)+(-7+3x+x^2+2x^3+x^4)\\
&=(1-7)+(1+3)x+(-1+1)x^2+(3+2)x^3+(0+1)x^4\\
&=-6+4x+0x^2+5x^3+x^4\\
&=-6+4x+5x^3+x^4,
\end{align*}

y que la multiplicación funcione así

\begin{align*}
(2&+3x)(5+x+x^2)\\
&=2(5+x+x^2)+3x(5+x+x^2)\\
&=(10+2x+2x^2)+(15x+3x^2+3x^3)\\
&=10+(2+15)x+(2+3)x^2+3x^3\\
&=10+17x+5x^2+3x^3.
\end{align*}

El exponente más grande de una $x$ puede ser tan grande como queramos, pero no se vale que los polinomios tengan una infinidad de términos. Así, queremos descartar cosas del estilo $$1+x+x^2+x^3+x^4+\ldots,$$ en donde sumamos indefinidamente.

Construcción de polinomios

Para construir polinomios formalmente, tenemos que elegir de dónde van a venir sus coeficientes. Puede ser $\mathbb{Q}$, $\mathbb{R}$, $\mathbb{Z}$ o incluso $\mathbb{Z}_7$, digamos. Nosotros nos enfocaremos en construir los polinomios con coeficientes en $\mathbb{R}$, que tiene la ventaja de ser un campo. Algunas de las propiedades que probaremos se valen para cualquier elección de coeficientes, pero otras no. No profundizaremos en estas diferencias, pero es bueno que lo tengas en mente para tu formación matemática posterior.

Una buena idea para formalizar el concepto de polinomio, es notar que un polinomio está determinado por la lista de sus coeficientes, con esta idea en mente, podemos relacionar nuestra búsqueda con un concepto conocido de Cálculo.

Definición. Dado un conjunto $X$, una sucesión de elementos de $X$ es una función $a:\mathbb{N}\to X$. Para $n$ en $\mathbb{N}$, a $a(n)$ usualmente lo denotamos simplemente por $a_n$, y a la sucesión $a$ por $\{a_n\}$.

Definición. El soporte de una sucesión es el conjunto de naturales $n$ tales que $a_n\neq 0$.

Podemos «visualizar» los primeros términos de una sucesión así: $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ en donde podemos poner tantos términos como queramos y los puntos suspensivos indican que «sigue y sigue». Por supuesto, usualmente esta visualización no puede guardar toda la información de la sucesión, pero puede ayudarnos a entenderla un poco mejor.

Ejemplo 1. Si tomamos la función identidad $\text{id}:\mathbb{N}\to \mathbb{N}$, obtenemos la sucesión $$(0,1,2,3,4,5,6,7,\ldots).$$

Al tomar la función $a:\mathbb{N}\to \mathbb{Z}$ tal que $a_n=(-1)^n$, obtenemos la sucesión $$(1,-1,1,-1,1,-1,\ldots).$$

$\triangle$

Los polinomios son aquellas sucesiones de reales que «después de un punto tienen puros ceros».

Definición. Un polinomio con coeficientes reales es una sucesión $\{a_n\}$ de reales tal que $a_n\neq 0$ sólo para una cantidad finita de naturales $n$.

En otras palabras, un polinomio es una sucesión con soporte finito. Si visualizamos a un polinomio como una sucesión, entonces es de la forma $$(a_0,a_1,a_2,a_3,a_4,a_5,\ldots),$$ en donde a partir de un punto ya tenemos puros ceros a la derecha. Por conveniencia, marcaremos ese punto con un $\overline{0}$.

Ejemplo 2. La sucesión $$\left(5,7,\frac{7}{2},0,-1,3,0,0,0,\ldots\right),$$ en la que después del $3$ ya todos los términos son ceros, representa a un polinomio. Con la convención de arriba, podemos escribirlo como $$\left(5,7,\frac{7}{2},0,-1,3,\overline{0}\right).$$ Su soporte consiste de aquellas posiciones en las que la sucesión no es cero, que son $0,1,2,4,5$.

La sucesión $$(1,-1,1,-1,1,-1,\ldots)$$ dada por $a_n=(-1)^n$ no es un polinomio, pues podemos encontrar una infinidad de términos no cero.

$\triangle$

Para que las definiciones de la siguiente sección te hagan sentido, puedes pensar de manera informal que la sucesión $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ representa al polinomio $$a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+a_5x^5+\ldots.$$ La última condición en la definición de polinomio es la que garantiza que «tenemos un número finito de sumandos».

Definición. Definimos al conjunto de polinomios con coeficientes reales como $$\mathbb{R}[x]:=\{ p: p \text{ es polinomio con coeficientes reales}\}.$$

La igualdad de polinomios de define término a término, es decir.

Definición. Sean $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$. Decimos que $a=b$ si para todo natural se tiene $a_n=b_n$.

En las siguientes secciones definiremos las operaciones de suma y producto en $\mathbb{R}[x]$.

Suma y producto de polinomios

Los polinomios se suman «entrada a entrada».

Definición. Dados dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$, definimos su suma como el polinomio $$a+b:=\{a_n+b_n\},$$ o bien, en términos de sucesiones, como la sucesión $a+b:\mathbb{N}\to \mathbb{R}$ tal que $(a+b)(n)=a(n)+b(n)$.

Observa que nos estamos apoyando en la suma en $\mathbb{R}$ para esta definición.

Ejemplo 1. Los polinomios $$\left(0,2,0,4,-1,\frac{2}{3},\overline{0}\right)$$ y $$\left(1,-2,-1,-4,-2,\overline{0}\right)$$ tienen como suma al polinomio $$\left(0+1,2-2,0-1,4-4,-1-2,\frac{2}{3}+0,0+0,\ldots\right),$$ que es $$\left(1,0,-1,0,-3,\frac{2}{3},\overline{0}\right).$$

$\triangle$

La suma de dos polinomios sí es un polinomio pues claramente es una sucesión, y su soporte se queda contenido en la unión de los soportes de los sumandos.

La siguiente definición guarda la idea de que para multiplicar queremos distribuir sumandos y agrupar términos del mismo grado. Tiene sentido si piensas en la asociación intuitiva informal que discutimos al final de la sección anterior.

Definición. Dados dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$, definimos su producto como el polinomio $$ab:=\{c_n\},$$ en donde $c_n$ está dado por $$c_n:=\sum_{i+j=n} a_ib_j,$$ en otras palabras, $$c_n=a_0b_n+a_1b_{n-1}+\ldots+a_{n-1}b_1+a_nb_0.$$

Aquí nos estamos apoyando en la suma y producto en $\mathbb{R}$ para definir la multiplicación de polinomios.

Una forma práctica de hacer el producto es mediante una tabla. En la primer fila ponemos al primer polinomio y en la primer columna al segundo. Las entradas interiores son el producto de la fila y columna correspondiente. Una vez que hacemos esto, la entrada $c_j$ del producto es la suma de los elementos en la $j$-ésima «diagonal».

Ejemplo 2. Multipliquemos a los polinomios $$a=(3,-2,0,1,\overline{0})$$ y $$b=(0,2,7,\overline{0}).$$

Ponemos a $a$ y $b$ en la primer fila y columna respectivamente de la siguiente tabla:

$3$$-2$$0$$1$
$0$
$2$
$7$

Luego, en cada entrada interior de la tabla ponemos el producto de los coeficientes correspondientes:

$3$$-2$$0$$1$
$0$$3 \cdot 0$$-2 \cdot 0$$0\cdot 0$$1\cdot 0$
$2$$3 \cdot 2$$-2 \cdot 2$$0\cdot 2$$1\cdot 2$
$7$$3 \cdot 7$$-2 \cdot 7$$0\cdot 7$$1\cdot 7$

Después, hacemos las operaciones:

$3$$-2$$0$$1$
$0$$0$$0$$0$$0$
$2$$6$$-4$$0$$2$
$3$$21$$-14$$0$$7$

Finalmente, para encontrar el coeficiente $c_j$ del producto, hacemos la suma de las entradas en la $j$-ésima diagonal dentro de la tabla, es decir:
\begin{align*}
c_0&=0\\
c_1&=6+0=6\\
c_2&=21-4+0=17\\
c_3&=-14+0+0=-14\\
c_4&=0+2=2\\
c_5&=7.
\end{align*}

De esta forma, el polinomio producto es $$(0,6,17,-14,2,7,\overline{0}).$$ Es muy recomendable que notes que esto coincide con el producto (por ahora informal) \begin{align*}(3-&2x+x^3)(2x+7x^2)\\&=6x+17x^2-14x^3+2x^4+7x^5.\end{align*}

$\triangle$

El anillo de polinomios con coeficientes reales

Los polinomios y los enteros se parecen, en el sentido de que como estructura algebraica comparten muchas propiedades. La idea de esta sección es formalizar esta afirmación.

Teorema. El conjunto $\mathbb{R}[x]$ con las operaciones de suma y producto arriba definidos forman un anillo.

Demostración. Por una parte, tenemos que mostrar que la suma es asociativa, conmutativa, que tiene neutro e inversos aditivos. Por otra parte, tenemos que mostrar que el producto es asociativo. Finalmente, tenemos que mostrar que se vale la ley distributiva.

Tomemos dos polinomios $a=\{a_n\}$, $b=\{b_n\}$ y un natural $n$. El término $n$ de $a+b$ es $a_n+b_n$ y el de $b+a$ es $b_n+a_n$, que son iguales por la conmutatividad de la suma en $\mathbb{R}$. De manera similar, se muestra que la suma es asociativa.

El polinomio $(\overline{0})$ es la identidad de la suma. Esto es sencillo de mostrar y se queda como tarea moral. Además, si $a=\{a_n\}$ es un polinomio, entonces $\{-a_n\}$ es una sucesión con el mismo soporte (y por lo tanto finito), que cumple que $$\{a_n\}+\{-a_n\}=(0,0,0,\ldots)=(\overline{0}),$$ así que la suma tiene inversos aditivos.

Ahora probemos la asociatividad del producto. Tomemos tres polinomios $a=\{a_n\}$, $b=\{b_n\}$, $c=\{c_n\}$ y un natural $n$. Hagamos el producto $(ab)c$. Para cada $i$, el $i$-ésimo término de $ab$ es un cierto $d_i$ dado por $$d_i = \sum_{k+l=i} a_k b_l.$$ El $n$-ésimo término de $(ab)c$ es entonces
\begin{align*}
\sum_{i+j=n}d_ic_j &= \sum_{i+j=n}\sum_{k+l=i} a_kb_lc_j\\
&=\sum_{k+l+j=n}a_kb_lc_j.
\end{align*}

Un argumento análogo muestra que el $n$-esimo término de $a(bc)$ es también \begin{align*}
\sum_{k+l+j=n}a_kb_lc_j,
\end{align*}

lo cual muestra que la multiplicación es asociativa.

Lo último que nos queda por probar es la ley distributiva. Tomemos tres polinomios $a=\{a_n\}$, $b=\{b_n\}$, $c=\{c_n\}$ y un natural $n$. Usamos las propiedades de las operaciones en $\mathbb{R}$ para ver que el $n$-ésimo término de $a(b+c)$ es
\begin{align*}
\sum_{i+j=n} a_i(b_j+c_j)&=\sum_{i+j=n} (a_ib_j+ a_i c_j)\\
&=\sum_{i+j=n} a_ib_j + \sum_{i+j=n} a_ic_j.
\end{align*}

A la derecha tenemos el $n$-ésimo término de $ab$ sumado con el $n$-ésimo término de $ac$, así que coincide con el $n$-ésimo término de la suma $ab+ac$. Esto muestra que $a(b+c)$ y $ab+ac$ son iguales término a término y por lo tanto son iguales como polinomios.

$\square$

Como de costumbre, al inverso aditivo de un polinomio $a$ le llamamos $-a$, y definimos $a-b:=a+(-b)$.

Proposición. La multiplicación en $\mathbb{R}[x]$ es conmutativa.

Demostración. Tomemos dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$. Tenemos que ver que $ab$ y $ba$ son iguales término a término. Tomemos entonces un natural $n$. El término $c_n$ de $ab$ es $$c_n=\sum_{i+j=n} a_ib_j,$$ y el término $d_n$ de $ba$ es $$d_n=\sum_{i+j=n} b_ia_j.$$ Por la conmutatividad de la suma y el producto en $\mathbb{R}$, tenemos que $c_n=d_n$.

$\square$

Proposición. La multiplicación en $\mathbb{R}[x]$ tiene identidad.

Demostración. El polinomio $(1,\overline{0})$ es la identidad multiplicativa. Esto es sencillo de mostrar y se queda como tarea moral.

$\square$

Proposición. Si $a$ y $b$ son polinomios en $\mathbb{R}[x]$ distintos del polinomio $(\overline{0})$, entonces su producto también.

Demostración. Para ello, tomemos el mayor natural $m$ tal que $a_m\neq 0$ y el mayor natural $n$ tal que $b_n\neq 0$. Estos existen pues $a$ y $b$ no son el polinomio $(\overline{0})$, y su soporte es finito.

Cualquier pareja de naturales $k$ y $l$ tales que $k+l=m+n$ con $k\leq m-1$ cumple $l\geq n+1.$ Así, si $k+l=m+n$ tenemos que:

  • Si $k\leq m-1$, entonces $b_l=0$ y por lo tanto $a_kb_l=0$.
  • Si $k\geq m+1$, entonces $a_k=0$ y por lo tanto $a_kb_l=0$.
  • Finalmente, si $k=m$, entonces $l=n$ y $$a_kb_l=a_mb_n\neq 0.$$

De esta forma, el $(m+n)$-ésimo término de $ab$ es $$\sum_{k+l=m+n} a_k b_l=a_mb_n\neq 0,$$ de modo que $ab$ no es el polinomio $(\overline{0})$.

$\square$

Corolario. En $\mathbb{R}[x]$ se vale la regla de cancelación, es decir, si $a,b,c$ son polinomios, $a\neq 0$ y $ab=ac$, entonces $b=c$.

Demostración. De la igualdad $ab=ac$ obtenemos la igualdad $a(b-c)=0$. Como $a\neq 0$, por la proposición anterior debemos tener $b-c=0$, es decir, $b=c$.

$\square$

A un anillo conmutativo cuya multiplicación tiene identidad y en donde se vale la regla de cancelación se le conoce como un dominio entero.

Teorema. El anillo $\mathbb{R}[x]$ es un dominio entero.

Con esto terminamos la construcción de $\mathbb{R}[x]$ y de sus operaciones. Cuando trabajamos con los polinomios de manera práctica resulta engorroso mantener esta notación de sucesiones. En la siguiente entrada justificaremos el uso de la notación «usual» de los polinomios, en la que usamos la letra «x» y exponentes.

Más adelante…

Ya que definimos el anillo de polinomios con coeficientes en los reales, y sus operaciones, el siguiente paso que haremos será practicar como operar polinomios.

Después de esto empezaremos a desarrollar la teoría sobre los polinomios. Como ya hemos mencionado, y como te podrás dar cuenta en las siguientes entradas, esta teoría será muy similar a la que desarrollamos para los números enteros cuando vimos los temas de teoría de números.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Justifica por qué el soporte del producto de dos polinomios es finito.
  2. Muestra que la suma en $\mathbb{R}[x]$ es asociativa.
  3. Verifica que el polinomio $(\overline{0})$ es la identidad aditiva en $\mathbb{R}[x]$.
  4. Verifica que el polinomio $(1,\overline{0})$ es la identidad multiplicativa en $\mathbb{R}[x]$.
  5. Considera los polinomios $a=\left(\frac{1}{3},4,\frac{5}{7},8,\overline{0}\right)$ y $b=\left(0,0,\frac{2}{5},\frac{3}{4},\overline{0}\right)$. Determina $a+b$ y $a\cdot b$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Transformaciones multilineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con esta entrada empieza el cuarto y último bloque del curso de Lineal I. En este último bloque hablaremos de determinantes de matrices, de eigenvectores, eigenvalores y de polinomios característicos. Además, probaremos el teorema espectral para matrices simétricas reales. Nuestro cimiento teórico para definir a los determinantes y probar sus propiedades fácilmente serán las transformaciones multilineales, que generalizan a las formas bilineales de las que ya hemos hablado.

Antes de empezar, vale la pena recapitular lo que hemos aprendido en los bloques anteriores:

  • Bloque 1: Primero, hablamos de vectores y matrices con entradas reales, y sus operaciones básicas. Luego, vimos que nos ayudan a plantear y resolver sistemas de ecuaciones lineales. Aquí hablamos de varias equivalencias de matrices invertibles. Al final de este bloque, definimos espacios vectoriales en general. En ellos hablamos de conjuntos generadores, independientes y bases. Mediante el lema de Steinitz definimos y probamos propiedades de espacios de dimensión finita.
  • Bloque 2: Vimos la teoría básica de transformaciones lineales. Hablamos de imágenes y kernels de transformaciones. Vimos cómo se comportan con independientes y bases. Luego hablamos de cómo representar transformaciones lineales entre espacios de dimensión finita usando matrices, y en particular cómo hacer cambios de base.
  • Bloque 3: Este bloque fue más «geométrico». Primero, vimos formas lineales y la teoría de dualidad y la aplicamos para ver que todo subespacio es intersección de hiperplanos. Luego, definimos formas bilineales y cuadráticas. De ahí salió la noción de producto interior, que nos permite «hacer geometría» en espacios vectoriales. Hablamos de desigualdades vectoriales, de bases ortogonales, para qué sirven y cómo encontrarlas.

La intuición que obtuvimos de formas bilineales nos ayudará a entender formas multilineales. Pero antes de entrar en este tema, que es un poco técnico, veamos un ejemplo que nos ayudará a entender lo que nos espera en este bloque.

Elevando una matriz a la 100

Considera la matriz $$A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}.$$ Imagina que para alguna aplicación queremos elevarla a la $100$. Esto probablemente lo puedas hacer a mano, y mejor aún, a computadora. Pero en aplicaciones en la vida real, puede que hacer los cálculos matriciales sea mucho incluso para una computadora. ¿Habrá una forma de que sea más fácil hacer $A^{100}$?

Resulta que para este caso en particular, sí. Considera las matrices $$B=\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}$$ y $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$ La matriz $B$ es invertible, con inversa $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ como puedes verificar. Además, la matriz $A$ se puede «factorizar» así: $$A=B^{-1}DB.$$

Esto es muy útil para nuestros fines. Nota que
\begin{align*}
A^2&=(B^{-1}DB)(B^{-1}DB)\\
&=B^{-1}D^2B,
\end{align*}

y que de hecho inductivamente $A^n=B^{-1}D^n B$ para cualquier entero positivo $n$.

Por otro lado, como la matriz $D$ es diagonal, sus potencias son muy sencillas, de hecho, se puede probar inductivamente que $D^n=\begin{pmatrix}1&0\\0&2^{n}\end{pmatrix}$ para cualquier entero positivo $n$. De esta forma, podemos hacer $A^n$ con tan solo dos multiplicaciones de matrices:
\begin{align*}
A^n&=B^{-1}D^nB\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}1&0\\ 0&2^{n}\end{pmatrix}\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}3&5 \\ 2^n&2^{n+1}\end{pmatrix}\\
&=\begin{pmatrix}6-5\cdot 2^n& 10-5\cdot 2^{n+1}\\ -3+3\cdot 2^n & -5+3\cdot 2^{n+1}\end{pmatrix}
\end{align*}

Así, el problema que queremos resolver es sencillo ahora. Basta tomar $n=100$ para obtener $$A^{100}=\begin{pmatrix}6-5\cdot 2^{100} & 10-5\cdot 2^{101}\\ -3+3\cdot 2^{100} & -5+3\cdot 2^{101}\end{pmatrix}.$$

Si podemos escribir una matriz $A$ como $B^{-1}DB$ con $B$ invertible y $D$ diagonal, decimos que es diagonalizable. La conclusión anterior es que una matriz diagonalizable se puede elevar fácilmente a potencias.

Todo esto está muy bien pero, ¿de dónde salen las matrices $B$ y $D$? ¿toda matriz es diagonalizable? ¿qué otras ventajas tiene diagonalizar una matriz? Este tipo de preguntas son las que estudiaremos en este bloque.

Diagonalizar matrices de 2×2

El determinante de una matriz $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ en $M_2(\mathbb{R})$, como quizás hayas visto antes, está dado por $ad-bc$. Resulta que una forma sistemática para encontrar matrices $B$ y $D$ como las del ejemplo de arriba es la siguiente:

  • Tomar una matriz $A$.
  • Considerar el polinomio $P(\lambda)=\det(\lambda I – A)$. A este polinomio se le conoce como el polinomio característico de $A$.
  • Encontrar las raíces $\lambda_1$ y $\lambda_2$ de $P(\lambda)$. A estos valores se les llama los eigenvalores de $A$.
  • Encontrar vectores $v_1$ y $v_2$ no cero tales que $(A-\lambda_1I) v_1 =0$ y $(A-\lambda_2 I)v_2 = 0$. Estos simplemente son sistemas lineales homogéneos, que ya sabemos resolver con reducción gaussiana. A estos vectores se les llama eigenvectores de $A$.
  • Usar a $\lambda_1$ y $\lambda_2$ como las entradas de la matriz diagonal $D$.
  • Usar a $v_1$ y $v_2$ como columnas de la matriz $B^{-1}$. Encontrar la inversa de $B^{-1}$ para encontrar a $B$.

¿Cómo se hace en dimensiones más altas? ¿Siempre podemos seguir este proceso esto? ¿Hay algunos tipos de matrices para los que siempre funcione? Estas son otras preguntas que responderemos en el transcurso de estas semanas.

Mientras tanto, veamos qué sucede si aplicamos este método para la matriz $A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}$ del ejemplo. Tenemos que el determinante de $\lambda I-A = \begin{pmatrix}\lambda+4&10\\-3&\lambda – 7\end{pmatrix}$ es el polinomio \begin{align*}P(\lambda)&= (\lambda+4)(\lambda-7)+30\\ &=\lambda^2-3\lambda-28+30\\ &=\lambda^2-3\lambda+2,\end{align*} cuyas raíces son $1$ y $2$. De aquí construimos $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$

Busquemos los eigenvectores. Por un lado, si queremos que suceda que $Av=v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y, 3x+7y)=(x,y),$$ y una de las soluciones es $(x,y)=(2,-1)$. Por otro lado, si queremos que suceda que $Av=2v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y,3x+7y)=(2x,2y),$$ y una de las soluciones es $(x,y)=(-5,3)$. De aquí construimos $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ y podemos hacer reducción gaussiana para encontrar $B$. Observa que obtenemos exactamente las mismas matrices que propusimos en el ejemplo.

Nos gustaría poder hacer esto mismo en dimensiones más altas y entender cuándo y por qué funciona. Para ello, lo primero que necesitamos hacer es entender muy bien el concepto de determinante y aprender a manejar hábilmente sus propiedades principales.

Hay varias formas de definir determinante y quizás ya hayas visto algunas en cursos anteriores. En este curso definiremos determinante mediante transformaciones multilineales. Es un poco más abstracto, pero ayuda a que sea más fácil probar técnicas para trabajar con determinantes y entender por qué funcionan.

Transformaciones multilineales

En el bloque anterior ya hablamos de formas bilineales. Como recordatorio, tomábamos un espacio vectorial real $V$ y una forma bilineal era una función $b:V\times V\to \mathbb{R}$ tal que cada que fijábamos una entrada, la función era lineal en la otra. La palabra «forma» la usábamos porque la imagen caía en el campo.

Generalizaremos esta idea para más entradas, y para cuando la imagen cae en cualquier espacio vectorial. Trabajaremos en espacios vectoriales sobre un campo $F$, que puedes pensar que es $\mathbb{R}$ o $\mathbb{C}$.

Definición. Sean $V_1,\ldots, V_d$ y $W$ espacios vectoriales sobre $F$. Una función $f:V_1\times \ldots \times V_d\to W$ es multilineal si cada que fijamos una $i$ y para cada $j\neq i$ fijamos vectores $v_j$ en $V_j$, la transformación $$V_i\to W$$ dada por $$v_i\mapsto f(v_1,v_2,\ldots,v_d)$$ es lineal.

Aclaración. De nuevo, es muy importante no confundir una transformación multilineal con una transformación lineal del espacio vectorial $V_1\times \ldots \times V_d$ a $W$.

Ejemplo 1. Consideremos $\mathbb{R}^3=\mathbb{R}\times \mathbb{R} \times \mathbb{R}$ y consideramos la transformación $T:\mathbb{R}^3\to \mathbb{R}$ dada por $T(x,y,z)=xyz.$ Afirmamos que esta es una transformación multilineal.

Si fijamos $y$ y $z$, tenemos que mostrar que la transformación $x\mapsto xyz$ es lineal, lo cual es cierto pues para $x_1,x_2$ reales y $r$ real se cumple que
\begin{align*}
T(x_1+rx_2,y,z)&=(x_1+rx_2)yz\\
&=x_1yz + rx_2yz\\
&=T(x_1,y,z)+rT(x_2,y,z).
\end{align*}

De manera similar se prueba para las otras entradas.

Sin embargo, $T$ no es una transformación lineal. Por ejemplo, no saca escalares ya que $T(1,1,1)=1\cdot 1\cdot 1=1$ y $$T(2,2,2)=8\neq 2 = 2T(1,1,1).$$

$\square$

Las transformaciones multilineales son muy generales, y ayudan a crear algo que se llama el producto tensorial. Sin embargo, para los fines que necesitamos ahora, no hace falta tanta generalidad. Sólo nos enfocaremos en las transformaciones multilineales cuando $V_1=V_2=\ldots=V_d$, es decir, en transformaciones $f:V^d\to W$.

Definición. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$.

Ejemplo 2. Si $V$ es un espacio vectorial real y $W=\mathbb{R}$, entonces toda forma bilineal $b:V\times V\to \mathbb{R}$ es una transformación $2$-lineal.

Ejemplo 3. Tomemos $V=\mathbb{R}^3$ y $d=4$. Tomemos las siguientes formas lineales en $V$:
\begin{align*}
l_1(x,y,z)&=x+y+z\\
l_2(x,y,z)&=3x-2y+z\\
l_3(x,y,z)&=y\\
l_4(x,y,z)&=x+z.
\end{align*}

Consideremos la transformación $T:V^4\to \mathbb{R}$ dada por $$T(v_1,v_2,v_3,v_4)=l_1(v_1)l_2(v_2)l_3(v_3)l_4(v_4),$$ por ejemplo, si $v_1=(1,0,0)$, $v_2=(0,1,0)$, $v_3=(0,1,1)$ y $v_4=(1,1,1)$, tenemos que

\begin{align*}
l_1(v_1)&=l_1(1,0,0)=1+0+0=1\\
l_2(v_2)&=l_2(0,1,0)=0-2+0=-2\\
l_3(v_3)&=l_3(0,1,1)=1\\
l_4(v_4)&=l_4(1,1,1)=1+1=2,
\end{align*}

y por lo tanto $$T(v_1,v_2,v_3,v_4)=(1)(-2)(1)(2)=-4.$$

Tenemos que $T$ es $4$-lineal pues para cada $i$, al fijar las tres entradas $v_j$ con $j\neq i$ tenemos que $T(v_1,v_2,v_3,v_4)$ es de la forma $cl_i(v_i)$ con $c$ un escalar. Como $l_i$ es una forma lineal, $cl_i$ también.

$\triangle$

Nos interesan un tipo todavía más restringido de transformaciones multilineales. Para definirlas, tenemos que hacer una pequeña desviación hacia el tema de permutaciones.

Permutaciones y signos

Tomemos un entero positivo y usemos $[n]$ para hablar del conjunto de los enteros de $1$ a $n$, es decir, $[n]:=\{1,2,\ldots,n\}$.

Definicion. Una permutación de $[n]$ es una función biyectiva $\sigma: [n]\to [n]$.

En otras palabras, una permutación básicamente «revuelve los elementos» de $[n]$. Usualmente expresamos a la permutación con la notación $$\begin{pmatrix} 1 & 2 & \ldots & n\\ \sigma(1) & \sigma(2) & \ldots & \sigma(n)\end{pmatrix}$$

Ejemplo 1. La función $\sigma:[3]\to [3]$ tal que $\sigma(1)=2$, $\sigma(2)=3$ y $\sigma(3)=1$ es una permutación que manda al conjunto ordenado $(1,2,3)$ al conjunto ordenado $(2,3,1)$. La expresamos como $$\begin{pmatrix} 1& 2 & 3\\ 2 & 3 & 1\end{pmatrix}.$$

$\triangle$

Como las permutaciones son funciones, entonces podemos componerlas. Para evitar complicar la notación, no pondremos el signo de composición $\circ$, sino simplemente permutaciones adyacentes. La composición usualmente no es conmutativa.

Ejemplo 2. Tomemos la permutación $\sigma_1:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 1 & 4\end{pmatrix}$$ y la permutación $\sigma_2:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 3 & 1\end{pmatrix}.$$

¿Qué hace la función $\sigma_1 \sigma_2$? Es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_1(\sigma_2(1))&=\sigma_1(4)=4,\\
\sigma_1(\sigma_2(2))&=\sigma_1(2)=2,\\
\sigma_1(\sigma_2(3))&=\sigma_1(3)=1,\\
\sigma_1(\sigma_2(4))&=\sigma_1(1)=3,
\end{align*}

es decir, la composición es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 1 & 3\end{pmatrix}.$$

Por otro lado, la función $\sigma_2\sigma_1$ hace algo un poco diferente. También es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_2(\sigma_1(1))&=\sigma_2(3)=3,\\
\sigma_2(\sigma_1(2))&=\sigma_2(2)=2,\\
\sigma_2(\sigma_1(3))&=\sigma_2(1)=4,\\
\sigma_2(\sigma_1(4))&=\sigma_2(4)=1,
\end{align*}

así que es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 4 & 1\end{pmatrix}.$$

$\triangle$

Al conjunto de permutaciones de $[n]$ le llamamos $S_n$. Tomemos una permutación $\sigma$ en $S_n$. Para dos elementos $i<j$ en $[n]$, decimos que $\sigma$ los invierte si $\sigma(i)>\sigma(j)$.

Definición. Sea $\sigma$ un elemento de $S_n$. Decimos que el signo de $\sigma$ es $1$ si invierte una cantidad par de parejas, y es $-1$ si invierte una cantidad impar de parejas. Al signo de $\sigma$ lo denotamos $\text{sign}(\sigma)$.

Ejemplo 3. La permutación $$\begin{pmatrix}1& 2 & 3 & 4 & 5\\ 5 & 2 & 1 & 4 & 3\end{pmatrix}$$ invierte a la pareja $(1,2)$ pues $\sigma(1)=5>2=\sigma(2)$. Todas las parejas que invierte son $(1,2)$, $(1,3)$, $(1,4)$, $(1,5)$, $(2,3)$, $(4,5)$. Estas son $6$ parejas, que son una cantidad par, así que la permutación tiene signo $1$.

La permutación identidad en $S_n$ no invierte ninguna pareja, así que tiene signo $1$.

$\triangle$

En la siguiente entrada combinaremos estas nociones de permutaciones y de transformaciones multilineales para hablar de antisimetría y alternancia. Por el momento, reflexiona en lo siguiente: si $\sigma$ es una permutación en $S_n$ y $f:V^n\to W$ es una transformación $n$-lineal, entonces la transformación $\sigma f:V^n \to W$ definida por $$(\sigma f)(x_1,x_2,\ldots,x_n) = f(x_{\sigma(1)},x_{\sigma(2)},\ldots,x_{\sigma(n)})$$ también es una transformación $n$-lineal.

Más adelante…

En esta primera entrada de la cuarta unidad hemos visto cómo la intuición que obtuvimos cuando estudiamos formas bilineales, nos ha ayudado a entender el concepto de formas multilineales. En las siguientes entradas del blog, abordaremos el concepto de determinante y aprenderemos cómo se usa.

Para la definición de determinante y para demostrar algunas de sus propiedades , usaremos lo que aprendimos en esta entrada sobre las transformaciones multilineales. Veremos que es una herramienta del álgebra lineal bastante útil y entender detalladamente cómo funciona será fundamental para abordar uno de los teoremas más importantes del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Toma $T:V^d\to W$ una transformación $d$-lineal. Muestra que si de entre $x_1,\ldots,x_d$ elementos de $V$ alguno de ellos es el vector $0$, entonces $T(x_1,\ldots,x_d)=0$.
  • Muestra que la transformación del ejemplo de transformaciones multilineales también es lineal en la segunda y tercera entradas.
  • Supón que $l_1,\ldots,l_d$ son formas lineales de $V$ al campo $F$. Muestra que $f:V^d\to F$ dada por $$f(x_1,\ldots,x_d)=l_1(x_1)\ldots l_d(x_d)$$ es una transformación $d$-lineal.
  • Encuentra una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}$ que no sea una transformación multilineal.
  • Muestra que la composición de dos permutaciones siempre es una permutación.
  • Muestra que para dos permutaciones $\sigma_1$ y $\sigma_2$ se tiene que $$\text{sign}(\sigma_1\sigma_2)=\text{sign}(\sigma_1)\text{sign}(\sigma_2).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Sucesiones recursivas y recursiones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada estudiaremos aquellas sucesiones en las que un término está definido mediante términos anteriores. Estas son las sucesiones recursivas. Dentro de ellas hay unas muy especiales, que son las que satisfacen una recursión lineal. También hablaremos de eso.

En entradas anteriores ya hemos visto ejemplos de sucesiones recursivas. Por un lado, las sucesiones aritméticas y geométricas cumplen una recursión sencilla. Las sucesiones periódicas también se pueden poner en términos de una recursión.

Vimos otros ejemplos en la entrada de sucesiones monótonas y acotadas, en donde la recursion nos ayuda a demostrar algunas de estas propiedades.

Sucesiones recursivas

Una sucesión recursiva es una sucesión $\{x_n\}$ en la que, intuitivamente, cada término depende de los anteriores. La regla que dice cómo está relacionado cada término con los de antes le llamamos la regla o fórmula recursiva. Usualmente los primeros términos de la sucesión están dados, y se les conoce como los términos iniciales.

Las sucesiones aritméticas son recursivas. Si $\{x_n\}$ es aritmética de término inicial $a$ y diferencia $d$, se comienza con $x_0=a$ y para $n\geq 0$ se satisface la recursión $x_{n+1}=x_n+d$. Similarmente, una sucesión geométrica $\{y_n\}$ de término inicial $s$ y razón $r$ se puede poner en términos recursivos: $y_0=s$ y para $n\geq 0$, se tiene $y_{n+1}=ry_n$.

Una sucesión periódica $\{z_n\}$ de periodo $p$ también satisface una recursión. Los términos iniciales $z_0,\ldots,z_{p-1}$ están dados y para $n\geq 0$ se tiene que $z_{n+p}=z_n$.

Las sucesiones recursivas pueden aparecer como parte del enunciado de un problema, o bien pueden aparecer de manera natural como parte de la solución de un problema.

Problema. Para un triángulo $T$ del plano se define otro triángulo $f(T)$ como sigue:

  • Se nombran los vértices $A,B,C$ de modo que $|BC|\leq |AC|\leq |AB|$.
  • Al punto medio de $BC$ se le nombra $M$.
  • Se rota el punto $A$ alrededor de $M$ en $180^\circ$ para obtener un punto $A’$.
  • Se define $f(T)$ como el triángulo $ACA’$.

Definimos una sucesión de triángulos como sigue. Se toma $T_0=T$. Luego, para $n\geq 0$ se define $T_{n+1}=f(T_n)$. ¿Es posible que esta sucesión tenga dos triángulos congruentes?

Sugerencia pre-solución. Es difícil estudiar las ternas de lados bajo la operación. Modifica el problema a entender otro parámetro que puedas estudiar fácilmente bajo las reglas dadas.

Solución. La respuesta es que en la sucesión no hay dos triángulos congruentes. De hecho, la observación clave es mostrar algo más fuerte: en la sucesión no hay dos triángulos con el mismo perímetro.

Tomemos un triángulo $T$. En el primer paso se nombran los vértices $ABC$ de modo que $BC$ el lado más chico del triángulo, y por lo tanto el ángulo en $A$ es menor estrictamente a $90^\circ$. Por esta razón, $A$ está fuera del círculo con diámetro $BC$, y por lo tanto la mediana $AM$ tiene longitud mayor a $\frac{|BC|}{2}$. El nuevo triángulo tiene lados de longitudes $|AB|$, $|AC|$ y $2|AM|>|BC|$.

Así, la sucesión de perímetros de los triángulos es estrictamente creciente. Por lo tanto, en la sucesión no puede haber dos triángulos con el mismo perímetro, y entonces no hay dos congruentes.

$\square$

Sucesiones recursivas y conteo

Las sucesiones recursivas aparecen también en problemas de combinatoria o de algoritmos, en donde ciertos casos o cierta cantidad de pasos se puede poner en términos de versiones más pequeñas del problema. Además, es posible que en un problema interactúen dos o más sucesiones de manera recursiva. Veamos un ejemplo.

Problema. Se tienen palabras de $10$ letras que usan los símbolos $a$, $b$ y $c$. ¿Cuántas de ellas no tienen dos $a$ consecutivas, ni dos $b$ consecutivas?

Sugerencia pre-solución. En vez de resolver el problema directamente, generalízalo a cuando se tienen palabras de $n$ letras. Para contar cuántas son, divide en casos de acuerdo a en qué símbolo terminan y plantea una recursión en términos de valores anteriores. Hay cierta simetría en $a$ y $b$. Aprovéchala.

Solución. Vamos a resolver un problema más general. Contemos las sucesiones sin dos $a$ ni dos $b$ consecutivas. Dividamos en los siguientes casos:

  • $\{x_n\}$ será la sucesión que cuenta cuántas de $n$ letras hay que terminen en $a$.
  • $\{y_n\}$ será la sucesión que cuenta cuántas de $n$ letras hay que terminen en $b$.
  • $\{z_n\}$ será la sucesión que cuenta cuántas de $n$ letras hay que terminen en $c$.

Por ejemplo, $x_1=y_1=z_1=1$, pues con una letra y con la letra final definida sólo hay una opción. Tenemos que $x_2=2$, que son $$ba,ca,$$ que $y_2=2$, que son $$ab,cb,$$ y que $z_3=3$, que son $$ac,bc,cc.$$ El problema nos pregunta por $x_{10}+y_{10}+z_{10}$.

La razón para partir en estos casos es que si sabemos en qué letra termina una sucesión, entonces sabemos exactamente cómo encontrar las que tienen una letra más de manera recursiva. Por ejemplo, para $n\geq 1$ tenemos que $x_{n+1}=y_n+z_n$, pues una palabra buena de $n+1$ letras que termina en $a$ se forma por una palabra buena de $n$ letras que no termina en $a$, y luego al final se le pone una $a$. Las tres recursiones que obtenemos son
\begin{align*}
x_{n+1}&=y_n+z_n\\
y_{n+1}&=x_n+z_n\\
z_{n+1}&=x_n+y_n+z_n.
\end{align*}

Ahora sí podemos hacer las cuentas únicamente haciendo operaciones, sin la dificultad que implica llevar el conteo de casos en el problema original. La siguiente tabla se puede llenar fácilmente, llenando renglón a renglón de arriba a abajo. Además, la simetría del problema en $a$ y $b$ hace que las sucesiones $x_n$ y $y_n$ sean iguales, así que también podemos aprovechar esto al momento de hacer las cuentas:

$n$$x_n$$y_n$$z_n$
$1$$1$$1$$1$
$2$$2$$2$$3$
$3$$5$$5$$9$
$4$$14$$14$$19$
$5$$33$$33$$47$
$6$$80$$80$$113$
$7$$193$$193$$273$
$8$$466$$466$$659$
$9$$1125$$1125$$1591$
$10$$2716$$2716$$3841$
Tabla de valores de las sucesiones

De esta manera, la cantidad total de palabras que pide el problema es $$2716+2716+3841=9273.$$

$\square$

Recursiones lineales

Hay un tipo de sucesiones recursivas especiales, que cumplen que cada término depende de pocos términos anteriores y de manera lineal.

Por ejemplo, la sucesión de Fibonacci satisface $F_0=0$, $F_1=1$ y para $k\geq 0$ se tiene que $$F_{k+2}=F_k+F_{k+1}.$$ Aquí la recursión depende de los dos términos inmediatos anteriores, y cada uno de ellos aparece linealmente. Por ello, decimos que es una recursión lineal de orden 2.

La definición general es la siguiente.

Definición. Una sucesión $\{x_n\}$ de reales satisface una recursión lineal de orden $m$ si los primeros $m$ términos $x_0,\ldots,x_{m-1}$ están dados, y además existen reales $a_0,\ldots,a_{m-1}$ tales que para $k\geq 0$ se satisface la recursión lineal $$x_{m+k}=a_0x_k+a_1x_{k+1}+\ldots+a_{m-1}x_{m+k-1}.$$

El siguiente método nos ayuda en varios casos a pasar una sucesión que satisface una recursión lineal a una fórmula cerrada.

Primero, tomamos una sucesión $\{x_n\}$ como la de la definición. Luego, consideramos el siguiente polinomio de grado $m$: $$P(x)=x^m-a_{m-1}x^{m-1}-\ldots-a_0.$$

Supongamos que $r$ es una raíz de $P$. Afirmamos que la sucesión $\{r^n\}$ satisface la recursión. En efecto, como $r$ es raíz de $P$, tenemos que $$r^m=a_{m-1}r^{m-1}+\ldots+a_0,$$ y multiplicando ambos lados por $r^k$ tenemos que $$r^{m+k}=a_{m-1}r^{m+k-1}+\ldots+a_0r^k,$$ que es justo la recursión lineal (con los sumandos de derecha a izquierda).

Ahora, nota que si $\{x_n\}$ y $\{y_n\}$ satisfacen la recursión lineal, entonces para cualesquiera reales $c$ y $d$ tenemos que $\{cx_n+dy_n\}$ también. Entonces si hacemos combinaciones lineales de potencias de raíces de $P$ también tendremos sucesiones que satisfacen la recursión lineal. Resulta que en varios casos «todas las soluciones se ven así».

La discusión hasta aquí es un poco abstracta, así que hagamos un ejemplo concreto.

Problema. Determina una fórmula cerrada para la sucesión $\{A_n\}$ tal que $A_0=1$, $A_1=5$ y que satisface la recursión lineal de orden 2 $$A_{n+2}=-6A_n+5A_{n+1}.$$

Sugerencia pre-solución. Encuentra el polinomio asociado a la recursión. Si tiene raíces $\alpha$ y $\beta$, muestra que para cualesquiera reales $c$ y $d$ se tiene que $B(c,d)=\{c\alpha^n+d\beta^n\}$ satisface la recursión. Ya que nos dan los dos primeros términos, se puede encontrar los únicos $c$ y $d$ que funcionan para $\{A_n\}$.

Solución. El polinomio asociado a la recursión es $x^2-5x+6$, que tiene raíces $2\,\text{ y }\, 3$. Entonces, para cualesquiera reales $c$ y $d$ se tiene que la sucesión $B(c,d)=\{c2^n+d3^n\}$ satisface la recursión.

Además, necesitamos que los primeros términos sean $1\,\text{ y }\,5$ respectivamente, de donde obtenemos el sistema de ecuaciones para $c$ y $d$ siguiente:

\begin{align*}
1&=c2^0+d3^0=c+d\\
5&=c2^1+d3^1=2c+3d.
\end{align*}

La solución a este sistema es $c=-2$, $d=3$. De esta forma, la fórmula cerrada para $\{A_n\}$ es $$A_n=-2\cdot 2^n+3\cdot 3^n=3^{n+1}-2^{n+1}.$$

$\square$

Todos los pasos que hicimos en el problema anterior son reversibles, pero si quieres asegurarte de que todo va marchando bien, puedes mostrar por inducción que la fórmula dada es correcta.

Teorema para recursiones lineales de orden $m$

Resulta que cuando el polinomio asociado tiene $m$ raíces distintas, entonces el método anterior siempre funciona.

Teorema. Supongamos que la sucesión $\{x_n\}$ satisface la recursión lineal de orden $m$ $$x_{m+k}=a_0x_k+a_1x_{k+1}+\ldots+a_{m-1}x_{m+k-1}$$ para ciertos reales $a_0,\ldots,a_{m-1}$, y que las raíces del polinomio $$P(x)=x^m-a_{m-1}x^{m-1}-\ldots-a_0$$ son todas distintas y son $r_0,\ldots,r_{m-1}$. Entonces, existen únicos números $c_0,\ldots,c_{m-1}$ tales que para todo $n\geq 0$ se tiene $$x_n=c_0r_0^n+\ldots+c_{m-1}r_{m-1}^n,$$ y ellos se pueden encontrar mediante el sistema de $m$ ecuaciones lineales que queda al tomar $n=0,1,\ldots,m-1$.

No veremos la demostración de este teorema, pero aquí abajo lo usaremos para resolver algunos problemas.

Problema. La sucesión $\{B_n\}$ satisface que para toda $n\geq 0$ se tiene que $$B_{n+5}+B_n=-2(B_{n+4}+B_{n+1})-3(B_{n+3}+B_{n+2}).$$ Demuestra que esta sucesión es acotada.

Sugerencia pre-solución. Calcula el polinomio asociado. Factorízalo y muestra que todas sus raíces son diferentes.

Solución. Reacomodando los términos en la hipótesis, obtenemos que $\{B_n\}$ satisface una recursión lineal con polinomio asociado $$P(x)=x^5+2x^4+3x^3+3x^2+2x+1,$$ que se puede factorizar como $$(x^2+x+1)(x^3+x^2+x+1).$$

Las raíces del primer factor son las dos raíces cúbicas de la unidad que no sean uno digamos $w$ y $z$. Las del segundo factor son las $3$ raíces cuartas de la unidad que no sean uno, es decir $i$, $-1$ y $-i$.

Todos estos complejos tienen norma uno y además son distintos. De esta forma, por el teorema de recursiones lineales, existen únicos complejos $a,b,c,d,e$ tales que para toda $n$ se cumple $$B_n=aw^n+bz^n+ci^n+d(-1)^n+e(-i)^n.$$

De aquí podemos proceder de dos formas distintas. Una es simplemente tomando norma de ambos lados y usando la desigualdad del triángulo:

\begin{align*}
|B_n|&=\norm{aw^n+bz^n+ci^n+d(-1)^n+e(-i)^n}\\
&\leq \norm{aw^n}+\norm{bz^n}+\norm{ci^n}+\norm{d(-1)^n}+\norm{e(-i)^n}\\
&= \norm{a}+\norm{b}+\norm{c}+\norm{d}+\norm{e},
\end{align*}

lo cual muestra que $B_n$ está acotada.

La otra es usar que para cada raíz $m$-ésima de la unidad $\alpha$ y cualquier constante $r$ se tiene que $\{r\alpha^n\}$ es periódica de periodo $m$. De esta forma, $\{B_n\}$ es suma de sucesiones periódicas, y por lo tanto es periódica. Como es periódica, entonces es acotada.

$\square$

Existe una forma sistemática para lidiar con recursiones lineales cuando las raíces del polinomio anterior no son diferentes. Sin embargo, ella requiere de un buen entendimiento de matrices y diagonalización, que es un tema no trivial en álgebra lineal. De cualquier forma, el método anterior funciona en una gran variedad de situaciones.

Recursiones lineales y sumas de potencias

Quizás lo más importante del método anterior es que da la siguiente intuición:

«Las sucesiones $\{x_n\}$ que satisfacen una recursión lineal de orden $m$ y las expresiones del estilo $$S_n=c_0r_0^n+\ldots+c_{m-1}r_{m-1}^n$$ están fuertemente relacionadas.»

Así, cuando se tiene una combinación lineal de potencias $n$-ésimas, una de las primeras cosas que hay que hacer es ver si la recursión lineal que satisface nos ayuda para el problema. El siguiente problema es el Problema 1 de la primer Competencia Iberoamericana Interuniversitaria de Matemáticas

Problema. Muestra que para todo entero positivo $n$ se tiene que la expresión $\left(\frac{3+\sqrt{17}}{2}\right)^n+\left(\frac{3-\sqrt{17}}{2}\right)^n $ es un entero impar.

Sugerencia pre-solución. Ya discutimos cómo pasar de una recursión lineal a una suma de potencias. Ahora tienes que trabajar al revés para encontrar una recursión lineal que satisfaga la expresión del problema.

Solución. Sean $\alpha=\frac{3+\sqrt{17}}{2}$ y $\beta=\frac{3-\sqrt{17}}{2}$. El problema pide mostrar que para $n$ entero positivo se tiene que $x_n:=\alpha^n+\beta^n$ es un entero impar.

Como $\alpha$ y $\beta$ son raíces del polinomio
\begin{align*}
P(x)&=(x-\alpha)(x-\beta)\\
&=x^2-(\alpha+\beta)x+\alpha\beta\\
&=x^2-3x-2,
\end{align*}

se tiene que $x_n$ satisface la recursión lineal de orden dos siguiente: $$x_{n+2}=3x_{n+1}+2x_n.$$

Con esto, estamos listos para mostrar inductivamente que $x_n$ es impar para todo entero positivo $n$. Se tiene que $x_0=2$ y $x_1=\alpha+\beta=3$, de modo que por la recursión, $x_2=13$, así que la afirmación es cierta para $n=1,2$.

Si la afirmación es cierta hasta un entero positivo $n-1$, usamos la recursión para mostrar que $x_n=3x_{n-1}+2x_{n-2}$ es la suma de un entero impar y un entero par, de modo que $x_n$ es impar. Esto termina la demostración.

$\square$

Más problemas

Esta entrada es una extensión de la sección 7 del curso de sucesiones que impartí para los entrenadores de la Olimpiada Mexicana de Matemáticas. Puedes consultar las notas de este curso en el siguiente PDF, en donde hay más problemas de práctica:

Seminario de Resolución de Problemas: Sucesiones monótonas y acotadas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de sucesiones aritméticas y geométricas. También hablamos de sucesiones periódicas y pre-periódicas. Cuando una sucesión es de cualquiera de estos tipos, entonces no es tan compleja pues depende de pocos parámetros. Hay otros dos sentidos en los que podemos restringir una sucesión: orden y en tamaño. Esto nos da, respectivamente, las definiciones de sucesiones monótonas y acotadas.

Por un lado, para hablar de sucesiones acotadas se necesita una noción de distancia. Por otro, para hablar de sucesiones monótonas se necesita de una noción de orden. En las siguientes secciones veremos ejemplos numéricos, pero mucho de lo que discutimos en esta entrada es generalizable a espacios métricos o conjuntos ordenados arbitrarios.

A menos que digamos lo contrario, supondremos que las sucesiones de las que hablamos empiezan con un término de subíndice $0$, aunque esto en realidad no afecta las ideas que discutimos.

Sucesiones acotadas

Las sucesiones acotadas son aquellas que siempre están «cerca de un punto». Cuando estamos hablando de sucesiones de reales, o de elementos en un conjunto linealmente ordenado, podemos hablar de cotas por arriba y por abajo.

Definición. Sea $\{x_n\}$ una sucesión de reales. Decimos que $\{x_n\}$ es:

  • Inferiormente acotada si existe un real $m$ tal que $x_n\geq m$ para todo entero $n\geq 0$.
  • Superiormente acotada si existe un real $M$ tal que $x_n\leq M$ para todo entero $n\geq 0$.
  • Acotada si es inferiormente acotada y superiormente acotada.

Se puede usar como definición alternativa del tercer punto la conclusión de siguiente proposición. Esto permite definir sucesiones acotadas en cualquier espacio normado.

Proposición. Sea $\{x_n\}$ una sucesión de reales. Se tiene que $\{x_n\}$ es acotada si y sólo si existe un real $A\geq 0$ tal que $|x_n|\leq A$ para todo entero $n\geq 0$.

Cualquier sucesión periódica de reales toma sólo una cantidad finita de valores, así que es acotada. ¿Cómo son las sucesiones aritméticas y geométricas que son acotadas?

Problema. La sucesión $\{x_n\}$ está definida para $n\geq 1$ y está dada por $$x_n=3+\sqrt{3+\sqrt{3+\sqrt{\ldots\sqrt{3+\sqrt{3}}}}},$$ en donde tenemos $n$ signos de raíz cuadrada. Muestra que esta sucesión es acotada.

Sugerencia pre-solución. La notación es algo difícil. Usa una mejor notación, conjetura una cota superior trabajando hacia atrás, y pruébala por inducción.

Solución. El primer término es $3+\sqrt{3}$ y para $n\geq 1$ tenemos $$x_{n+1}=3+\sqrt{x_n} \geq 0.$$ Falta ver que la sucesión está acotada superiormente.

Trabajemos hacia atrás, suponiendo que podemos mostrar por inducción que un real $C$ es cota superior. Al hacer el paso inductivo, nos bastaría que $$3+\sqrt{C}\leq C.$$ Esto se cumple para muchos valores de $C$, por ejemplo, podemos tomar $C=9$.

Hagamos la prueba formalmente. Mostraremos que $\{x_n\}$ está acotada superiormente por $9$. El primer término es $3+\sqrt{3}$, que está acotado por $9$. Si $x_n$ está acotado por $9$, entonces $$x_{n+1}=3+\sqrt{x_n}\leq 3+\sqrt{9}\leq 3+3 \leq 9.$$ Esto termina la inducción y muestra que $\{x_n\}$ es acotada.

$\square$

Sucesiones monótonas

Otra forma de limitar los «movimientos» de una sucesión es a través de una noción de orden. Las siguientes definiciones son para sucesiones de reales, pero es sencillo extenderlas a cualquier conjunto parcialmente ordenado.

Definición. Sea $\{x_n\}$ una sucesión de reales. Decimos que $\{x_n\}$ es:

  • Creciente si para todo par de enteros enteros $k>l\geq 0$ se tiene que $x_k\geq x_l$.
  • Estrictamente creciente si para todo par de enteros enteros $k>l\geq 0$ se tiene que $x_k> x_l$.
  • Decreciente si para todo par de enteros enteros $k>l\geq 0$ se tiene que $x_k\leq x_l$.
  • Estrictamente decreciente si para todo par de enteros enteros $k>l\geq 0$ se tiene que $x_k<x_l$.

Las sucesiones monótonas son aquellas que cumplen alguna de las definiciones anteriores.

Aunque la definición requiere que cierta desigualdad se cumpla para todo par de índices $k>l\geq 0$, basta con demostrar que se cumple para $k=n+1$ y $l=n$, es decir, para índices consecutivos. Esto típicamente se reduce a demostrar una desigualdad. Hablaremos más adelante de técnicas para resolver desigualdades, pero por el momento veremos un ejemplo sencillo.

Problema. Muestra que la sucesión $\{x_n\}$ dada por $$x_n=\left(1 +\frac{1}{n}\right)^n$$ es estrictamente creciente.

Sugerencia pre-solución. Basta con que pruebes la desigualdad para subíndices consecutivos. Para hacer esto, usa el binomio de Newton y modifica el problema a comparar ciertos términos.

Solución. Tenemos que mostrar que $$\left(1+\frac{1}{n}\right)^{n} \leq \left(1+\frac{1}{n+1}\right)^{n+1}.$$

Para mostrar esto, primero demostraremos la siguiente desigualdad auxiliar para $0\leq k \leq n+1$: \begin{equation}\binom{n}{k}\frac{1}{n^k}\leq \binom{n+1}{k}\frac{1}{(n+1)^k}.\end{equation}

Si $k=n+1$, la desigualdad se cumple pues el término izquierdo es $0$. Para $0\leq k \leq n$, esta desigualdad es equivalente a la desigualdad $$\frac{\binom{n+1}{k}}{\binom{n}{k}}\geq \left(\frac{n+1}{n}\right)^k.$$ Usando la expresión en términos de factoriales y simplificando el lado izquierdo, tenemos que
\begin{align*}
\frac{\binom{n+1}{k}}{\binom{n}{k}}&=\frac{\frac{(n+1)!}{k!(n+1-k)!}}{\frac{n!}{k!(n-k)!}}\\
&=\left(\frac{n+1}{n}\right)\cdot\left(\frac{n}{n-1}\right)\cdot \ldots\cdot\left(\frac{n+2-k}{n+1-k}\right)
\end{align*}

Afirmamos que cada uno de los $k$ términos de la derecha es mayor o igual a $\frac{n+1}{n}$. Para ello, basta mostrar que la sucesión $\left\{\frac{m+1}{m}\right\}$ definida para $m\geq 1$ es decreciente. Pero esto es fácil de ver, pues cada término es $\frac{m+1}{m}=1+\frac{1}{m}$ que claramente decrece conforme $m$ crece. Con esto terminamos la prueba de la desigualdad auxiliar (1).

Sumando la desigualdad (1) para todos los valores de $k$ de $0$ a $n+1$ y usando el binomio de Newton, obtenemos la desigualdad deseada.

$\square$

Más allá de sucesiones monótonas

De entre las sucesiones monótonas, hay algunas que podemos entender mejor. Una sucesión de reales puede ser estrictamente creciente, y no irse a infinito. Por ejemplo, considera la sucesión: $$0.3, 0.33, 0.333, 0.3333,\ldots$$ en donde de un término al siguiente se agrega un dígito $3$. Esta sucesión es estrictamente creciente, pero todos los términos son menores a $\frac{1}{3}$.

Hay diferentes grados de información que podemos tener de una sucesión con respecto a cuánto crece. En cada uno de los siguientes puntos, cada vez sabemos mejor qué tanto crece la sucesión:

  • Saber que la sucesión es creciente
  • Saber que es estrictamente creciente
  • Determinar si es acotada superiormente
  • Conocer qué tan rápido crece

Por supuesto, hay una jerarquía análoga para funciones decrecientes.

Veamos un ejemplo de entender bien el crecimiento de una sucesión. El siguiente problema apareció en uno de los concursos de matemáticas Pierre Fermat que organiza el IPN.

Problema. Considera una sucesión $\{a_n\}$ de reales tal que $a_0>0$ y para cada $n\geq 0$ se cumple que $a_{n+1}=a_n+\frac{1}{a_n}$. Muestra que $a_{200}>20$.

Sugerencia pre-solución. En vez de entender la sucesión $\{a_n\}$, modifica el problema a entender la sucesión $\{a_n^2\}$, que es más fácil de estudiar cómo crece. En cierta forma, tendrás que generalizar el problema, entendiendo qué tan grande es cada término.

Solución. Es fácil ver que la sucesión es creciente. Para ello podemos probar simultáneamente por inducción que cada término es positivo y mayor que el anterior. Sin embargo, esto es todavía muy débil para nuestros fines: aún no sabemos si la sucesión superará $20$ y, peor aún, no sabemos si sucederá antes del término $200$.

Quedémonos con el hecho de que $a_n$ es de términos positivos. Pero en vez de estudiar cómo crece $\{a_n\}$, mejor estudiamos cómo crece $\{a_n^2\}$. Observemos que
\begin{align*}
a_{n+1}^2&=\left(a_n+\frac{1}{a_n}\right)^2\\
&=a_n^2+2+\frac{1}{a_n^2}\\
&>a_n^2+2,
\end{align*}

de modo que podemos probar inductivamente que $a_n^2\geq 2n$. De aquí, deducimos que $a_n\geq \sqrt{2n}$. En particular, $a_{200}\geq \sqrt{400}=20$.

$\square$

Descenso infinito

Una herramienta bastante útil para la resolución de problemas con enteros es el siguiente resultado. En cierto sentido, habla de cómo son las sucesiones monótonas y acotadas de enteros.

Teorema (principio del descenso infinito). No existen sucesiones estrictamente decrecientes e inferiormente acotadas de enteros.

De manera similar, no existen sucesiones estrictamente crecientes y superiormente acotadas de enteros.

Veamos un ejemplo de la Olimpiada Centroamericana de Matemáticas.

Problema. Aplicar un desliz a un entero positivo $n\geq 5$ consiste en cambiar a $n$ por $\frac{n+p^2}{p}$, con $p$ un divisor primo de $n$. Muestra que tras aplicar repetidamente deslices a un entero $n\geq 5$, siempre se llega a $5$.

Sugerencia pre-solución. Usa el principio de descenso infinito.

Solución. Si comenzamos con $n=5$, la única opción es pasar a $\frac{5+25}{5}=6$. Si comenzamos con $n=6$, ambos deslices (con $2$ ó $3$) nos llevan a $5$.

Veremos que a partir de cualquier entero $n\geq 7$, tras aplicar deslices siempre se llega a $5$.

Afirmamos lo siguiente:

  • Si $n$ es primo, sólo tiene un desliz que lo pasa a $n+1$.
  • Para $n\geq 7$ no primo, aplicar un desliz lo disminuye en al menos $2$.
  • Para $n\geq 5$, aplicar un desliz lo lleva a un número mayor o igual a $5$.

La primera afirmación es fácil de ver, pues si $n=p$, el único divisor primo que tiene es $p$ y así, el único desliz que tiene lo manda a $$\frac{p^2+p}{p}=p+1=n+1.$$

Para la segunda afirmación, necesitamos mostrar que si $n\geq 7$ no es primo y $p$ lo divide, entonces $$\frac{n+p^2}{p}\leq n-2.$$ Reescribiendo esta afirmación, necesitamos mostrar que $$np\geq p^2+n+2p.$$ Como $n$ no es primo, $n=pq$ con $q\geq 2$. Como $p$ es primo, $p\geq 2$.

Reescribiendo la desigualdad que queremos mostrar en términos de $p$ y $q$, y cancelando un factor $p$ de ambos lados, lo que necesitamos es $$pq\geq p+q+2.$$ restando $p+q-1$ de ambos lados y factorizando el lado izquierdo, esto es equivalente a $$(p-1)(q-1)\geq 3.$$

Hagamos un análisis de casos para los primos $p$ y $q$

  • Si $p=q=2$ entonces $n=4$, que no es un caso que nos interese.
  • Si $p=2$ y $q=3$, o $p=3$ y $q=2$, entonces $n=6$, pero para la segunda afirmación estamos suponiendo $n\geq 7$.
  • Así, $p\geq 3$ y $q\geq 3$, de modo que $(p-1)(q-1)\geq 4$, que implica la desigualdad que queremos.

Esto prueba la segunda afirmación.

La tercera afirmación se prueba notando que tras el desliz, un número se va a $\frac{n}{p}+p \geq 2\sqrt{n}\geq 2\sqrt{5}>4$, y como esta esta expresión es entera, se tiene $\frac{n}{p}+p\geq 5$.

Estamos listos para dar la prueba. Por la tercer afirmación, la sucesión siempre es $\geq 5$. Si acaso la sucesión crece, fue porque teníamos un primo $p$ que pasó a $p+1$. Pero entonces $p+1$ no es primo y al paso siguiente es menor o igual a $p-1$ por la segunda afirmación. Así, cada dos pasos, la sucesión decrece estrictamente, a menos que pase por $6$. Por el principio de descenso infinito, no es posible que siempre decrezca. Así, en algún momento pasa por $6$, y entonces al paso siguiente será $5$.

$\square$

Más problemas

Esta entrada es una extensión de las secciones 1, 2 y 3 del curso de sucesiones que impartí para los entrenadores de la Olimpiada Mexicana de Matemáticas. Puedes consultar las notas de este curso en el siguiente PDF, en donde hay más problemas de práctica: