Archivo de la etiqueta: álgebra

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial $V$ de dimensión finita $n\geq 1$ sobre un campo $F$, una transformación lineal $T:V\to V$ y una forma $n$-lineal $f:V^n\to F$, se puede mostrar que la transformación $$T_f:V^n\to F$$ dada por $$T_f(x_1,\ldots,x_n)=f(T(x_1),\ldots,T(x_n))$$ también es una forma $n$-lineal. Además, se puede mostrar que si $f$ es alternante, entonces $T_f$ también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n\geq 1$ sobre el campo $F$. Para cualquier transformación lineal $T:V\to V$ existe un único escalar $\det T$ en $F$ tal que $$f(T(x_1),\ldots,T(x_n))=\det T\cdot f(x_1,\ldots, x_n)$$ para cualquier forma $n$-lineal alternante $f:V^n\to F$ y cualquier elección $x_1,\ldots,x_n$ de vectores en $V$.

Demostración. Fijemos una base $B=(b_1,\ldots,b_n)$ cualquiera de $V$. Llamemos $g$ a la forma $n$-lineal alternante $\det_{(b_1,\ldots,b_n)}$. Por la discusión de arriba, la asignación $T_g:V^n\to F$ dada por $$(x_1,\ldots,x_n)\mapsto g(T(x_1),\ldots,T(x_n))$$ es una forma $n$-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que $$T_g = T_g(b_1,\ldots,b_n) \cdot g.$$ Afirmamos que $\det T:= T_g(b_1,\ldots, b_n)$ es el escalar que estamos buscando.

En efecto, para cualquier otra forma $n$-lineal alternante $f$, tenemos por el mismo teorema que $$f=f(b_1,\ldots,b_n) \cdot g.$$ Usando la linealidad de $T$ y la igualdad anterior, se tiene que

\begin{align*}
T_f &= f(b_1,\ldots,b_n)\cdot T_g\\
&=f(b_1,\ldots,b_n) \cdot \det T \cdot g\\
&= \det T \cdot f.
\end{align*}

Con esto se prueba que $\det T$ funciona para cualquier forma lineal $f$. La unicidad sale eligiendo $(x_1,\ldots,x_n)=(b_1,\ldots,b_n)$ y $f=g$ en el enunciado del teorema, pues esto forza a que $$\det T = g(T(b_1),\ldots,T(b_n)).$$

$\square$

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar $\det T$ del teorema anterior es el determinante de la transformación lineal $T$.

Para obtener el valor de $\det T$, podemos entonces simplemente fijar una base $B=(b_1,\ldots,b_n)$ y el determinante estará dado por $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n)).$$ Como el teorema también prueba unicidad, sin importar que base $B$ elijamos este número siempre será el mismo.

Ejemplo 1. Vamos a encontrar el determinante de la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(2z,2y,2x).$$ Para ello, usaremos la base canónica de $\mathbb{R}^3$. Tenemos que
\begin{align*}
T(1,0,0)&=(0,0,2)=2e_3\\
T(0,1,0)&=(0,2,0)=2e_2\\
T(0,0,1)&=(2,0,0)=2e_1.
\end{align*}

De acuerdo al teorema anterior, podemos encontrar al determinante de $T$ como $$\det T = \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1).$$

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas $1$ y $3$ su signo cambia en $-1$. Usando la $3$-linealidad en cada entrada, podemos sacar un factor $2$ de cada una. Así, tenemos:
\begin{align*}
\det T &= \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1)\\
&= -\det_{(e_1,e_2,e_3)}(2e_1,2e_2,2e_3)\\
&=-8\det_{(e_1,e_2,e_3)}(e_1,e_2,e_3)\\
&=-8.
\end{align*}

Concluimos entonces que el determinante de $T$ es $-8$.

$\triangle$

Ejemplo 2. Vamos ahora a encontrar el determinante de la transformación $T:\mathbb{R}_n[x]\to \mathbb{R}_n[x]$ que deriva polinomios, es decir, tal que $T(p)=p’$. Tomemos $q_0=1,q_1=x,\ldots,q_n=x^n$ la base canónica de $\mathbb{R}_n[x]$.

Notemos que, $T(1)=0$, de modo que los vectores $T(1),\ldots,T(x^n)$ son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que $$\det_{(q_0,\ldots,q_n)}(T(q_0),\ldots,T(q_n))=0.$$ Concluimos entonces que $\det T = 0$.

$\triangle$

Determinantes de matrices

La expresión $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n))$$ para una transformación lineal $T$ también nos permite poner al determinante en términos de las entradas de la matriz de $T$ con respecto a la base $B$. Recordemos que dicha matriz $A_T=[a_{ij}]$ tiene en la columna $i$ las coordenadas de $b_i$ en la base $B$. En otras palabras, para cada $i$ se cumple que $$T(b_i)=\sum_{j=1}^n a_{ji}b_i.$$

Usando esta notación, obtenemos que $$\det T = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ de manera que podemos expresar a $\det T$ en términos únicamente de su matriz en la base $B$.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz $A$ en $M_n(F)$ de entradas $A=[a_{ij}]$, el determinante de $A$ es $$\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$ A $\det A$ también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

\begin{align*}
\det A = \begin{vmatrix}
a_{11} & a_{12} & \ldots & a_{1n}\\
a_{21} & a_{22} & \ldots & a_{2n}\\
\vdots & & \ddots & \vdots\\
a_{n1} & a_{n2} & \ldots & a_{nn}.
\end{vmatrix}
\end{align*}

Ejemplo. Si queremos calcular el determinante de una matriz en $M_2(F)$, digamos $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix},$$ debemos considerar dos permutaciones: la identidad y la transposición $(1,2)$.

La identidad tiene signo $1$ y le corresponde el sumando $ad$. La transposición tiene signo $-1$ y le corresponde el sumando $bc$. Así, $$\begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.$$

$\triangle$

Retomando la discusión antes de la definición, tenemos entonces que $\det T = \det A_T$, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de $T$ depende de la base elegida, pero como vimos, el determinante de $T$ no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. El determinante de $A$ y el de $P^{-1}AP$ son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que $a_{ij}=0$ si $i>j$. Vamos a estudiar la expresión $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si una permutación $\sigma$ no es la identidad, entonces hay un entero $i$ que no deja fijo, digamos $\sigma(i)\neq i$. Tomemos a $i$ como el mayor entero que $\sigma$ no deja fijo. Notemos que $\sigma(i)$ tampoco queda fijo por $\sigma$ pues $\sigma(\sigma(i))=\sigma(i)$ implica $\sigma(i)=i$, ya que $\sigma$ es biyectiva, y estamos suponiendo $\sigma(i)\neq i$. Por la maximalidad de $i$, concluimos que $\sigma(i)<i$.Entonces el sumando correspondiente a $\sigma$ es $0$ pues tiene como factor a la entrada $a_{i\sigma(i)}=0$.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es $1$. De esta forma,
\begin{align*}
\det(A) &= \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\\
&=a_{11}\cdot \ldots \cdot a_{nn}.
\end{align*}

$\square$

Más adelante…

En esta entrada planteamos cómo se define el concepto de matriz para transformaciones lineales y cómo esta definición se extiende naturalmente a la definición del determinante de una matriz, recordando que a cada transformación lineal se le puede asociar una matriz y viceversa.

En las siguientes entradas vamos a ver qué propiedades que cumplen los determinantes y aprenderemos diferentes técnicas para calcularlos. A lo largo de la unidad, desarrollaremos bastante práctica en el cálculo y la manipulación de los determinantes, ya sea el determinante de un conjunto de vectores, de una transformación lineal o de una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transformación $T_f$ definida en la entrada es $n$-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal $T:\mathbb{R}^n \to \mathbb{R}^n$ dada por $$T(x_1,x_2,\ldots,x_n)=(x_2,x_3,\ldots,x_1).$$
  • Calcula por definición el determinante de las matrices $$\begin{pmatrix} 3 & 2 \\ 4 & 1\end{pmatrix}$$ y $$\begin{pmatrix} 1 & 2 & 4 \\ 1 & 3 & 9 \\ 1 & 4 & 16 \end{pmatrix}.$$
  • Calcula por definición el determinante de la matriz $$\begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 4 \\ 4 & 9 & 16\end{pmatrix}$$ y compáralo con el de la matriz de $3\times 3$ del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Algoritmo de la división, teorema del factor y teorema del residuo

Por Leonardo Ignacio Martínez Sandoval

Introducción

Tal vez te hayas dado cuenta de que ya hablamos de suma, producto y resta de polinomios, pero aún no hemos hablado de la división. Una razón es que no todos los polinomios tienen inverso multiplicativo. Sin embargo, los polinomios sí tienen un algoritmo de la división parecido al que estudiamos para el conjunto $\mathbb{Z}$ de enteros. A partir de él podemos extender varios de los conceptos aritméticos de $\mathbb{Z}$ a $\mathbb{R}[x]$: divisibilidad, máximo común divisor, factorización, etc. Luego, estos aspectos se pueden conectar a evaluación de polinomios mediante el un teorema clave: el teorema del factor.

Como recordatorio, hasta ahora, ya construimos el anillo $\mathbb{R}[x]$ de polinomios con coeficientes reales y vimos que era un dominio entero. También, vimos que una copia de $\mathbb{R}$ vive en $\mathbb{R}[x]$, con lo justificamos pasar de la notación de sucesiones, a la notación usual de polinomios usando el símbolo $x$ y sus potencias. En la entrada anterior también hablamos del grado de un polinomio (cuando no es el polinomio cero), de la evaluación de polinomios y de raíces.

Algoritmo de la división

Recordemos que en $\mathbb{Z}$ tenemos un algoritmo de la división que dice que para enteros $a$ y $b\neq 0$ existen únicos enteros $q$ y $r$ tales que $a=qb+r$ y $0\leq r < |b|$.

En $\mathbb{R}[x]$ hay un resultado similar. Pero hay que tener cuidado al generalizar. En $\mathbb{R}[x]$ no tenemos una función valor absoluto que nos permita decir que encontramos un «residuo más chiquito». Para la versión polinomial del algoritmo de la división tenemos que usar una función que diga «qué tan grande es un polinomio»: el grado.

Teorema (algoritmo de la división en $\mathbb{R}[x]$). Sean $f(x)$ y $g(x)$ polinomios en $\mathbb{R}[x]$, donde $g(x)$ no es el polinomio cero. Entonces, existen únicos polinomios $q(x)$ y $r(x)$ en $\mathbb{R}[x]$ tales que $$f(x)=q(x)g(x)+r(x),$$ en donde $r(x)$ es el polinomio cero, o $\deg(r(x))<\deg(g(x))$.

Demostración. Probaremos la parte de existencia. La parte de unicidad queda como tarea moral. Para probar la existencia, haremos inducción fuerte sobre el grado de $f(x)$. Sin embargo, antes de poder hacer esto, necesitamos hacer el caso en el que $f(x)$ no tiene grado, es decir, cuando es el polinomio cero.

Si $f(x)$ es el polinomio cero, entonces $q(x)=0$ y $r(x)=0$ son polinomios que funcionan, pues $0=0\cdot g(x)+0$, para cualquier polinomio $g(x)$.

Asumamos entonces a partir de ahora que $f(x)$ no es el polinomio cero. Hagamos inducción sobre el grado de $f(x)$. Si $f(x)$ es de grado $0$, entonces es un polinomio de la forma $f(x)=a$ para $a$ en $\mathbb{R}$. Hay dos casos de acuerdo al grado de $g(x)$:

  • Si $g(x)$ es de grado $0$, es de la forma $g(x)=b$ para un real no cero y podemos tomar $q(x)=a/b$ y $r(x)=0$.
  • Si $g(x)$ es de grado mayor a $0$, entonces tomamos $q(x)=0$ y $r(x)=f(x)$. Esta es una elección válida pues se cumple \begin{align*}\deg(r(x))&=\deg(f(x))\\& =0\\& <\deg(g(x)).\end{align*}.

Esto termina la demostración de la base inductiva.

Supongamos que el resultado es cierto para cuando $f(x)$ tiene grado menor a $n$ y tomemos un caso en el que $f(x)$ tiene grado $n$. Hagamos de nuevo casos con respecto al grado de $g(x)$, al que llamaremos $m$. Si $m>n$, entonces tomamos $q(x)=0$ y $r(x)=f(x)$, que es una elección válida pues $$\deg(r(x))=n<m.$$

En el caso de que $m\leq n$, escribamos explícitamente a $f(x)$ y a $g(x)$ en términos de sus coeficientes como sigue: \begin{align*}f(x)&=a_0+\ldots+a_nx^n\\g(x)&=b_0+\ldots+b_mx^m.\end{align*}

Consideremos el polinomio $$h(x):=f(x)-\frac{a_n}{b_m}x^{n-m}g(x).$$ Notemos que en $h(x)$ el coeficiente que acompaña a $x^n$ es $a_n-\frac{a_nb_m}{b_m}=0$, así que el grado de $h(x)$ es menor al de $f(x)$ y por lo tanto podemos usar la hipótesis inductiva para escribir $$h(x)=t(x)g(x)+u(x)$$ con $u(x)$ el polinomio $0$ o $\deg(u(x))<\deg(g(x))$. De esta forma,
\begin{align*}
f(x)&=t(x)g(x)+u(x)+\frac{a_n}{b_m}x^{n-m}g(x)\\
&=\left(t(x)+\frac{a_n}{b_m}x^{n-m}\right)g(x)+u(x).
\end{align*}

Así, eligiendo $q(x)=t(x)+\frac{a_n}{b_m}x^{n-m}$ y $r(x)=u(x)$, terminamos la hipótesis inductiva.

$\square$

Aplicando el algoritmo de la división de forma práctica

Veamos ahora un ejemplo de cómo se puede aplicar este teorema anterior de forma práctica. A grandes rasgos, lo que podemos hacer es «ir acumulando» en $q(x)$ a los términos $\frac{a_n}{b_m}x^{n-m}$ que van apareciendo en la inducción, y cuando $h(x)$ se vuelve de grado menor a $q(x)$, lo usamos como residuo. Hagamos un ejemplo concreto.

Ejemplo. Tomemos $f(x)=x^5+x^4+x^3+x^2+2x+3$ y $g(x)=x^2+x+1$. Vamos a aplicar iteradamente las ideas de la demostración del teorema anterior para encontrar los polinomios $q(x)$ y $r(x)$ tales que $$f(x)=q(x)g(x)+r(x),$$ con $r(x)$ el polinomio $0$ o de grado menor a $g(x)$.

Como el grado de $f(x)$ es $5$, el de $g(x)$ es $2$ y $5>2$, lo primero que hacemos es restar $x^{5-2}g(x)=x^3g(x)$ a $f(x)$ y obtenemos:

$$h_1(x)=f(x)-x^3g(x)=x^2+2x+3.$$

Hasta ahora, sabemos que $q(x)=x^3+\ldots$, donde en los puntos suspensivos va el cociente que le toca a $h_1(x)=x^2+2x+3$. Como el grado de $h_1(x)$ es $2$, el de $g(x)$ es $2$ y $2\geq 2$, restamos $x^{2-2}g(x)=1\cdot g(x)$ a $h_1(x)$ y obtenemos.

$$h_2(x)=h_1(x)-g(x)=x+2.$$

Hasta ahora, sabemos que $q(x)=x^3+1+\ldots$, donde en los puntos suspensivos va el cociente que le toca a $h_2(x)=x+2$. Como el grado de $h_2(x)$ es $1$, el de $g(x)$ es $2$ y $2>1$, entonces el cociente es $0$ y el residuo es $h_2(x)=x+2$.

De esta forma, concluimos que $$q(x)=x^3+1$$ y $$r(x)=x+2.$$

En conclusión,
\begin{align*}
x^5+ & x^4+x^3+x^2+2x+3\\
&= (x^3+1)(x^2+x+1) + x+2.
\end{align*}

Esto se puede verificar fácilmente haciendo la operación polinomial.

$\triangle$

Hay una forma más visual de hacer divisiones de polinomios «haciendo una casita». Puedes ver cómo se hace esto en el siguiente video en Khan Academy, y los videos que le siguen en la lista.

Divisibilidad en polinomios

Cuando trabajamos en $\mathbb{Z}$, estudiamos la noción de divisibilidad. Si en el algoritmo de la división obtenemos que $r(x)$ es el polinomio $0$, entonces obtenemos una noción similar para $\mathbb{R}[x]$.

Definición. Sean $f(x)$ y $g(x)$ polinomios en $\mathbb{R}[x]$. Decimos que $g(x)$ divide a $f(x)$ si existe un polinomio $q(x)$ tal que $f(x)=q(x)g(x)$.

Ejemplo 1. El polinomio $x^3-1$ divide al polinomio $x^4+x^3-x-1$, pues $$x^4+x^3-x-1 = (x^3-1)(x+1).$$

$\triangle$

Ejemplo 2. Si $g(x)$ es un polinomio no cero y constante, es decir, de la forma $g(x)=a$ para $a\neq 0$ un real, entonces divide a cualquier otro polinomio en $\mathbb{R}[x]$. En efecto, si $$f(x)=a_0+a_1x+\ldots + a_nx^n$$ es cualquier polinomio y tomamos el polinomio $$q(x)=\frac{a_0}{a}+\frac{a_1}{a}x+\ldots + \frac{a_n}{a}x^n,$$ entonces $f(x)=g(x)q(x)$.

$\triangle$

El último ejemplo nos dice que los polinomios constantes y no cero se comportan «como el $1$ se comporta en los enteros». También nos dice que cualquier polinomio tiene una infinidad de divisores. Eso nos pone en aprietos para definir algo así como los «polinomios primos» en términos del número de divisores. En la siguiente sección hablaremos de cómo hacer esta definición de manera adecuada.

Polinomios irreducibles

Cuando trabajamos con enteros, vimos que es muy útil poder encontrar la factorización en términos de números primos. En polinomios no tenemos «polinomios primos», pero tenemos un concepto parecido.

Definición. Un polinomio $p(x)$ en $\mathbb{R}[x]$ es irreducible en $\mathbb{R}[x]$ si no es un polinomio constante, y no es posible escribirlo como producto de dos polinomios no constantes en $\mathbb{R}[x]$.

Ejemplo. El polinomio $$x^4+x^2+1$$ no es irreducible en $\mathbb{R}[x]$ pues $$x^4+x^2+1=(x^2+x+1)(x^2-x+1).$$

Los polinomios $x^2+x+1$ y $x^2-x+1$ sí son irreducibles en $\mathbb{R}[x]$. Más adelante veremos por qué.

$\triangle$

La razón por la cual quitamos a los polinomios constantes es parecida a la cual en $\mathbb{Z}$ no consideramos que $1$ sea primo: ayuda a enunciar algunos teoremas más cómodamente.

Hay unos polinomios que fácilmente se puede ver que son irreducibles: los de grado $1$.

Proposición. Los polinomios de grado $1$ en $\mathbb{R}[x]$ son irreducibles.

Demostración. Si $f(x)$ es un polinomio de grado $1$, entonces no es constante. Además, no se puede escribir a $f(x)$ como el producto de dos polinomios no constantes pues dicho producto tiene grado al menos $2$.

$\square$

Hay otros polinomios en $\mathbb{R}[x]$ que no son de grado $1$ y que son irreducibles. Por ejemplo, con la teoría que tenemos ahora te debe ser fácil mostrar de tarea moral que $x^2+1$ es irreducible en $\mathbb{R}[x]$.

La razón por la que siempre insistimos en que la irreducibilidad sea en $\mathbb{R}[x]$ es por que a veces un polinomio no se puede factorizar en polinomios con coeficientes reales, pero sí con coeficientes complejos. Aunque $x^2+1$ sea irreducible en $\mathbb{R}[x]$, si permitimos coeficientes complejos se puede factorizar como $$x^2+1=(x+i)(x-i).$$

Más adelante seguiremos hablando de irreducibilidad. Por ahora, nos enfocaremos en los polinomios de grado $1$.

Teorema del factor

Una propiedad clave de los polinomios de grado $1$ es que, es lo mismo que $x-a$ divida a un polinomio $p(x)$, a que $a$ sea una raíz de $p(x)$.

Teorema (del factor). Sea $a$ un real y $p(x)$ un polinomio en $\mathbb{R}[x]$. El polinomio $x-a$ divide a $p(x)$ si y sólo si $p(a)=0$.

Demostración. De acuerdo al algoritmo de la división, podemos escribir $$p(x)=(x-a)q(x)+r(x),$$ en donde $r(x)$ es $0$ o un polinomio de grado menor estricto al de $x-a$. Como el grado de $x-a$ es $1$, la única posibilidad es que $r(x)$ sea un polinomio constante $r(x)=r$. Así, $p(x)=(x-a)q(x)+r$, con $r$ un real.

Si $p(a)=0$, tenemos que $$0=p(a)=(a-a)q(a)+r=r,$$ de donde $r=0$ y entonces $p(x)=(x-a)q(x)$, lo que muestra que $x-a$ divide a $p(x)$.

Si $x-a$ divide a $p(x)$, entonces $p(x)=(x-a)q(x)$, de donde $p(a)=(a-a)q(a)=0$, por lo que $a$ es raíz de $p(x)$.

$\square$

Ejemplo. Consideremos el polinomio $p(x)=x^3-6x^2+11x-6$. ¿Podremos encontrar algunos polinomios lineales que lo dividan? A simple vista, notamos que la suma de sus coeficientes es $1-6+11-6=0$. Esto nos dice que $p(1)=0$. Por el teorema del factor, tenemos que $x-1$ divide a $p(x)$. Tras hacer la división, notamos que $$p(x)=(x-1)(x^2-5x+6).$$

Veamos si podemos seguir factorizando polinomios lineales que no sean $x-1$. Si un polinomio $x-a$ divide a $p(x)$, por el teorema del factor debemos tener $$0=p(a)=(a-1)(a^2-5a+6).$$ Como $a\neq 1$, entonces $a-1\neq 0$, de modo que tiene que pasar $$a^2-5a+6=0,$$ en otras palabras, hay que encontrar las raíces de $x^2-5x+6$.

Usando la fórmula general cuadrática, tenemos que las raíces de $x^2-5x+6$ son
\begin{align*}
x_1&=\frac{5+\sqrt{25-24}}{2}=3\\
x_2&=\frac{5-\sqrt{25-24}}{2}=2.
\end{align*}

Usando el teorema del factor, concluimos que tanto $x-2$ como $x-3$ dividen a $p(x)$. Hasta ahora, sabemos entonces que $$p(x)=(x-1)(x-2)(x-3)h(x),$$ donde $h(x)$ es otro polinomio. Pero $(x-1)(x-2)(x-3)$ ya es un polinomio de grado $3$, como $p(x)$ y su coeficiente de $x^3$ es $1$, como el de $p(x)$. Concluimos que $h(x)=1$ y entonces $$p(x)=(x-1)(x-2)(x-3).$$

$\triangle$

Teorema del residuo

En realidad, la técnica que usamos para el teorema del factor nos dice algo un poco más general. Cuando escribimos $$p(x)=(x-a)q(x)+r$$ y evaluamos en $a$, obtenemos que $p(a)=r$. Reescribimos esta observación como un teorema.

Teorema (del residuo). Sea $a$ un real y $p(x)$ un polinomio en $\mathbb{R}[x]$. El residuo de dividir $p(x)$ entre $x-a$ es $p(a)$.

Problema. Encuentra el residuo de dividir el polinomio $p(x)=x^8-x^5+2x^3+2x$ entre el polinomio $x+1$.

Solución. Se podría hacer la división polinomial, pero esto es largo y no nos piden el polinomio cociente, sólo el residuo. Así, podemos resolver este problema más fácilmente usando el teorema del residuo.

Como $x+1=x-(-1)$, el residuo de la división de $p(x)$ entre $x+1$ es $p(-1)$. Este número es
\begin{align*}
p(-1)&=(-1)^8-(-1)^5+2(-1)^3+2(-1)\\
&=1+1-2-2\\
&=-2.
\end{align*}

$\square$

Más adelante…

Los teoremas que hemos visto en esta entrada serán las principales herramientas algebraicas que tendremos en el estudio de los polinomios así como en la búsqueda de las raíces de los polinomios y en resolver la pregunta sobre su irreductibilidad.

El algoritmo de la división nos servirá (como nos sirvió en $\mathbb{Z}$ para poder precisar el algoritmo de Euclides y definir el máximo común divisor de dos polinomios.

Por ahora, en la siguiente entrada, nos encargaremos de practicar lo aprendido y resolver ejercicios sobre raíces y residuos de polinomios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que el polinomio $x$ no tiene inverso multiplicativo.
  2. Demuestra la parte de unicidad del algoritmo de la división.
  3. Muestra que el polinomio $x^2+1$ es irreducible en $\mathbb{R}[x]$. Sugerencia. Procede por contradicción. Una factorización tiene que ser de la forma $x^2+1=p(x)q(x)$ con $p$ y $q$ de grado $1$.
  4. Factoriza en términos lineales al polinomio $p(x)=x^3-12x^2+44x-48$. Sugerencia. Intenta enteros pequeños (digamos de $-3$ a $3$) para ver si son raíces. Uno de ellos funciona. Luego, usa el teorema del factor para expresar a $p(x)$ como un polinomio lineal por uno cuadrático. Para encontrar el resto de factores lineales, encuentra las raíces del cuadrático.
  5. Encuentra el residuo de dividir el polinomio $x^5-x^4+x^3-x^2+x-1$ entre el polinomio $x-2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior II: Inmersión de R en R[x], grado y evaluación de polinomios

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada comenzaremos mostrando que podemos usar «la notación de siempre» para los polinomios, usando un símbolo $x$ y potencias. Después de eso, hablaremos del grado de un polinomio y de cómo se comporta con las operaciones que hemos definido. Finalmente, haremos una distinción importante entre los polinomios, y las funciones que inducen.

Como recordatorio, en la entrada anterior definimos a los polinomios y sus operaciones de suma y multiplicación. Para ello, construimos a los polinomios como sucesiones en las que casi todos los términos son $0$. Vimos que bajo estas operaciones se obtiene un dominio entero, es decir, un anillo conmutativo con unidad multiplicativa en donde se vale la regla de cancelación.

Regresando a la notación con $x$ y potencias

Ya dimos cimientos sólidos para construir al anillo de polinomios con coeficientes reales y sus operaciones. Es momento de regresar a la «notación usual» usando $x$ y sus potencias, pues será más práctica en lo que viene.

Para empezar, notemos que a cada real $r$ podemos asociarle el polinomio $(r,\overline{0})$. Esta es una asociación en la que las operaciones de suma y producto de $\mathbb{R}$ se corresponden con las de $\mathbb{R}[x]$.

Observa además que tras esta asociación, el real $0$ es el polinomio $(\overline{0})$ y el real $1$ es el polinomio $(1,\overline{0})$, así que la asociación respeta los neutros de las operaciones. De manera similar se puede mostrar que la asociación respeta inversos aditivos y multiplicativos.

Por esta razón, para un real $r$ podemos simplemente usar el símbolo $r$ para el polinomio $(r,\overline{0})$, y todas las operaciones siguen siendo válidas. Para expresar a cualquier otro polinomio, nos bastará con introducir un símbolo más, y potencias.

Definición. Definimos $x$ como el polinomio $\{0,1,\overline{0}\}$. Para cada natural $n$ definimos $x^n$ como el polinomio $\{a_n\}$ tal que $a_j=1$ si $j=n$ y $a_j=0$ para $j\neq n$.

Ejemplo 1. La definición de arriba implica $x^0=1$ y $x^1=x$. El polinomio $x^3$ es el polinomio $$(0,0,0,1,\overline{0}).$$

$\triangle$

Ejemplo 2. Hagamos la multiplicación de los polinomios $x^2$ y $x^3$. Estos son, por definición, $(0,0,1,\overline{0})$ y $(0,0,0,1,\overline{0})$. Hagamos esta multiplicación con el método de la tabla:

$0$$0$$1$
$0$$0$$0$$0$
$0$$0$$0$$0$
$0$$0$$0$$0$
$1$$0$$0$$1$
Multiplicación de $x^2$ y $x^3$.

El producto es el polinomio $(0,0,0,0,0,1,\overline{0})$, que por definición es el polinomio $x^5$.

$\triangle$

En general, para $m$ y $n$ enteros no negativos se tiene que $x^mx^n = x^{m+n}$, como puedes verificar de tarea moral.

Ya que tenemos al símbolo $x$ y sus potencias, necesitaremos también agregar coeficientes para poder construir cualquier polinomio.

Definición. Dados un polinomio $a:=\{a_n\}$ y un real $r$, definimos al polinomio $ra$ como la sucesión $$ra:=\{ra_n\},$$ es decir, aquella obtenida de multiplicar cada elemento de $a$ por $r$.

Ejemplo 3. Si tomamos al polinomio $$a=\left(0,\frac{1}{2},0,\frac{1}{3},\overline{0}\right)$$ y al real $r=6$, tenemos que $$6a=\left(0,3,0,2,\overline{0}\right).$$

Observa que $3x$ es el polinomio $(0,3,\overline{0})$, que $2x^3$ es el polinomio $(0,0,0,2,\overline{0})$ y que la suma de los dos es precisamente el polinomio $6a$, de modo que podemos escribir $$6a=3x+2x^3.$$

Si tomamos cualquier polinomio $a$ y al real $ 0$, tenemos que $$0a=\{0,0,0,0,\ldots\}=(\overline{0}),$$ es decir, $0a$ es el polinomio cero.

$\triangle$

La siguiente proposición es sencilla y su demostración queda como tarea moral.

Proposición. Para cualquier polinomio $a=\{a_n\}$ en $\mathbb{R}[x]$, los reales $a_0,a_1,\ldots$ son los únicos reales tales que $$a=a_0+a_1x+a_2x^2+a_3x^3+\ldots.$$

Todo lo que hemos discutido en esta sección permite que ahora sí identifiquemos formalmente al polinomio $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ con la expresión $$a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+a_5x^5+\ldots$$

y que realicemos las operaciones en $\mathbb{R}[x]$ «como siempre», es decir, sumando coeficientes de términos iguales y multiplicando mediante la distribución y reagrupamiento. Así, a partir de ahora ya no usaremos la notación de sucesiones y simplemente escribiremos a los polinomios con la notación de $x$ y sus potencias. También, favoreceremos llamarles a los polinomios $p(x),q(x),r(x),\ldots$ en vez de $a,b,c,\ldots$.

Ejercicio. Realiza la operación $6(\frac{1}{2}+x)(1+3x^2)$.

Solución. Por asociatividad, podemos hacer primero la primer multiplicación, que da $3+6x$. Luego, multiplicamos este polinomio por el tercer término. Podemos usar las propiedades de anillo para distribuir y agrupar, o bien, podemos seguir usando el método de la tabla.

Cuando hacemos lo primero, queda
\begin{align*}
(3+6x)(1+3x^2)&=3+9x^2+6x+18x^3\\
&=3+6x+9x^2+18x^3.
\end{align*}

Si hacemos lo segundo, tendríamos que hacer la siguiente tabla (¡cuidado con dejar el cero correspondiente al término $x$ del segundo factor!)

$3$$6$
$1$$3$$6$
$0$$0$$0$
$3$$9$$18$
Multiplicación de dos polinomios

Leyendo por diagonales, el resultado es $$3+6x+9x^2+18x^3,$$ tal y como calculamos con el primer método.

$\triangle$

Grado de polinomios

Vamos a definir «grado» para todo polinomio que no sea el polinomio $0$. Es muy importante recordar que el polinomio $0$ no tiene grado.

Definición. Un polinomio $p(x)$ en $\mathbb{R}[x]$ es de grado $n$ si es de la forma $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ para reales $a_0,\ldots,a_n$ y $a_n\neq 0$. Al grado de $p(x)$ lo denotamos por $\deg(p(x))$.

Por la discusión de la sección anterior, el grado está bien definido. En términos de la sucesión correspondiente al polinomio, su grado es el mayor entero que sea subíndice de una entrada no cero.

Ejemplo 1. El grado del polinomio $p(x)=3$ es $0$. De hecho, todo polinomio que viene de un real tiene grado $0$. Excepto el polinomio $0$.

El grado del polinomio $q(x)=1+2x^3+3x^7$ es $7$.

Sin embargo, el polinomio $r(x)=0$ no tiene grado, pues es el polinomio $0$.

Notemos que el polinomio $s(x)=2+4x$ se escribe como $(2,4,\overline{0})$ en notación de sucesión. La entrada $0 $ es $2$, la entrada $1$ es $4$ y el resto de las entradas son $0$. El grado de $s(x)$ es $1$, que es precisamente la posición de la última entrada distinta de $0$ en su notación de sucesión.

$\triangle$

El siguiente resultado habla de cómo interactúa el grado con operaciones de polinomios.

Proposición. Si $p(x)$ y $q(x)$ son polinomios en $\mathbb{R}[x]$ distintos de cero, entonces:

  • El grado del producto cumple $$\deg(p(x)q(x)) = \deg(p(x))+\deg(q(x)).$$
  • El grado de la suma cumple $$\deg(p(x)+q(x))\leq \max(\deg(p(x)),\deg(q(x))).$$
  • Si $\deg(p(x))>\deg(q(x))$, entonces $$\deg(p(x)+q(x))=\deg(p(x)).$$

Demostración. Supongamos que los grados de $p(x)$ y $q(x)$ son, respectivamente, $m$ y $n$, y que $p(x)$ y $q(x)$ son
\begin{align*}
p(x)&=a_0+a_1x+\ldots+a_mx^m\\
q(x)&=b_1+b_1x+\ldots+b_nx^n.
\end{align*}
La demostración de la primera parte ya la hicimos en la entrada anterior. En la notación que estamos usando ahora, vimos que el coeficiente de $x^{m+n}$ en $p(x)q(x)$ es justo $a_mb_n\neq 0$, y que este es el término de mayor exponente.

Para la segunda y tercera partes, podemos asumir que $m\geq n$. Tenemos que $p(x)+q(x)$ es $$\left(\sum_{i=0}^n (a_i+b_i)x^i\right) + a_{n+1}x^{n+1}+\ldots+a_mx^m.$$ De aquí, se ve que el máximo exponente que podría aparecer es $m$, lo cual prueba la segunda parte.

Para la tercer parte, cuando $m>n$ tenemos que el coeficiente de $x^m$ es $a_m\neq 0$, y que es el término con mayor exponente. Así, el grado de la suma es $m$.

$\square$

La hipótesis adicional del tercer punto es necesaria, pues en la suma de dos polinomios del mismo grado, es posible que «se cancele» el término de mayor grado.

Ejemplo 2. El producto de los polinomios $1+x+x^2+x^3$ y $1-x$ es $1-x^4$. Esto concuerda con lo que esperábamos de sus grados. El primero tiene grado $3$, el segundo grado $1$ y su producto grado $4=3+1$.

La suma de los polinomios $1+\pi x^3 + \pi^2 x^5$ y $1-\pi x^3$ es $2+\pi^2x^5$, que es un polinomio de grado $5$, como esperaríamos por la tercer parte de la proposición.

La suma de los polinomios $4x^5+6x^7$ y $6x^5+4x^7$ es $10x^5+10x^7$. Es de grado $7$, como esperaríamos por la segunda parte de la proposición.

Sin embargo, en la suma de polinomios el grado puede disminuir. Por ejemplo, los polinomios $1+x^3-x^7$ y $1+x^2+x^7$ tienen grado $7$, pero su suma es el polinomio $2+x^2+x^3$, que tiene grado $3$.

$\triangle$

Evaluación de polinomios e introducción a raíces

Es importante entender que hay una diferencia entre un polinomio, y la función que induce. Por la manera en que definimos a los polinomios, «en el fondo» son sucesiones, incluso con la nueva notación de $x$ y potencias. Sin embargo, cualquier polinomio define una función.

Definición. Si tenemos un polinomio $$p(x)=a_0+a_1x+\ldots+a_nx^n$$ en $\mathbb{R}$, éste define una función aplicar $p$ que es una función $f_p:\mathbb{R}\to \mathbb{R}$ dada por $$f_p(r)=a_0+a_1r+a_2r^2+\ldots+a_nr^n$$ para todo $r\in \mathbb{R}$.

Ejemplo 1. El polinomio $p(x)=3x^2+4x^3$ induce a la función $f_p:\mathbb{R}\to \mathbb{R}$ tal que $f_p(r)=3r^2+4r^3$. Tenemos, por ejemplo, que $$f_p(1)=3\cdot 1^2 + 4\cdot 1^3 = 7$$ y que $$f_p(2)=3\cdot 2^2 + 4\cdot 2^3=44.$$

$\triangle$

Como las reglas de los exponentes y la multiplicación por reales funciona igual en $\mathbb{R}$ que en $\mathbb{R}[x]$, la evaluación en un real $r$ obtiene exactamente lo mismo a que si simplemente reemplazamos $x$ por $r$ y hacemos las operaciones. Por ello, usualmente no distinguimos entre $p(x)$ y $f_p$, su función evaluación, y para un real $r$ usamos simplemente $p(r)$ para referirnos a $f_p(r)$.

De manera totalmente análoga, podemos pensar a $p(x)$ como una función $p:\mathbb{C}\to \mathbb{C}$. También, como comentamos al inicio, podemos definir a los polinomios con coeficientes complejos, es decir a $\mathbb{C}[x]$, y pensarlos como funciones.

Es momento de introducir una definición clave para lo que resta del curso.

Definición. Sea $p(x)$ un polinomio en $\mathbb{R}[x]$ o $\mathbb{C}[x]$ y sea $r$ un real o complejo. Decimos que $r$ es una raíz de $p(x)$ si $p(r)=0$.

Ejemplo 2. El polinomio $p(x)=3$ no tiene raíces, pues para cualquier real o complejo $r$ se tiene $p(r)=3\neq 0$. Por otro lado, cualquier real o complejo es raíz del polinomio $z(x)=0$.

El polinomio $q(x)=x^2+1$ no tiene raíces en $\mathbb{R}$ pues $q(r)\geq 1$ para cualquier real $r$. Pero sí tiene raíces en $\mathbb{C}$, pues $$q(i)=i^2+1=-1+1=0.$$

El polinomio $s(x)=x(x-1)(x-1)=x^3-2x^2+x$ tiene como únicas raíces a $ 0$ y $1$, lo cual se puede verificar fácilmente antes de hacer la multiplicación. Esto debería darnos la intuición de que conocer a las raíces de un polinomio nos permite factorizarlo y viceversa. Esta intuición es correcta y la formalizaremos más adelante.

$\triangle$

Cuando hablamos de los números complejos, vimos cómo obtener las raíces de los polinomios de grado $2$, y de los polinomios de la forma $x^n-a$ en $\mathbb{C}$. La mayor parte de lo que haremos de aquí en adelante en el curso será entender a las raíces reales y complejas de más tipos de polinomios.

Más adelante…

Ya que hemos formalizado la notación estándar que conocemos de los polinomios, su estudio podrá ser más cómodo, hacemos énfasis en que casi todas las definiciones que dimos en esta sección se apoyaros simplemente en un uso adecuado de la notación; por lo que no hay que perder de vista que en el fondo, los polinomios siguen siendo sucesiones de números, y que el símbolo $x$ solo es una forma de representar la sucesión $(0,1,\overline{0})$.

Aun así, hemos justificado que este cambio de notación no tiene nada que envidiar a la notación original, por lo que en las siguientes entradas, ocuparemos la notación más familiar, lo cual será una pieza clave, para hacer más legibles las demostraciones en las siguientes entradas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Pasa el polinomio $(0,0,0,0,4,0,3,\overline{0})$ a notación con $x$ y potencias. Luego, pasa el polinomio $1-x^3+x^6-x^9$ a notación de sucesión. Suma ambos polinomios y exprésalos en notación con $x$. Multiplícalos usando distribución y agrupamiento. Multiplícalos usando una tabla.
  2. Prueba usando la definición de multiplicación y de $x^n$ que para $m$ y $n$ enteros no negativos se tiene que $x^{m+n}= x^m x^n$.
  3. Toma $P_1(x),\ldots,P_m(x)$ polinomios en $\mathbb{R}[x]$ de grado $n_1,\ldots,n_m$ respectivamente. ¿Cuál es el grado de $P_1(x)+\ldots+P_m(x)$? ¿Y el grado de $P_1(x)\cdot \ldots \cdot P_m(x)$?
  4. Usando distribución y agrupamiento, muestra que para cada entero positivo $n$ se cumple que $$(1-x)(1+x+x^2+\ldots+x^{n-1})=1-x^n.$$
  5. Justifica que si $r(x)$ es un polinomio y $f_r$ es la función aplicar $r$, entonces para cualesquiera polinomios $p(x)$ y $q(x)$, se tiene que $f_p+f_q=f_{p+q}$ y que $f_pf_q=f_{pq}$.

Para practicar la aritmética de polinomios, puedes ir a la sección correspondiente de Khan Academy.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Seminario de Resolución de Problemas: Coeficientes binomiales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los coeficientes binomiales aparecen en muchos problemas de matemáticas, y por ello es útil conocerlos bien y saber sus propiedades básicas. En esta entrada hablaremos de varios aspectos de los coeficientes binomiales: algebraicos, combinatorios y de teoría de números. Aunque resolvamos un problema con una técnica en particular, te recomendamos intentar usar las distintas herramientas en otros problemas, para conocer sus alcances y limitaciones.

Antes de empezar, ponemos una figura con un hecho curioso acerca de los coeficientes binomiales:

Coeficientes binomiales, Pascal y Fibonacci
«Las sumas de las diagonales del triángulo de Pascal dan los números de Fibonacci»

Definición algebraica de coeficientes binomiales

Como recordatorio, para $n\geq 0$ un entero, definimos $n!$ recursivamente como $0!=1$ y $n!=n(n-1)!$. En otras palabras, para $n\geq 1$ tenemos $$n!=1\cdot 2\cdot \ldots \cdot n.$$

Definimos para $n\geq 0$ un entero y $k$ un entero en $\{0,\ldots,n\}$al coeficiente binomial $n$ en $k$ como $$\binom{n}{k}:=\frac{n!}{k!(n-k)!}.$$ Si $n$ es un entero negativo o $k$ es un entero fuera del rango $\{0,\ldots,n\}$ es conveniente definir $\binom{n}{k}=0$.

A partir de la definición, es claro que $\binom{n}{n}=\binom{n}{0}=1$ para todo entero positivo $n$. Lo que no es inmediato a partir de la definición es que $\binom{n}{k}$ siempre sea un entero. Veremos eso en la siguiente sección.

Mientras tanto, veamos algunas propiedades de los coeficientes binomiales que se pueden verificar sin mostrar que $\binom{n}{k}$ es entero.

Propiedad (simetría). $\binom{n}{k}=\binom{n}{n-k}.$

Propiedad (fórmula de Pascal). $\binom{n+1}{k+1}=\binom{n}{k}+\binom{n}{k+1}.$

Propiedad (propiedad de entrada-salida). $\binom{n+1}{k+1}=\frac{n+1}{k+1}\binom{n}{k}.$

El siguiente problema se puede resolver usando estas identidades.

Propiedad (suma cambiando arriba). Muestra que para $n$ y $k$ enteros positivos se tiene que $$\sum_{j=0}^k \binom{n+j}{n} = \binom{n+k+1}{n+1}.$$

Sugerencia pre-solución. Primero, formula un problema equivalente usando la propiedad de simetría. Luego, procede por inducción y usa otra de las propiedades de coeficientes binomiales mencionada arriba.

Solución. Usando la propiedad de simetría de coeficientes binomiales, el problema es equivalente a demostrar que $$\sum_{j=0}^k \binom{n+j}{j} = \binom{n+k+1}{k}.$$ Fijemos un entero $n\geq 0$ y hagamos inducción sobre $k$. Para $k=0$, la identidad es cierta pues $$\binom{n}{0}=1=\binom{n+1}{0}.$$

Para $k=1$, tenemos que mostrar que $\binom{n}{0}+\binom{n+1}{1}=\binom{n+2}{1}$. El primer término se puede escribir como $\binom{n+1}{0}$, pues ambos son $1$. Así, lo que hay que mostrar es $$\binom{n+1}{0}+\binom{n+1}{1}=\binom{n+2}{1},$$ que es cierto por la fórmula de Pascal.

Suponiendo el resultado cierto para una $k$ dada, mostraremos que es cierto para $k+1$. Esto se sigue de la siguiente cadena de igualdades, en donde en la segunda igualdad usamos la hipótesis inductiva, y en la tercera la fórmula de Pascal:

\begin{align*}
\sum_{j=0}^{k+1} \binom{n+j}{j} &= \sum_{j=0}^{k} \binom{n+j}{j}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+1}{k}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+2}{k+1}.
\end{align*}

Esto termina la inducción.

$\square$

Existen otras formas de demostrar identidades con coeficientes binomiales, y de hecho una misma identidad se puede mostrar de varias formas. Veamos más técnicas.

Aspectos combinatorios de los coeficientes binomiales

El coeficiente binomial $\binom{n}{k}$ cuenta la cantidad de subconjuntos de tamaño $k$ de un conjunto de tamaño $n$. Argumentar esto es relativamente fácil, usando un argumento de doble conteo. Supongamos que dicha cantidad de subconjuntos es igual a $A$.

Respondamos la pregunta, ¿cuántos vectores de $k$ entradas existen, tales que las entradas son distintas y vienen de un conjunto de $n$ elementos? La pregunta es un poco distinta, pues como tenemos vectores, aquí sí importa el orden de los elementos. Supongamos que la respuesta es $B$.

Una forma de responder la pregunta es la siguiente. Primero, elegimos cuál subconjunto de tamaño $k$ conformará las entradas. Esto se puede hacer de $A$ formas (que aunque no sepamos cuánto vale, lo podemos usar). Luego, hay que ordenar las $k$ entradas elegidas, que se puede hacer de $k!$ maneras. Así, esto muestra que $B=k! A$.

Otra forma de responder la pregunta es la siguiente. Elegimos el primer elemento, que se puede hacer de $n$ formas. Luego el segundo, de entre los $n-1$ restantes, que se puede hacer de $n-1$ formas. Siguiendo de esta manera, el último de los $k$ hay que elegirlo entre $n-k+1$ restantes. Así, esta otra forma de contar dice que $$B=n\cdot(n-1)\cdot\ldots\cdot (n-k+1)=\frac{n!}{(n-k)!}.$$

Como ambas formas de contar son válidas, tenemos que $k!A=B=\frac{n!}{(n-k)!}$, de donde $A=\frac{n!}{k!(n-k)!}=\binom{n}{k}$.

Hay problemas que de lejos parecen preguntar algo de álgebra, pero que pueden ser interpretados en términos combinatorios para dar una solución.

Problema. Para $n$ un entero positivo, muestra que $$\sum_{k=1}^n k \binom{n}{k} = n 2^{n-1}.$$

Sugerencia pre-solución. Construye un problema de conteo cuya respuesta se pueda poner tanto en términos del lado izquierdo, como en términos del lado derecho.

Solución. Preguntémonos, ¿de cuántas formas se puede elegir un subconjunto de un conjunto de $n$ elementos en el que uno de sus elementos está pintado de azul?

Por un lado, primero se puede elegir qué elemento va a ser el azul. Hay $n$ formas de hacer esta elección, y ésta forza a que el elemento en azul esté en el subconjunto. Luego, de los $n-1$ elementos restantes hay que elegir un subconjunto para completar la elección, lo cual se puede hacer de $2^{n-1}$ formas posibles. Así, una forma de contar da $n2^{n-1}$.

Por otro lado, primero se puede decidir de qué tamaño $k$ va a ser el subconjunto. Como hay un elemento especial, el tamaño $k$ va de $1$ a $n$. Ya elegido $k$, hay $\binom{n}{k}$ formas de elegir cuál será el subconjunto. Ya elegido el subconjunto, hay $k$ formas de elegir cuál será el elemento pintado de azul. Así, otra posible respuesta, también correcta, es $\sum_{k=1}^n k \binom {n}{k}$.

Como estamos contando lo mismo con ambas expresiones, concluimos la igualdad del problema.

$\square$

A este método de resolver problemas se le conoce como contar de dos formas distintas y funciona no sólo con coeficientes binomiales, sino también con cualquier otra expresión algebraica que tenga términos que se puedan interpretar de manera combinatoria. Hay otro ejemplo en el blog, en donde vemos cómo aparecen los números de Fibonacci en el triángulo de Pascal. En esa entrada también hablamos de cómo aparecen los coeficientes binomiales en el triángulo de Pascal.

Coeficientes binomiales y binomio de Newton

La interpretación combinatoria de los coeficientes binomiales nos da una demostración para la fórmula del binomio de Newton, que ya vimos en una entrada anterior. Aquí enunciamos la fómula como recordatorio.

Teorema (binomio de Newton). Para $a$ y $b$ números reales y $n$ un entero no negativo, se tiene que
\begin{align*}
(a+b)^n=\sum_{j=0}^n \binom{n}{j}a^{n-j}b^j.
\end{align*}

Si en el binomio de Newton ponemos $a=b=1$, obtenemos $$\binom{n}{0}+\binom{n}{1}+\ldots+\binom{n}{n}=(1+1)^n=2^n.$$ Otra forma de probar esta identidad es simplemente notar que tanto la suma de la izquierda como el término de la derecha cuentan la cantidad de subconjuntos de un conjunto de $n$ elementos: la de la izquierda los cuenta por tamaño, y el de la derecha decidiendo para cada elemento si está o no.

Si ponemos $a=1$, $b=-1$, obtenemos que $$\binom{n}{0}-\binom{n}{1}+\ldots+(-1)^n\binom{n}{n} = 0,$$ o bien $$\binom{n}{0}+\binom{n}{2}+\ldots = \binom{n}{1}+\binom{n}{3}+\ldots.$$

Se obtienen otras identidades de coeficientes binomiales interesantes si se usan raíces $n$-ésimas de la unidad, como ya vimos en la entrada de aritmética compleja.

Hay otras formas de usar el binomio de Newton para probar identidades de coeficientes binomiales.

Problema. Muestra que $$\binom{n}{0}^2+\binom{n}{1}^2+\ldots+\binom{n}{n}^2=\binom{2n}{n}.$$

Sugerencia pre-solución. Considera el polinomio $(1+x)^{2n}$.

Solución. Consideremos el polinomio $(1+x)^{2n}$ y determinemos el coeficiente de su término $x^n$.

Usando el binomio de Newton directamente, tenemos que $$(1+x)^{2n}=\sum_{j=0}^{2n} \binom{2n}{j}x^j,$$ de modo que el coeficiente de $x^n$ es $\binom{2n}{n}$.

Por otro lado, podemos escribir $(1+x)^{2n}=(1+x)^n(1+x)^n$. Usando el binomio de Newton, tenemos $$(1+x)^n=\sum_{j=0}^n \binom{n}{j} x^j.$$ Al multiplicar esta expresión consigo misma, los términos que quedan de grado $n$ son cuando, para cada $j$, elegimos en un paréntesis al término que tiene $x^j$ (que tiene coeficiente $\binom{n}{j}$) y en el otro al que tiene a $x^{n-j}$ (que tiene coeficiente $\binom{n}{n-j}$).

De esta forma, el coeficiente del término de grado $n$ es $$\sum_{j=0}^n \binom{n}{j} \binom{n}{n-j}.$$ Usando la identidad de simetría, podemos cambiar $\binom{n}{n-j}$ por $\binom{n}{j}$, para obtener $$\sum_{j=0}^n \binom{n}{j}^2.$$ Igualando ambas formas de encontrar el coeficiente, obtenemos la identidad deseada.

$\square$

Hay otras técnicas que usan herramientas de integrales o derivadas. Vimos un ejemplo de esto en una entrada anterior.

Coeficientes binomiales y teoría de números

El hecho de que los coeficientes binomiales son la respuesta a un problema de conteo, implica que son enteros no negativos. Alternativamente, esto se puede demostrar por inducción usando la identidad de Pascal.

Este hecho nos puede ayudar a resolver problemas de teoría de números. Veamos un ejemplo clásico.

Problema. Muestra que el producto de $n$ enteros consecutivos siempre es divisible entre $n!$.

Sugerencia pre-solución. Haz una división en casos para ver si se incluye al cero, si son sólo negativos o sólo positivos. Reduce el caso de negativos a positivos y usa notación adecuada para escribir al producto de dichos enteros usando un coeficiente binomial.

Solución. Si alguno de los enteros es $0$, entonces el producto es $0$, que es divisible entre cualquier número. Si son $n$ enteros negativos, entonces podemos cambiar el signo a todos y su producto diferirá, quizás, en un factor $-1$ que no afecta la divisibilidad, y habremos obtenido un problema con $n$ enteros positivos consecutivos. De esta manera, podemos enfocarnos en el caso de $n$ enteros positivos consecutivos.

Llamemos al primero $k+1$, para $k\geq 0$. Los demás son entonces $k+2,\ldots,k+n$. Su producto es
\begin{align*}
(k+1)(k+2)\ldots(k+n)&=\frac{k!}{k!}(k+1)(k+2)\ldots(k+n)\\
&=\frac{(n+k)!}{k!}\\
&=n!\binom{n+k}{k}.
\end{align*}

Como $\binom{n+k}{k}$ es un entero, tenemos que el lado derecho es un múltiplo de $n!$, como queríamos.

$\square$

Otro tipo de técnicas hablan de la divisibilidad de un coeficiente binomial. Por ejemplo si tenemos un primo $p$, sabemos que todos los siguiente coeficientes binomiales son enteros $$\binom{p}{1}, \binom{p}{2},\ldots,\binom{p}{p}.$$ Por su expresión en términos de factoriales, todos tienen a $p$ en el numerador, pero no tienen ningún divisor de $p$ distinto de $1$ en el denominador, pues $p$ es primo. Así, todos ellos son enteros divisibles entre $p$. Eso puede ayudar en problemas como el siguiente.

Problema. Muestra que si $p$ es un número primo, entonces $p^2$ divide a $\binom{2p}{p} -2$.

Sugerencia pre-solución. Formula un problema equivalente usando un resultado anterior.

Solución. Por un problema anterior, $$\binom{2p}{p}=\binom{p}{0}^2+\binom{p}{1}^2+\ldots+\binom{p}{p}^2.$$

Por la discusión previa, para $j=1,\ldots,p-1$ tenemos que $p\mid \binom{p}{j}$, así que $p^2\mid \binom{p}{j}^2$. De esta forma, trabajando módulo $2p$ tenemos \begin{align*}
\binom{2p}{p}&\equiv \binom{p}{0}^2+\binom{p}{p}^2 \\
&\equiv 1+1\equiv 2 \pmod{p^2}.
\end{align*}

Esto es justo lo que queríamos mostrar.

$\square$

Más problemas

Puedes encontrar más problemas de coeficientes binomiales en la sección 5.1 del libro Problem Solving through Problems de Loren Larson.

Álgebra Superior II: Raíces en los complejos y raíces de la unidad.

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada veremos cómo resolver, en $\mathbb{C}$, la ecuación $w^n=z$, en donde $z$ es un complejo y $n$ es un entero positivo. Puedes pensar esto como que aprenderemos a obtener raíces en los complejos, pero sólo para $n$ entero. Más adelante hablaremos de la función exponencial compleja que nos permitirá elevar a otro tipo de exponentes.

Nuestra herramienta principal será la fórmula de De Moivre, que ya demostramos en una entrada anterior. Encontrar raíces $n$-ésimas es una herramienta más en nuestra caja para trabajar con números complejos, que hasta el momento ya incluye resolver ecuaciones cuadráticas complejas y sistemas de ecuaciones lineales complejos.

Introducción a raíces en los complejos

Pensemos en un ejemplo sencillo. ¿Cuáles son los complejos $w$ tales que $w^4=1$? En $\mathbb{R}$ tenemos dos de ellos: $1$ y $-1$. Como $$(-i)^4=i^4=(-1)^2=1,$$ en $\mathbb{C}$ tenemos otras dos soluciones: $i$ y $-i$. Así que tenemos $4$ soluciones en $\mathbb{C}$: $1$, $-1$, $i$ y $-i$.

Para mostrar que son las únicas en este sencillo caso, podemos hacer lo siguiente. Expresamos $1$ en forma polar $1=\text{cis}(0)$ y también, en forma polar, una solución $w=s\text{cis}(\alpha)$, con $\theta$ en $[0,2\pi)$. Por el teorema de De Moivre, tenemos que $$1=w^4=s^4\text{cis}(4\alpha).$$

Así, la norma $s$ de $w$ debe satisfacer $s^4=1$, y además $\text{cis}(4\alpha)$ debe ser $1$, por lo que $4\alpha$ debe ser un múltiplo entero de $2\pi$. La norma es un real positivo, así que la única solución para $s$ es $1$. Ahora, ¿cuántos argumentos $\alpha$ en $[0,2\pi)$ hacen que $4\alpha$ sea un múltiplo entero de $2\pi$?

Para determinar esto, notemos que $4\alpha$ está en $[0,8\pi)$, y ahí hay exactamente cuatro múltiplos enteros de $2\pi$, que son $$0,2\pi, 4\pi, 6\pi.$$ Esto es justo lo que limita las soluciones a que sean a lo más $4$.

Podemos continuar para verificar que en efecto son las soluciones que ya encontramos. Las soluciones para $\alpha$ en cada caso son $$0,\frac{\pi}{2},\pi,\frac{3\pi}{2}.$$ Concluimos entonces que las soluciones complejas de $w^4=1$ son, en forma polar,
\begin{align*}
w_1&=\text{cis}(0)\\
w_2&=\text{cis}\left(\frac{\pi}{2}\right)\\
w_3&=\text{cis}\left(\pi\right)\\
w_4&=\text{cis}\left(\frac{3\pi}{2}\right),
\end{align*}

que son exactamente $1,i,-1,-i$.

$\triangle$

El teorema de raíces en los complejos

La discusión anterior funciona en general para cualquier entero positivo $n$ y para cualquier complejo $\mathbb{C}$. Siempre tenemos exactamente $n$ soluciones y sabemos cómo se ven en forma polar.

Teorema. Sea $z=r\text{cis}(\theta)$ un número complejo, distinto de cero, dado en forma polar y $n$ un entero positivo. Existen exactamente $n$ elementos distintos de $\mathbb{C}$ tales que $w^n = z$. Están dados en forma polar por $$w_j=r^{1/n} \text{cis}\left(\frac{\theta}{n} + j\frac{2\pi}{n}\right)$$ para $j=0,1,2\ldots,n-1$.

Demostración. Tomemos una solución $w$ y la escribimos en forma polar $w=s\text{cis}(\alpha)$, con $\alpha$ en $[0,2\pi)$. Usando que $w$ es solución y la fórmula de De Moivre, obtenemos que $$r\text{cis}(\theta)=s^n\text{cis}(n\alpha).$$ Como $s$ tiene que ser real positivo, obtenemos que $s=r^{1/n}$ (aquí estamos usando la raíz $n$-ésima en los reales).

El ángulo $n\alpha$ está en el intervalo $[0,2n\pi)$, y debe diferir en un múltiplo entero de $2\pi$ del ángulo $\theta$. Como $\theta$ está en $[0,2\pi)$, las únicas posibilidades para $n\alpha$ pueden ser los $n$ valores $$\theta, \theta+2\pi,\ldots, \theta+2(n-1)\pi,$$ de donde las soluciones para $\alpha$ son $$\frac{\theta}{n},\frac{\theta}{n}+\frac{2\pi}{n}, \ldots, \frac{\theta}{n} + (n-1)\frac{2\pi}{n},$$ respectivamente. Como son ángulos distintos en $[0,2\pi)$, obtenemos las posibles soluciones distintas $$r^{1/n} \text{cis}\left(\frac{\theta}{n} + j\frac{2\pi}{n}\right)\quad \text{para $j=0,\ldots,n-1$}.$$

Verificar que en efecto son soluciones es sencillo, ya sea revirtiendo los pasos que hicimos, o usando directamente la fórmula de De Moivre. Esta verificación queda como tarea moral.

$\square$

Observa que el teorema dice que para obtener una raíz podemos empezar del complejo de norma $r^{1/n}$ y argumento $\frac{\theta}{n}$, y de ahí obtener el resto de las raíces en los complejos «rotando repetidamente $\frac{2\pi}{n}$ en el plano complejo». Esto muestra que las raíces forman los vértices de un $n$-ágono regular.

Nos costó un poco de trabajo mostrar que teníamos a lo más $n$ soluciones. En realidad, cualquier ecuación polinomial de grado $n$, es decir, de la forma $$a_nx^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0=0$$ tiene a lo más $n$ soluciones. Esto lo veremos con toda generalidad en la última unidad, cuando hablemos de polinomios.

Ejemplos de obtener raíces en los complejos

Ejemplo. Encontremos todas las raíces séptimas del complejo $128\text{cis}\left(\frac{14\pi}{13}\right)$. Para empezar, notemos que $128^{1/7}=2$, de modo que todas las raíces tienen norma $2$.

Una de las raíces tiene argumento $\frac{14\pi}{7\cdot 13}=\frac{2\pi}{13}$ y el argumento del resto difiere en múltiplos enteros de $\frac{2\pi}{7}$. De esta forma, las raíces son

\begin{align*}
w_1&=2\text{cis}\left(\frac{2\pi}{13}\right)\\
w_2&=2\text{cis}\left(\frac{2\pi}{13}+\frac{2\pi}{7}\right)=2\text{cis}\left(\frac{40\pi}{91}\right)\\
w_3&=2\text{cis}\left(\frac{2\pi}{13}+\frac{4\pi}{7}\right)=2\text{cis}\left(\frac{66\pi}{91}\right)\\
w_4&=2\text{cis}\left(\frac{2\pi}{13}+\frac{6\pi}{7}\right)=2\text{cis}\left(\frac{92\pi}{91}\right)\\
w_5&=2\text{cis}\left(\frac{2\pi}{13}+\frac{8\pi}{7}\right)=2\text{cis}\left(\frac{118\pi}{91}\right)\\
w_6&=2\text{cis}\left(\frac{2\pi}{13}+\frac{10\pi}{7}\right)=2\text{cis}\left(\frac{144\pi}{91}\right)\\
w_7&=2\text{cis}\left(\frac{2\pi}{13}+\frac{12\pi}{7}\right)=2\text{cis}\left(\frac{170\pi}{91}\right).
\end{align*}

$\triangle$

Problema. Sabemos que $(2-3i)^4=-119+120i$. Encuentra las otras raíces cuartas de $-119+120i$.

Solución. Podríamos pasar $-119+120i$ a forma polar y usar el método anterior. Esto funciona y dará una solución. Pero veamos una solución alternativa más corta, que nos ayuda a entender mejor el teorema de raíces en los complejos.

De acuerdo con lo que probamos, las raíces varían únicamente en argumento, al que se le va sumando $\frac{\pi}{2}$. Es decir, si tenemos una raíz en el plano complejo, las demás se obtienen de ir rotando $\frac{\pi}{2}$ (recuerda que esto es $90^\circ$) desde el origen. Al ir rotando el punto $(2,-3)$ en el plano complejo en este ángulo, obtenemos los puntos $(-3,-2)$, $(-2,3)$ y $(3,2)$, de modo que las otras tres raíces son $-3-2i$, $-2+3i$ y $3+2i$.

Otra forma más de pensarlo es la siguiente. Si ya tenemos una raíz cuarta $w$ de un complejo $z$, entonces todas las raíces se obtienen multplicando por $1,i,-1, -i$. En efecto, por ejemplo, $$(iw)^4=i^4w^4=w^4=1.$$ Así, para el problema que nos interesa, las soluciones son

\begin{align*}w_1&=2-3i\\w_2&=i(2-3i)=3+2i\\w_3&=-(2-3i)=-2+3i\\w_4&=-i(2-3i)=-3-2i,\end{align*}
lo cual coincide con lo que habíamos encontrado antes.

$\triangle$

Raíces $n$-ésimas de la unidad

Un caso particular importante de la teoría desarrollada en la sección anterior es cuando $z$ es $1$. Sea $n$ un entero positivo y $w$ un complejo tal que $w^n=1$. A $w$ se le conoce como una raíz $n$-ésima de la unidad.

Teorema (de las raíces $n$-ésimas de la unidad). Sea $n$ un entero positivo. Existen exactamente $n$ raíces $n$-ésimas de la unidad distintas. Si $\omega$ es la que tiene el menor argumento positivo, entonces dichas raíces son $$1,\omega, \omega^2,\ldots, \omega^{n-1}.$$

La demostración se sigue fácilmente del teorema de raíces $n$-ésimas y queda como tarea moral. Cualquier raíz $n$-ésima $\omega$ tal que sus primeras potencias generen todas las raíces $n$-ésimas de la unidad se le conoce como una raíz primitiva.

Las raíces $n$-ésimas de la unidad tienen una interpretación geométrica bonita. Forman los vértices del $n$-ágono regular con $n$ vértices, sobre la circunferencia unitaria, donde uno de los vértices es $1$.

Ejemplo. Obtengamos las raíces quintas de la unidad. Primero, obtengamos la de menor argumento positivo, que por el teorema de raíces en los complejos, es $$\omega = \text{cis}\left(\frac{2\pi}{5}\right).$$ El resto de las raíces son entonces $\omega^2$, $\omega^3$, $\omega^4$ y $1$. Las podemos encontrar en el plano complejo como vértices del siguiente pentágono regular:

Ejemplo de raíces en los complejos: raíces quintas de la unidad
Raíces quintas de la unidad

Cualquiera de $\omega$, $\omega^2$, $\omega^3$ y $\omega^4$ son raíces primitivas, pero $1$ no es raíz primitiva pues sus potencias sólo son él mismo.

$\triangle$

Las raíces $n$-ésimas de la unidad se utilizan en muchos contextos. Aunque se puede trabajar con ellas de forma explícita, muchas veces se utilizan sólo las propiedades algebraicas que cumplen. A continuación enunciamos algunas.

Teorema. Sea $\omega$ una raíz primitiva $n$-ésima de la unidad. Las raíces $n$-ésimas de la unidad $$\omega_i = \omega^i $$ para $i=0,\ldots,n-1$ satisfacen las siguientes propiedades:

  • Para $n>1$, se tiene que $\omega_0+\ldots+\omega_{n-1}=0$.
  • Para $k=0,1,\ldots,n-1$, se tiene que $$(\omega_k)^{-1}=\overline{\omega_k}=\omega_{n-k}.$$
  • Se tiene que $\omega_0\cdot\ldots\cdot \omega_{n-1} = (-1)^{n+1}$.

Demostración. Empezamos con el primer inciso. Si $n>1$, tenemos que $1$ no es raíz primitiva, así que para el primer inciso sabemos que $\omega\neq 1$. Usamos la fórmula para suma de términos en una progresión geométrica:
\begin{align*}
\omega_0+\omega_1&+\ldots+\omega_{n-1}\\
&= 1+\omega+\ldots+\omega^{n-1}\\
&=\frac{1-\omega^n}{1-\omega}\\
&=\frac{1-1}{1-\omega}\\
&=0.
\end{align*}

Para la segunda parte, notemos que $$\omega_k\omega_{n-k}=\omega^k\omega^{n-k}=\omega^n=1,$$ lo cual prueba una de las igualdades. La otra igualdad se sigue del hecho general que el inverso de un complejo de norma $1$ es su conjugado, cuya demostración queda como tarea moral.

La tercera parte se sigue de la propiedad anterior. Al multiplicar todas las raíces de la unidad, podemos emparejar a cada raíz con su conjugado para obtener producto $1$. Las únicas excepciones es cuando emparejamos a un complejo consigo mismo, es decir, para cuando $\omega_k=\overline{\omega_k}$, lo cual sucede sólo cuando $\omega_k$ es real. Las únicas posibilidades son $1$ ó $-1$. El $1$ no tiene problema pues colabora con un factor $1$. Si $n$ es impar, $-1$ no es raíz $n$-ésima, así que no contribuye al producto. Si $n$ es par sí. Esto muestra lo que queremos pues $(-1)^{n+1}$ es $1$ si $n$ es impar y $-1$ si es par.

$\square$

Para un entero positivo $n$, llamemos $(U_n,\cdot)$ al conjunto de raíces $n$-ésimas de la unidad equipadas con el producto complejo.

Teorema. Para cada entero positivo $n$, se tiene que $(U_n,\cdot)$ es un grupo y es isomorfo a $(\mathbb{Z}_n,+)$.

Demostración. El producto de cualesquiera dos raíces $n$-ésimas es también una raíz $n$-ésima. Por el teorema anterior, los inversos multiplicativos de las raíces $n$-ésimas también son raíces $n$-ésimas. Esto basta para mostrar que se forma un grupo.

Para la segunda parte, notamos que ambos grupos son el grupo cíclico de $n$ elementos. Una correspondencia entre ellos está dada por mandar $[1]_n$ a cualquier raíz primitiva.

$\square$

Más adelante…

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra las raíces cúbicas de $8-8i$ y dibújalas en el plano complejo.
  2. Verifica que las soluciones obtenidas en el teorema de raíces $n$-ésimas en efecto son soluciones.
  3. Muestra el teorema de las raíces $n$-ésimas de la unidad.
  4. Prueba que si $z$ es un complejo de norma $1$, entonces su inverso es su conjugado.
  5. Sea $\omega$ una raíz $n$-ésima primitiva de la unidad. Muestra que $w^k$ es una raíz primitiva si y sólo si $n$ y $k$ son primos relativos, es decir, $\MCD{n,k}=1$. Sugerencia: Usa lo que sabemos de soluciones a ecuaciones diofantinas lineales.
  6. Encuentra de manera explícita la parte real y la parte imaginaria de todas las raíces quintas de la unidad.
    Sugerencia: La ecuación $w^5-1=0$ se puede factorizar como $$(w-1)(w^4+w^3+w^2+w+1)$$ y $w^4+w^3+w^2+w+1$ se puede factorizar como $$\left(w^2+\frac{1+\sqrt{5}}{2}w+1\right)\left(w^2+\frac{1-\sqrt{5}}{2}w+1\right).$$ Usa lo que sabemos de resolver ecuaciones cuadráticas cojmplejas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»