Archivo de la etiqueta: complejos

Álgebra Superior II: Raíces de polinomios de grados 3 y 4

Por Leonardo Ignacio Martínez Sandoval

Introducción

Esta es la entrada final de la unidad de polinomios y del curso. En ella hablaremos acerca de las fórmulas para encontrar las raíces de polinomios de grado $3$ y $4$. Además, en la parte final, hablaremos de polinomios de grados más altos y cómo ellos te pueden llevar a cursos muy interesantes que puedes tomar para continuar tu formación matemática.

Existen métodos generales para encontrar las raíces de polinomios de grado $3$ y $4$, ya sea en $\mathbb{R}[x]$ o en $\mathbb{C}[x]$. Para los polinomios de grado $3$, se usa el método de Cardano. Para los polinomios de grado $4$ se usa el método de Ferrari. Encontrar estas fórmulas tomó mucho tiempo. Ambas requieren de manipulaciones algebraicas muy creativas.

Raíces de polinomios de grado 3 y el método de Cardano

Tomemos un polinomio $f(x)$ en $\mathbb{R}[x]$ de grado $3$. Si $f(x)$ no es mónico, podemos multiplicarlo por el inverso de su coeficiente principal para obtener un polinomio con las mismas raíces. De esta forma, podemos suponer sin pérdida de generalidad que $f(x)$ es de la forma $$f(x)=x^3+ax^2+bx+c.$$

Consideremos al polinomio $$g(x)=f\left(x-\frac{a}{3}\right).$$ Observa que $r$ es una raíz de $g(x)$ si y sólo si $g(r)=0$, si y sólo si $f\left(r-\frac{a}{3}\right)=0$, si y sólo si $r-\frac{a}{3}$ es una raíz de $f$. De esta forma, si conocemos las raíces de $g(x)$, podemos encontrar las de $f(x)$, y viceversa.

Al hacer las cuentas (que quedan como tarea moral), se tiene que $g(x)$ se simplifica a
\begin{align*}
g(x)&=f\left(x-\frac{a}{3}\right)\\
&=x^3+\left(b-\frac{a^2}{3}\right)x+\left(-\frac{ba}{3}+c+\frac{2a^3}{27}\right),
\end{align*}

que tiene la ventaja de ya no tener término cuadrático. En otras palabras, para encontrar las raíces de polinomio cúbico, basta con poder encontrar las de los polinomios de la forma $$g(x)=x^3+px+q.$$

Tomando $x=u+v$ y haciendo las operaciones, se tiene que $$g(u+v)=u^3+v^3+(3uv+p)(u+v)+q.$$

Observa que si logramos encontrar $u$ y $v$ que satisfagan el sistema de ecuaciones
\begin{align*}
u^3+v^3&=-q\\
uv&=-\frac{p}{3},
\end{align*}

entonces tendríamos una raíz $x=u+v$.

La segunda ecuación implica $u^3v^3=-\frac{p^3}{27}$. Pero entonces conocemos la suma y el producto de las variables $u^3$ y $v^3$, con lo cual obtenemos que son las raíces del siguiente polinomio de grado $2$ en la variable $t$:
\begin{align*}
(t-u^3)(t-v^3)&=t^2-(u^3+v^3)t+u^3v^3\\
&=t^2+qt-\frac{p^3}{27}.
\end{align*}

El discriminante de esta ecuación cuadrática es $$\Delta = q^2 + \frac{4p^3}{27}.$$

Si $\Delta >0$, esta ecuación cuadrática tiene las siguientes soluciones reales:
\begin{align*}
\sqrt[3]{-\frac q2 + \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}\\
\sqrt[3]{-\frac q2 – \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}.
\end{align*}

Sin pérdida de generalidad, $u$ es la primera y $v$ la segunda. De esta forma, una raíz real para $g(x)$ es $$x= \sqrt[3]{-\frac q2 + \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}} + \sqrt[3]{-\frac q2 – \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}.$$

Hasta aquí hay algunas cosas por notar:

  • Supusimos que el discriminante $\Delta$ es positivo.
  • Sólo hemos encontrado una de las $3$ raíces de $p(x)$ que garantiza el teorema fundamental del álgebra.

Cuando el discriminante es positivo, las otras dos soluciones son $\omega x$ y $\omega^2 x$, en donde $\omega$ es una raíz cúbica primitiva de la unidad.

Cuando la cuadrática tiene discriminante $\Delta<0$, tenemos que $u$ y $v$ son complejos, y entonces al sacar raíz cúbica podemos tener tres opciones para cada uno, algo que parecería dar un total de $9$ soluciones. Sin embargo, recordando que $uv=-\frac{p}{3}$, tenemos que $u$ queda totalmente determinado por $v$, así que de ahí se obtienen las tres soluciones.

Raíces de polinomios de grado 4 y el método de Ferrari

El método de Ferrari está explicado a detalle en el libro de Álgebra de Bravo, Rincón y Rincón. Ahí están las ideas principales para encontrar una fórmula general para encontrar las raíces de un polinomio de grado $4$, es decir, de la forma $$p(x)=ax^4+bx^3+cx^2+dx+e.$$ Recuerda que el libro está disponible para descarga gratuita.

Al igual que en el caso del método de Ferrari, los primeros pasos consisten en hacer simplificaciones algebraicas. Así como el método de Cardano usa la fórmula cuadrática, del mismo modo el método de Ferrari reduce el problema a encontrar soluciones a un polinomio de grado 3. Uno podría creer que este patrón se repite, y que se pueden encontrar métodos para polinomios de grado arbitrario. Esto no es así, y lo platicaremos en la siguiente sección.

Para otra derivación de la fórmula de Ferrari, compartimos el artículo «Identidades para la resolución de ecuaciones cúbicas y cuárticas» de José Leonardo Sáenz Cetina, que apareció en el número 24 de la revista Miscelánea Matemática de la Sociedad Matemática Mexicana:

Este documento también tiene otras dos formas de resolver ecuaciones cúbicas, así que es una lectura recomendada.

Finalmente, se recomienda también echarle un ojo a la página de Wikipedia acerca de la ecuación cuártica. La entrada en inglés es mucho mejor. Sobre todo la sección referente al método de Ferrari.

Raíces de polinomios de grado 5 y más

De acuerdo al teorema fundamental del álgebra, todo polinomio sobre los complejos tiene al menos una raíz. De hecho, se puede mostrar que si es de grado $n$, entonces tiene exactamente $n$ raíces, contando multiplicidades.

Cuando tenemos polinomios de grados $2$, $3$ y $4$ podemos usar la fórmula cuadrática, el método de Cardano y el método de Ferrari para encontrar una fórmula para las soluciones. ¿Hay algún método que tenga fórmulas similares para polinomios de grado más grande?

La respuesta es que no. Aunque el teorema fundamental del álgebra garantice la existencia de las raíces, hay un teorema de Abel y Ruffini que muestra que no es posible encontrar una fórmula general. Al menos no una que ayude a poner las raíces de cualquier polinomio de grado cinco (o más) usando únicamente sumas, restas, multiplicaciones, divisiones y raíces. Esto formalmente se enuncia como que hay ecuaciones de grado 5 y más que no son solubles por radicales.

Enunciar y demostrar este teorema formalmente requiere de herramientas que quedan fuera del alcance de este curso, sin embargo, se puede estudiar en un curso avanzado de álgebra, en donde se hable de extensiones de campo y teoría de Galois.

Por otro lado, podemos dejar de lado la exactitud y preguntarnos si, dado un polinomio, podemos acercarnos a sus raíces tanto como queramos. Hoy en día eso se hace mediante métodos computacionales. Aunque la computadora sea muy buena haciendo cuentas, hay que ser particularmente cuidadoso con los errores que comete al hacer aproximaciones.

Eso es otra de las cosas que quedan fuera del alcance de este curso, y que puedes estudiar en un buen curso de métodos numéricos. Si lo que buscas es saber cómo pedirle a la computados que haga los cálculos, eso lo puedes aprender en un buen curso de programación, en donde te enseñen a usar ambientes de computación científica.

Más adelante…

Antes de concluir el curso, en la siguiente entrada, repasamos lo aprendido en esta entrada y vemos como se puede realizar una ecuación de grado $3$ y de grado $4$ usando los métodos de Cardano y de Ferrari, sin embargo, es importante no olvidar que antes de estos métodos, tenemos otros teoremas importantes que en principio podrían ser más simples para obtener las soluciones a una cúbica o cualquier ecuación.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Completa las cuentas faltantes en la discusión del método de Cardano.
  2. Muestra que un polinomio de grado $3$ y coeficientes reales tiene exactamente cero o dos raíces complejas distintas.
  3. ¿Cuántas raíces complejas distintas puede tener un polinomio de grado $4$ con coeficientes reales? Encuentra un ejemplo para cada una de las respuestas.
  4. Encuentra las raíces del polinomio cuártico $$p(x)=x^4+2x^3-12x^2-10x+4.$$ Después, compara tu respuesta con el Ejemplo 216 del libro de Álgebra de Bravo, Rincón, Rincón.
  5. Lee las entradas en Wikipedia acerca de ecuaciones cúbicas y ecuaciones cuárticas.

Entradas relacionadas

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz $A$ en $M_n(F)$ es simétrica si es igual a su transpuesta.
  • Una matriz $A$ en $M_n(F)$ es ortogonal si es invertible y $A^{-1}= {^tA}$.
  • Si $T:V\to V$ es una transformación lineal de un espacio vectorial $V$ a sí mismo y $W$ es un subespacio de $V$, entonces decimos que $W$ es estable bajo $T$ si $T(W)\subseteq W$.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si $W$ es un subespacio de un espacio Euclideano $V$, entonces $W^\bot$ es el conjunto de todos los vectores que de $V$ que son ortogonales a todos los vectores de $W$.
  • Una matriz $A$ en $M_n(F)$ es diagonalizable si existen matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible, $D$ diagonal y tales que $A=P^{-1}DP$.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz $A$ en $M_n(\mathbb{R})$ tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente $n$ raíces en $\mathbb{C}$, contando multiplicidades. Si alguna de estas raíces $r$ no es real, entonces $A$ no puede ser diagonalizable en $M_n(\mathbb{R})$. La razón es que $A$ sería similar a una matriz diagonal $D$, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como $A$ y $D$ comparten eigenvalores (por ser similares), entonces $r$ tendría que ser una entrada de $D$, pero entonces $D$ ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y $\lambda$ una raíz del polinomio característico de $A$. Entonces, $\lambda$ es un número real.

Demostración. El polinomio característico de $A$ es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que $\lambda$ debe ser un número en $\mathbb{C}$. Así, podemos escribirlo de la forma $\lambda = a+ib$, con $a$ y $b$ números reales. Lo que mostraremos es que $b=0$.

Se tiene que $\lambda$ es un eigenvalor de $A$ vista como matriz en $M_n(\mathbb{C})$, y por lo tanto le corresponde un eigenvector $U$ en $\mathbb{C}^n$, es decir, un $U\neq 0$ tal que $$AU=\lambda U.$$ Este vector $U$ lo podemos separar en partes reales e imaginarias con vectores $V$ y $W$ en $\mathbb{R}^n$ tales que $$U=V+iW.$$

En estos términos,
\begin{align*}
AU&=A(V+iW)=AV+iAW \quad\text{y}\\
\lambda U &= (a+ib)(V+iW)\\
&=(aV-bW) + i (aW+bV),
\end{align*}

de modo que igualando partes reales e imaginarias en la expresión $AU=\lambda U$ tenemos que
\begin{align*}
AV&=aV-bW\quad\text{y}\\
AW&=aW+bV.
\end{align*}

Como $A$ es simétrica, tenemos que

\begin{equation}
\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.
\end{equation}

Estudiemos las expresiones en los extremos, reemplazando los valores de $AV$ y $AW$ que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

\begin{align*}
\langle AV,W \rangle &= \langle aV-bW,W \rangle\\
&=a\langle V,W \rangle – b \langle W,W \rangle\\
&=a \langle V,W \rangle – b \norm{W}^2,
\end{align*}

y que

\begin{align*}
\langle V,AW \rangle &= \langle V,aW+bV \rangle\\
&=a\langle V,W \rangle + b \langle V,V \rangle\\
&=a \langle V,W \rangle + b \norm{V}^2.
\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

$$a \langle V,W \rangle – b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,$$

que se simplifica a $$b(\norm{V}^2+\norm{W}^2)=0.$$

Estamos listos para dar el argumento final. Como $U=V+iW$ es un eigenvector, entonces no es nulo, de modo que no es posible que $V$ y $W$ sean ambos el vector $0$ de $\mathbb{R}^n$. Como el producto interior es positivo definido, entonces alguna de las normas $\norm{V}$ o $\norm{W}$ no es cero, de modo que $$\norm{V}^2+\norm{W}^2\neq 0.$$

Concluimos que $b=0$, y por lo tanto que $\lambda$ es un número real.

$\square$

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a $\mathbb{C}$ para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si $V$ es un espacio Euclideano y $T:V\to V$ es una transformación lineal, entonces decimos que $T$ es simétrica si para todo par de vectores $u$ y $v$ en $V$ se tiene que $$\langle T(u),v\rangle = \langle u, T(v) \rangle.$$ Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea $V$ un espacio Eucideano y $T:V\to V$ una transformación lineal simétrica. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces:

  • $W^\bot$ también es estable bajo $T$ y
  • Las restricciones de $T$ a $W$ y a $W^\bot$ son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si $w$ pertenece a $W^\bot$, entonces $T(w)$ también, es decir, que $T(w)$ es ortogonal a todo vector $v$ en $W$.

Tomemos entonces un vector $v$ en $W$. Como $W$ es estable bajo $T$, tenemos que $T(v)$ está en $W$, de modo que $\langle w, T(v) \rangle =0$. Como $T$ es simétrica, tenemos entonces que $$\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.$$ Esto es lo que queríamos probar.

Para la segunda parte, si $T_1$ es la restricción de $T_1$ a $W$ y tomamos vectores $u$ y $v$ en $W$, tenemos que
\begin{align*}
\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\
&=\langle u, T(v) \rangle \\
&=\langle u, T_1(v) \rangle,
\end{align*}

lo cual muestra que $T_1$ es simétrica. La prueba para $W^\bot $ es análoga y queda como tarea moral.

$\square$

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en $M_n(F)$ sea diagonalizable, y que exista una base especial para $F^n$. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea $A$ una matriz en $M_n(F)$. Las siguientes dos afirmaciones son equivalentes:

  • $A$ es diagonalizable, es decir, existen matrices $P$ y $D$ en $M_n(F)$, con $P$ invertible y $D$ diagonal tales que $A=P^{-1}DP.$
  • Existe una base para $F^n$ que consiste de eigenvectores de $A$.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz $B$ en $M_n(F)$ de vectores columna $$C_1,\ldots,C_n,$$ entonces los vectores columna del producto $AB$ son $$AC_1,\ldots AC_n.$$ Además, si $D$ es una matriz diagonal en $M_n(F)$ con entradas en la diagonal $d_1,\ldots,d_n$, entonces los vectores columna de $BD$ son $$d_1C_1,\ldots,d_nC_n.$$

Comencemos la prueba del teorema. Supongamos que $A$ es diagonalizable y tomemos matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible y $D$ diagonal de entradas $d_1,\ldots,d_n$, tales que $A=P^{-1}DP$. Afirmamos que los vectores columna $C_1,\ldots,C_n$ de $P^{-1}$ forman una base de $F^n$ que consiste de eigenvectores de $A$.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son $n$, como la dimensión de $F^n$. Esto prueba que son una base.

De $A=P^{-1}DP$ obtenemos la igualdad $AP^{-1}=P^{-1}D$. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada $j=1,\ldots,n$ se cumple $$AC_j = d_j C_j.$$ Como $C_j$ forma parte de un conjunto linealmente independiente, no es el vector $0$. Así, $C_j$ es un eigenvector de $A$ con eigenvalor $d_j$. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de $F^n$ que consiste de eigenvectores $C_1,\ldots,C_n$ de $A$. Para cada $j=1,\ldots,n$, llamemos $\lambda_j$ al eigenvalor correspondiente a $C_j$, y llamemos $D$ a la matriz diagonal con entradas $\lambda_1,\ldots,\lambda_n$.

Como $C_1,\ldots,C_n$ son vectores linealmente independientes, la matriz $B$ cuyas columnas son $C_1,\ldots, C_n$ es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna $j$ de la matriz$AB$ es $AC_j$ y la columna $j$ de la matriz $BD$ es $\lambda_j C_j$. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que $AB=BD$, o bien, reescribiendo esta igualdad, que $$A=BDB^{-1}.$$ Así, la matriz invertible $P=B^{-1}$ y la matriz diagonal $D$ diagonalizan a $A$.

$\square$

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz $P$ no sólo será invertible, sino que además será ortogonal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en $M_n(\mathbb{C})$ cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de $T$ a $W^\bot$ es simétrica.
  • Realiza la demostración de que si $A$ y $B$ son matrices en $M_n(F)$ y los vectores columna de $B$ son $C_1,\ldots,C_n$, entonces los vectores columna de $AB$ son $AC_1,\ldots,AC_n$. También, prueba que si $D$ es diagonal de entradas $d_1,\ldots,d_n$, entonces las columnas de $BD$ son $d_1C_1,\ldots,d_nC_n$.
  • Encuentra una matriz $A$ con entradas reales similar a la matriz $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},$$ tal que ninguna de sus entradas sea igual a $0$. Encuentra una base ortogonal de eigenvectores de $A$ para $\mathbb{R}^3$.
  • Diagonaliza la matriz $$\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & – \frac{20}{7} & – \frac{48}{7} & – \frac{23}{7}\end{pmatrix}.$$

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Entradas relacionadas

Álgebra Superior II: Irreducibilidad y factorización en polinomios reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los números enteros tiene un teorema de factorización en primos: el teorema fundamental de la aritmética. Los polinomios en $\mathbb{R}[x]$ también. En esta entrada hablaremos de la irreducibilidad y factorización en polinomios reales. Lo primero lo haremos para decir «quiénes son los primos» en $\mathbb{R}[x]$. Para lo segundo usaremos el teorema del factor, que demostramos con anterioridad.

Resulta que el teorema de factorización en polinomios reales depende de un resultado importante de polinomios en $\mathbb{C}[x]$, es decir, los de coeficientes complejos. Esto es algo que sucede con frecuencia: a veces para resolver un problema en los números reales, hay que dar un paso hacia los complejos y luego regresar. Por esa razón, para esta entrada es importante que tengas en mente varias propiedades en los complejos, sobre todo cómo se realizan las operaciones y cuales son las propiedades de la conjugación compleja. Esto nos dará la oportunidad de enunciar (sin demostración) el teorema fundamental del álgebra.

Como recordatorio, un polinomio es irreducible en $\mathbb{R}[x]$ si no es un polinomio constante y no se puede escribir como producto de dos polinomios no constantes en $\mathbb{R}[x]$. Además, el teorema del factor nos dice que si $a$ es raíz de un polinomio $p(x)$, entonces $x-a$ divide a $p(x)$. Diremos que un polinomio es lineal si es de grado $1$ y cuadrático si es de grado $2$.

El teorema fundamental del álgebra

Así como construimos a $\mathbb{R}[x]$, se puede hacer algo análogo para construir a $\mathbb{C}[x]$, los polinomios de coeficientes complejos. Puedes practicar todo lo que hemos visto haciendo la construcción formal. Por el momento, para fines prácticos, puedes pensarlos como expresiones de la forma $$a_0+a_1 x + \ldots + a_n x^n$$ con $a_i$ complejos, digamos, $$(1+i)+2i x -3x^3+(5+2i)x^4.$$

Los polinomios en $\mathbb{C}[x]$ cumplen todo lo que hemos dicho de $\mathbb{R}[x]$: se vale el lema de Bézout, el algoritmo de Euclides, el teorema del factor, el teorema del residuo, etc. Una copia de $\mathbb{R}[x]$, con su estructura algebraica, «vive» dentro de $\mathbb{C}[x]$, es decir, todo polinomio con coeficientes reales se puede pensar como uno con coeficientes complejos.

Sin embargo, los polinomios en $\mathbb{R}[x]$ y en $\mathbb{C}[x]$ son muy diferentes en términos de raíces. Esto se nota, pir ejemplo, en el hecho de que el polinomio $x^2+1$ no tiene raíces en $\mathbb{R}$, pero sí en $\mathbb{C}$, donde la raíz es $i$. Resulta que esta $i$ hace toda la diferencia. Al agregarla no solamente hacemos que $x^2+1$ tenga una raíz, sino que ya todo polinomio tiene raíz. Esto está enunciado formalmente por el teorema fundamental del álgebra.

Teorema (teorema fundamental del álgebra). Todo polinomio no constante en $\mathbb{C}[x]$ tiene al menos una raíz en $\mathbb{C}$.

No vamos a demostrar este teorema durante el curso. Hay desde demostraciones elementales (como la que aparece en el bello libro Proofs from the book), hasta algunas muy cortas, pero que usan teoría un poco más avanzada (como las que se hacen en cursos de análisis complejo). Sin embargo, lo usaremos aquí para obtener algunas de sus consecuencias y, al final de esta entrada, demostrar los teoremas de irreducibilidad y factorización en polinomios reales.

Teorema de factorización en $\mathbb{C}[x]$

En la entrada anterior ya demostramos que los polinomios lineales son irreducibles. Veremos ahora que en $\mathbb{C}[x]$ no hay ningún otro polinomio irreducible.

Proposición. Los únicos polinomios irreducibles en $\mathbb{C}[x]$ son los de grado $1$.

Demostración. Tomemos cualquier polinomio $p(x)$ en $\mathbb{C}[x]$ de grado al menos $2$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz $z$ en $\mathbb{C}$. Por el teorema del factor, $$x-z \mid p(x),$$ así que podemos escribir $p(x)=(x-z)q(x)$ con $q(x)$ en $\mathbb{C}[x]$ de grado $\deg(p(x))-1\geq 1$.

De esta forma, pudimos factorizar al polinomio $p(x)$ en dos factores no constantes, y por lo tanto no es irreducible.

$\square$

Con esto podemos mostrar que en $\mathbb{C}[x]$ todo polinomio es factorizable como producto de términos lineales.

Teorema (de factorización única en $\mathbb{C}[x]$). Todo polinomio $p(x)$ en $\mathbb{C}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$p(x)=a(x-z_1)(x-z_2)\cdots(x-z_n)$$ en donde $a$ es un complejo no cero, $n$ es el grado de $p(x)$ y $z_1,\ldots,z_n$ son complejos que son raíces de $p(x)$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Procedemos por inducción en el grado de $p(x)$. Si $p(x)$ es de grado cero, entonces es de la forma $p(x)=a$ con $a$ un complejo, y ya está en la forma que queremos.

Tomemos ahora un entero $n\geq 1$. Supongamos que el resultado es cierto para los polinomios de grado $n-1$ y consideremos un polinomio $p(x)$ de grado $n$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz, digamos $z_n$. Usando el teorema del factor, existe un polinomio $q(x)$, que debe de ser de grado $n-1$, tal que $$p(x)=q(x)(x-z_n).$$ Aplicando la hipótesis inductiva a $q(x)$, podemos factorizarlo de la forma $$q(x)=a(x-z_1)(x-z_2)\cdots(x-z_{n-1}),$$ con $z_1,\ldots,z_{n-1}$ raíces de $q(x)$ (y por lo tanto también raíces de $p(x)$). De esta forma, $$p(x)=(x-z_1)(x-z_2)\cdots(x-z_{n-1})(x-z_n)$$ es una factorización que cumple lo que queremos. Esto termina la hipótesis inductiva, y por lo tanto la parte de existencia de la demostración.

$\square$

Ejemplo. Consideremos al polinomio $$p(x)=x^4+5x^2+4$$ en $\mathbb{R}[x]$. Este polinomio no tiene raíces reales, pues sus evaluaciones siempre son positivas. Sin embargo, lo podemos pensar como un polinomio en $\mathbb{C}[x]$. Por el teorema fundamental del álgebra, este polinomio debe tener una raíz en $\mathbb{C}$.

Afortunadamente, podemos encontrarla por inspección. Una de estas raíces es $i$, pues $$i^4+5i^2+4=1-5+4=0.$$ Por el teorema del factor, $x-i$ divide a $p(x)$. Al realizar la división, obtenemos $$p(x)=(x-i)(x^3+ix^2+4x+4i).$$ De aquí, por inspección, obtenemos que $-i$ es una raíz de $x^3+ix^2+4x+4i$, y realizando la división entre $x+i$, tenemos que $$p(x)=(x-i)(x+i)(x^2+4).$$

El polinomio $x^2+4$ claramente tiene como raíces a $2i$ y $-2i$. A partir de todo esto concluimos que $$p(x)=(x-i)(x+i)(x-2i)(x+2i)$$ es la factorización de $p(x)$ en polinomios lineales en $\mathbb{C}[x]$.

$\square$

En el ejemplo anterior podemos agrupar los factores $(x-i)$ y $(x+i)$ para obtener el polinomio $x^2+1$. De aquí obtenemos la factorización alternativa $$p(x)=(x^2+1)(x^2+2).$$ Esta factorización tiene puros coeficientes reales. Aquí hay que hacer una observación importante: esta no es una factorización en irreducibles en $\mathbb{C}[x]$, pero sí es una factorización en irreducibles en $\mathbb{R}[x]$. Retomaremos varias de estas ideas más en general en las siguientes secciones.

Raíces complejas de polinomios en $\mathbb{R}[x]$

En el ejemplo de la sección anterior sucedió que $i$ era una raíz de $p(x)$, y que $-i$ también. Cuando tenemos un polinomio de coeficientes reales y $z$ es un complejo que es raíz, entonces su conjugado también.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y $z$ un número en $\mathbb{C}$. Si $p(z)=0$, entonces $p(\overline{z})=0$.

Demostración. Si $p(x)$ es el polinomio cero, la afirmación es cierta. En otro caso, sea $n$ el grado de $p(x)$ y escribamos a $p(x)$ como $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ donde $a_i$ son números en $\mathbb{R}$ para $i=0,\ldots,n$. Por lo que sabemos de la conjugación compleja, $\overline{a_i}=a_i$, y además abre sumas y productos. Así,
\begin{align*}
\overline{p(z)}&=\overline{a_0+a_1z+\ldots+a_nz^n}\\
&=\overline{a_0}+\overline{a_1z}+\ldots +\overline{a_nz^n}\\
&=\overline{a_0} + \overline{a_1}\, \overline{z} + \ldots +\overline{a_n}\, \overline{z}^n\\
&=a_0 + a_1 \overline{z} + \ldots + a_n \overline{z}^n\\
&=p(\overline{z}).
\end{align*}

Como $p(z)=0$, concluimos que $$p(\overline{z})=\overline{p(z)}=\overline{0}=0.$$

$\square$

El resultado anterior no es cierto en general para polinomios con coeficientes en $\mathbb{C}[x]$. Esto debe ser muy claro pues, por ejemplo, $i$ es raíz de $x-i$, pero $-i$ no.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y una raíz $z$ de $p(x)$ en $\mathbb{C}\setminus \mathbb{R}$. Entonces el polinomio $$q(x)=x^2-(z+\overline{z})x+z\overline{z}$$ es un polinomio en $\mathbb{R}[x]$ que divide a $p(x)$ en $\mathbb{R}[x]$.

Demostración. Observa que $q(x)=(x-z)(x-\overline{z})$. Recordemos que
\begin{align*}
z+\overline{z}&=2\Rea{(z)} \\
z\overline{z}&=\norm{z}^2 .
\end{align*}

Esto muestra que los coeficientes de $q(x)$ son reales. Usemos el algoritmo de la división en $\mathbb{R}[x]$ para escribir $$p(x)=q(x)h(x)+r(x),$$ con $r(x)$ el polinomio cero, o de grado a lo más $1$.

Evaluando en $z$ y en $\overline{z}$, se obtiene que $r(z)=r(\overline{z})=0$. Como $z$ no es real, entonces $z$ y $\overline{z}$ son distintos. De este modo, $r(x)$ es el polinomio cero. Así, $p(x)=q(x)h(x)$ es una factorización de $p(x)$ en $\mathbb{R}[x]$ que usa a $q(x)$.

$\square$

Nuevamente, hay que tener cuidado con las hipótesis del resultado anterior. Es muy importante que usemos que $z$ es una raíz compleja y no real de un polinomio con coeficientes reales. En la tarea moral puedes encontrar un contraejemplo si no se satisfacen las hipótesis.

Ejemplo. Consideremos el polinomio $$p(x)=2x^3-16x^2+44x-40.$$ Una de sus raíces complejas es $3+i$, como puedes verificar. Como es un polinomio con coeficientes reales, el conjugado $3-i$ también es una raíz. Tal como lo menciona la proposición anterior, el polinomio
\begin{align*}
q(x):&=(x-(3+i))(x-(3-i))\\
&=x^2-(3+i+3-i)x+(3+i)(3-i)\\
&=x^2-6x+10
\end{align*}

es un polinomio de coeficientes reales. Además, divide a $p(x)$ en $\mathbb{R}[x]$ pues haciendo la división polinomial, tenemos que $$2x^3-16x^2+44x-40=(2x-4)(x^2-6x+10).$$

$\square$

Irreducibilidad y factorización en polinomios reales

Con todo lo que hemos hecho hasta ahora, estamos listos para probar los resultados que queremos en $\mathbb{R}[x]$. Observa que los enunciados de las secciones anteriores involucran a $\mathbb{C}$, pero los de esta sección ya no. Sin embargo, para hacer las demostraciones tenemos que dar un «brinco momentáneo a los complejos».

Recuerda que para un polinomio cuadrático $q(x)=ax^2+bx+c$ su discriminante es $b^2-4ac$.

Teorema (irreducibilidad en polinomios reales). Los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

Demostración. Ya mostramos antes que los polinomios lineales son irreducibles. Si $q(x)=ax^2+bx+c$ es un polinomio cuadrático y $r$ es una raíz real, tenemos que
\begin{align*}
ar^2+br+c&=0\\
r^2+\frac{b}{a}r+\frac{c}{a}&=0\\
r^2+\frac{b}{a}r+\frac{b^2}{4a^2}-\frac{b^2}{4a^2}+\frac{c}{a}&=0\\
\left(r+\frac{b}{2a}\right)^2&=\frac{b^2-4ac}{4a^2}.
\end{align*}

De esta igualdad, obtenemos que $\frac{b^2-4ac}{4a^2}\geq 0$ y por lo tanto que $b^2-4ac \geq 0$. Dicho de otra forma, si $b^2-4ac<0$, entonces $q(x)$ no tiene raíces reales. De esta misma equivalencia de igualdades se puede ver que si $b^2-4ac\geq 0$, entonces $q(x)$ sí tiene por lo menos una raíz real.

Supongamos que $q(x)$ es un polinomio cuadrático con discriminante negativo. Si existiera una factorización en $\mathbb{R}[x]$ de la forma $q(x)=a(x)b(x)$, con ninguno de ellos constante, entonces ambos deben tener grado $1$. Podemos suponer que $a$ es mónico. Pero entonces $a(x)=x-r$ para $r$ un real, y por el teorema del factor tendríamos que $r$ sería raíz de $q(x)$, una contradicción a la discusión anterior. Esto muestra que $q(x)$ es irreducible.

Falta ver que no hay ningún otro polinomio irreducible en $\mathbb{R}[x]$. Cuando $p(x)$ es cuadrático de discriminante no negativo, entonces por la fórmula cuadrática tiene al menos una raíz real $r$ y por lo tanto $x-r$ divide a $p(x)$, mostrando que no es irreducible.

Si $p(x)$ es de grado mayor o igual a $3$ y tiene una raíz real $r$, sucede lo mismo. En otro caso, es de grado mayor o igual a $3$ y no tiene raíces reales. Pero de cualquier forma tiene al menos una raíz compleja $z$. Usando la proposición de la sección anterior, tenemos que $x^2-(z+\overline{z})x+z\overline{z}$ es un polinomio de coeficientes reales que divide a $p(x)$ en $\mathbb{R}[x]$, lo cual muestra que no es irreducible.

Concluimos entonces que los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

$\square$

Ahora sí podemos enunciar el resultado estelar de esta entrada.

Teorema (factorización en polinomios reales). Todo polinomio $p(x)$ en $\mathbb{R}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$a(x-r_1)\cdots(x-r_m)(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n}),$$ en donde:

  • $a$ es un real distinto de cero,
  • $m$ y $n$ son enteros tales que $m+2n$ es igual al grado de $p(x)$,
  • para cada $i$ en $\{1,\ldots,m\}$ se tiene que $r_i$ es raíz real de $p(x)$ y
  • para cada $j$ en $ \{1,\ldots,n\}$ se tiene que $b_j,c_j$ son reales tales que $b_j^2-4c_j<0$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Si $p(x)$ es irreducible, entonces al factorizar su coeficiente principal $a$ obtenemos la factorización deseada. Si $p(x)$ no es irreducible, procedemos por inducción fuerte sobre el grado $d$ de $p(x)$. El menor grado que debe tener es $2$ para no ser irreducible.

Si $d=2$ y es no irreducible, el resultado es cierto pues se puede factorizar como dos factores lineales y luego factorizar al término $a$ los coeficientes principales de cada factor para que queden mónicos.

Sea $d\geq 3$ y supongamos el resultado cierto para todo polinomio de grado menor a $d$. Tomemos un polinomio $p(x)$ de grado $d$. Por el teorema de irreducibilidad de polinomios reales, $p(x)$ no es irreducible, así que se puede factorizar como $p(x)=r(x)s(x)$ con $r(x)$ y $s(x)$ no constantes, y por lo tanto de grado menor al de $p(x)$. Por hipótesis inductiva, tienen una factorización como la del teorema. La factorización de $p(x)$ se obtiene multiplicando ambas. Esto termina la inducción.

$\square$

Veamos cómo podemos usar todas estas ideas en un problema en concreto de factorización en polinomios reales.

Problema. Factoriza al polinomio $x^{12}-1$ en polinomios irreducibles en $\mathbb{R}[x]$.

Solución. Usando identidades de factorización, podemos avanzar bastante:
\begin{align*}
x^{12}-1&=(x^6-1)(x^6+1)\\
&=(x^3-1)(x^3+1)(x^6+1)\\
&=(x-1)(x^2+x+1)(x+1)(x^2-x+1)(x^2+1)(x^4-x^2+1).
\end{align*}

Hasta aquí, $x+1$ y $x-1$ son factores lineales. Además, $x^2+x+1$, $x^2-x+1$ y $x^2+1$ son factores cuadráticos irreducibles pues sus discriminantes son, respectivamente, $-3,-3,-4$.

Aún queda un factor $x^4-x^2+1$ que por ser de grado $4$ no es irreducible. Sumando y restando $2x^2$, y luego factorizando la diferencia de cuadrados, tenemos:
\begin{align*}
x^4-x^2+1 &= x^4+2x^2+1-3x^2\\
&=(x^2+1)^2-3x^2\\
&=(x^2+1-\sqrt{3}x)(x^2+1+\sqrt{3}x).
\end{align*}

Cada uno de estos factores cuadráticos tiene discriminante $-1$, y por lo tanto es irreducible. Concluimos entonces que la factorización en irreducibles de $x^{12}-1$ en $\mathbb{R}[x]$ es
\begin{align*}
(x-1)(x&+1)(x^2+1)(x^2+x+1)\\
&(x^2-x+1)(x^2+\sqrt{3}x+1)(x^2-\sqrt{3}x+1).
\end{align*}

$\square$

Más adelante…

El teorema fundamental del álgebra y sus consecuencias en $\mathbb{R}$ son los resultados algebraicos más importantes que obtendremos en el estudio de polinomios, ya que nos permite caracterizar, al menos en teoría a todos los polinomios a partir de sus raíces.

En las siguientes entradas ocuparemos las herramientas que hemos desarrollado hasta ahora, sin embargo cambiaremos el enfoque de estudio, usaremos también herramientas de los cursos de cálculo para poder dar un análisis más detallado del comportamiento de los polinomios, y que nos servirán para que en muchos casos podamos encontrar las raíces de un polinomio, o cuando menos tener una idea de cómo son.

Tarea moral

  • Haz la construcción formal de $\mathbb{C}[x]$ a partir de sucesiones de complejos. Muestra que se pueden expresar en la notación de $x$ y sus potencias. Prueba los teoremas que hemos visto hasta ahora. Todo debe ser análogo al caso real, por lo que te servirá mucho para repasar los conceptos vistos hasta ahora.
  • Muestra la unicidad de la factorización en $\mathbb{C}[x]$ y en $\mathbb{R}[x]$.
  • Sea $z$ un complejo no real. Muestra que que $x-z$ y $x-\overline{z}$ son polinomios primos relativos en $\mathbb{C}[x]$.
  • Hay que tener cuidado en las hipótesis de los teoremas de esta entrada. Muestra que $3$ es una raíz del polinomio $x^3-6x^2+11x-6$, pero que $x^2-6x+9$ no divide a este polinomio.
  • Argumenta por qué en el teorema de factorización en polinomios reales sucede que $m+2n$ es el grado de $p(x)$.

Entradas relacionadas

Álgebra Superior II: Inmersión de R en R[x], grado y evaluación de polinomios

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada comenzaremos mostrando que podemos usar «la notación de siempre» para los polinomios, usando un símbolo $x$ y potencias. Después de eso, hablaremos del grado de un polinomio y de cómo se comporta con las operaciones que hemos definido. Finalmente, haremos una distinción importante entre los polinomios, y las funciones que inducen.

Como recordatorio, en la entrada anterior definimos a los polinomios y sus operaciones de suma y multiplicación. Para ello, construimos a los polinomios como sucesiones en las que casi todos los términos son $0$. Vimos que bajo estas operaciones se obtiene un dominio entero, es decir, un anillo conmutativo con unidad multiplicativa en donde se vale la regla de cancelación.

Regresando a la notación con $x$ y potencias

Ya dimos cimientos sólidos para construir al anillo de polinomios con coeficientes reales y sus operaciones. Es momento de regresar a la «notación usual» usando $x$ y sus potencias, pues será más práctica en lo que viene.

Para empezar, notemos que a cada real $r$ podemos asociarle el polinomio $(r,\overline{0})$. Esta es una asociación en la que las operaciones de suma y producto de $\mathbb{R}$ se corresponden con las de $\mathbb{R}[x]$.

Observa además que tras esta asociación, el real $0$ es el polinomio $(\overline{0})$ y el real $1$ es el polinomio $(1,\overline{0})$, así que la asociación respeta los neutros de las operaciones. De manera similar se puede mostrar que la asociación respeta inversos aditivos y multiplicativos.

Por esta razón, para un real $r$ podemos simplemente usar el símbolo $r$ para el polinomio $(r,\overline{0})$, y todas las operaciones siguen siendo válidas. Para expresar a cualquier otro polinomio, nos bastará con introducir un símbolo más, y potencias.

Definición. Definimos $x$ como el polinomio $\{0,1,\overline{0}\}$. Para cada natural $n$ definimos $x^n$ como el polinomio $\{a_n\}$ tal que $a_j=1$ si $j=n$ y $a_j=0$ para $j\neq n$.

Ejemplo. La definición de arriba implica $x^0=1$ y $x^1=x$. El polinomio $x^3$ es el polinomio $$(0,0,0,1,\overline{0}).$$

$\square$

Ejemplo. Hagamos la multiplicación de los polinomios $x^2$ y $x^3$. Estos son, por definición, $(0,0,1,\overline{0})$ y $(0,0,0,1,\overline{0})$. Hagamos esta multiplicación con el método de la tabla:

$0$$0$$1$
$0$$0$$0$$0$
$0$$0$$0$$0$
$0$$0$$0$$0$
$1$$0$$0$$1$
Multiplicación de $x^2$ y $x^3$.

El producto es el polinomio $(0,0,0,0,0,1,\overline{0})$, que por definición es el polinomio $x^5$.

$\square$

En general, para $m$ y $n$ enteros no negativos se tiene que $x^mx^n = x^{m+n}$, como puedes verificar de tarea moral.

Ya que tenemos al símbolo $x$ y sus potencias, necesitaremos también agregar coeficientes para poder construir cualquier polinomio.

Definición. Dados un polinomio $a:=\{a_n\}$ y un real $r$, definimos al polinomio $ra$ como la sucesión $$ra:=\{ra_n\},$$ es decir, aquella obtenida de multiplicar cada elemento de $a$ por $r$.

Ejemplo. Si tomamos al polinomio $$a=\left(0,\frac{1}{2},0,\frac{1}{3},\overline{0}\right)$$ y al real $r=6$, tenemos que $$6a=\left(0,3,0,2,\overline{0}\right).$$

Observa que $3x$ es el polinomio $(0,3,\overline{0})$, que $2x^3$ es el polinomio $(0,0,0,2,\overline{0})$ y que la suma de los dos es precisamente el polinomio $6a$, de modo que podemos escribir $$6a=3x+2x^3.$$

Si tomamos cualquier polinomio $a$ y al real $ 0$, tenemos que $$0a=\{0,0,0,0,\ldots\}=(\overline{0}),$$ es decir, $0a$ es el polinomio cero.

$\square$

La siguiente proposición es sencilla y su demostración queda como tarea moral.

Proposición. Para cualquier polinomio $a=\{a_n\}$ en $\mathbb{R}[x]$, los reales $a_0,a_1,\ldots$ son los únicos reales tales que $$a=a_0+a_1x+a_2x^2+a_3x^3+\ldots.$$

Todo lo que hemos discutido en esta sección permite que ahora sí identifiquemos formalmente al polinomio $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ con la expresión $$a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+a_5x^5+\ldots$$

y que realicemos las operaciones en $\mathbb{R}[x]$ «como siempre», es decir, sumando coeficientes de términos iguales y multiplicando mediante la distribución y reagrupamiento. Así, a partir de ahora ya no usaremos la notación de sucesiones y simplemente escribiremos a los polinomios con la notación de $x$ y sus potencias. También, favoreceremos llamarles a los polinomios $p(x),q(x),r(x),\ldots$ en vez de $a,b,c,\ldots$.

Ejercicio. Realiza la operación $6(\frac{1}{2}+x)(1+3x^2)$.

Solución. Por asociatividad, podemos hacer primero la primer multiplicación, que da $3+6x$. Luego, multiplicamos este polinomio por el tercer término. Podemos usar las propiedades de anillo para distribuir y agrupar, o bien, podemos seguir usando el método de la tabla.

Cuando hacemos lo primero, queda
\begin{align*}
(3+6x)(1+3x^2)&=3+9x^2+6x+18x^3\\
&=3+6x+9x^2+18x^3.
\end{align*}

Si hacemos lo segundo, tendríamos que hacer la siguiente tabla (¡cuidado con dejar el cero correspondiente al término $x$ del segundo factor!)

$3$$6$
$1$$3$$6$
$0$$0$$0$
$3$$9$$18$
Multiplicación de dos polinomios

Leyendo por diagonales, el resultado es $$3+6x+9x^2+18x^3,$$ tal y como calculamos con el primer método.

$\square$

Grado de polinomios

Vamos a definir «grado» para todo polinomio que no sea el polinomio $0$. Es muy importante recordar que el polinomio $0$ no tiene grado.

Definición. Un polinomio $p(x)$ en $\mathbb{R}[x]$ es de grado $n$ si es de la forma $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ para reales $a_0,\ldots,a_n$ y $a_n\neq 0$. Al grado de $p(x)$ lo denotamos por $\deg(p(x))$.

Por la discusión de la sección anterior, el grado está bien definido. En términos de la sucesión correspondiente al polinomio, su grado es el mayor entero que sea subíndice de una entrada no cero.

Ejemplo. El grado del polinomio $p(x)=3$ es $0$. De hecho, todo polinomio que viene de un real tiene grado $0$. Excepto el polinomio $0$.

El grado del polinomio $q(x)=1+2x^3+3x^7$ es $7$.

Sin embargo, el polinomio $r(x)=0$ no tiene grado, pues es el polinomio $0$.

Notemos que el polinomio $s(x)=2+4x$ se escribe como $(2,4,\overline{0})$ en notación de sucesión. La entrada $0 $ es $2$, la entrada $1$ es $4$ y el resto de las entradas son $0$. El grado de $s(x)$ es $1$, que es precisamente la posición de la última entrada distinta de $0$ en su notación de sucesión.

$\square$

El siguiente resultado habla de cómo interactúa el grado con operaciones de polinomios.

Proposición. Si $p(x)$ y $q(x)$ son polinomios en $\mathbb{R}[x]$ distintos de cero, entonces:

  • El grado del producto cumple $$\deg(p(x)q(x)) = \deg(p(x))+\deg(q(x)).$$
  • El grado de la suma cumple $$\deg(p(x)+q(x))\leq \max(\deg(p(x)),\deg(q(x))).$$
  • Si $\deg(p(x))>\deg(q(x))$, entonces $$\deg(p(x)+q(x))=\deg(p(x)).$$

Demostración. Supongamos que los grados de $p(x)$ y $q(x)$ son, respectivamente, $m$ y $n$, y que $p(x)$ y $q(x)$ son
\begin{align*}
p(x)&=a_0+a_1x+\ldots+a_mx^m\\
q(x)&=b_1+b_1x+\ldots+b_nx^n.
\end{align*}
La demostración de la primera parte ya la hicimos en la entrada anterior. En la notación que estamos usando ahora, vimos que el coeficiente de $x^{m+n}$ en $p(x)q(x)$ es justo $a_mb_n\neq 0$, y que este es el término de mayor exponente.

Para la segunda y tercera partes, podemos asumir que $m\geq n$. Tenemos que $p(x)+q(x)$ es $$\left(\sum_{i=0}^n (a_i+b_i)x^i\right) + a_{n+1}x^{n+1}+\ldots+a_mx^m.$$ De aquí, se ve que el máximo exponente que podría aparecer es $m$, lo cual prueba la segunda parte.

Para la tercer parte, cuando $m>n$ tenemos que el coeficiente de $x^m$ es $a_m\neq 0$, y que es el término con mayor exponente. Así, el grado de la suma es $m$.

$\square$

La hipótesis adicional del tercer punto es necesaria, pues en la suma de dos polinomios del mismo grado, es posible que «se cancele» el término de mayor grado.

Ejemplo. El producto de los polinomios $1+x+x^2+x^3$ y $1-x$ es $1-x^4$. Esto concuerda con lo que esperábamos de sus grados. El primero tiene grado $3$, el segundo grado $1$ y su producto grado $4=3+1$.

La suma de los polinomios $1+\pi x^3 + \pi^2 x^5$ y $1-\pi x^3$ es $2+\pi^2x^5$, que es un polinomio de grado $5$, como esperaríamos por la tercer parte de la proposición.

La suma de los polinomios $4x^5+6x^7$ y $6x^5+4x^7$ es $10x^5+10x^7$. Es de grado $7$, como esperaríamos por la segunda parte de la proposición.

Sin embargo, en la suma de polinomios el grado puede disminuir. Por ejemplo, los polinomios $1+x^3-x^7$ y $1+x^2+x^7$ tienen grado $7$, pero su suma es el polinomio $2+x^2+x^3$, que tiene grado $3$.

$\square$

Evaluación de polinomios e introducción a raíces

Es importante entender que hay una diferencia entre un polinomio, y la función que induce. Por la manera en que definimos a los polinomios, «en el fondo» son sucesiones, incluso con la nueva notación de $x$ y potencias. Sin embargo, cualquier polinomio define una función.

Definición. Si tenemos un polinomio $$p(x)=a_0+a_1x+\ldots+a_nx^n$$ en $\mathbb{R}$, éste define una función aplicar $p$ que es una función $f_p:\mathbb{R}\to \mathbb{R}$ dada por $$f_p(r)=a_0+a_1r+a_2r^2+\ldots+a_nr^n$$ para todo $r\in \mathbb{R}$.

Ejemplo. El polinomio $p(x)=3x^2+4x^3$ induce a la función $f_p:\mathbb{R}\to \mathbb{R}$ tal que $f_p(r)=3r^2+4r^3$. Tenemos, por ejemplo, que $$f_p(1)=3\cdot 1^2 + 4\cdot 1^3 = 7$$ y que $$f_p(2)=3\cdot 2^2 + 4\cdot 2^3=44.$$

$\square$

Como las reglas de los exponentes y la multiplicación por reales funciona igual en $\mathbb{R}$ que en $\mathbb{R}[x]$, la evaluación en un real $r$ obtiene exactamente lo mismo a que si simplemente reemplazamos $x$ por $r$ y hacemos las operaciones. Por ello, usualmente no distinguimos entre $p(x)$ y $f_p$, su función evaluación, y para un real $r$ usamos simplemente $p(r)$ para referirnos a $f_p(r)$.

De manera totalmente análoga, podemos pensar a $p(x)$ como una función $p:\mathbb{C}\to \mathbb{C}$. También, como comentamos al inicio, podemos definir a los polinomios con coeficientes complejos, es decir a $\mathbb{C}[x]$, y pensarlos como funciones.

Es momento de introducir una definición clave para lo que resta del curso.

Definición. Sea $p(x)$ un polinomio en $\mathbb{R}[x]$ o $\mathbb{C}[x]$ y sea $r$ un real o complejo. Decimos que $r$ es una raíz de $p(x)$ si $p(r)=0$.

Ejemplo. El polinomio $p(x)=3$ no tiene raíces, pues para cualquier real o complejo $r$ se tiene $p(r)=3\neq 0$. Por otro lado, cualquier real o complejo es raíz del polinomio $z(x)=0$.

El polinomio $q(x)=x^2+1$ no tiene raíces en $\mathbb{R}$ pues $q(r)\geq 1$ para cualquier real $r$. Pero sí tiene raíces en $\mathbb{C}$, pues $$q(i)=i^2+1=-1+1=0.$$

El polinomio $s(x)=x(x-1)(x-1)=x^3-2x^2+x$ tiene como únicas raíces a $ 0$ y $1$, lo cual se puede verificar fácilmente antes de hacer la multiplicación. Esto debería darnos la intuición de que conocer a las raíces de un polinomio nos permite factorizarlo y viceversa. Esta intuición es correcta y la formalizaremos más adelante.

$\square$

Cuando hablamos de los números complejos, vimos cómo obtener las raíces de los polinomios de grado $2$, y de los polinomios de la forma $x^n-a$ en $\mathbb{C}$. La mayor parte de lo que haremos de aquí en adelante en el curso será entender a las raíces reales y complejas de más tipos de polinomios.

Más adelante…

Ya que hemos formalizado la notación estándar que conocemos de los polinomios, su estudio podrá ser más cómodo, hacemos énfasis en que casi todas las definiciones que dimos en esta sección se apoyaros simplemente en un uso adecuado de la notación; por lo que no hay que perder de vista que en el fondo, los polinomios siguen siendo sucesiones de números, y que el símbolo $x$ solo es una forma de representar la sucesión $(0,1,\overline{0})$.

Aun así, hemos justificado que este cambio de notación no tiene nada que envidiar a la notación original, por lo que en las siguientes entradas, ocuparemos la notación más familiar, lo cual será una pieza clave, para hacer más legibles las demostraciones en las siguientes entradas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Pasa el polinomio $(0,0,0,0,4,0,3,\overline{0})$ a notación con $x$ y potencias. Luego, pasa el polinomio $1-x^3+x^6-x^9$ a notación de sucesión. Suma ambos polinomios y exprésalos en notación con $x$. Multiplícalos usando distribución y agrupamiento. Multiplícalos usando una tabla.
  2. Prueba usando la definición de multiplicación y de $x^n$ que para $m$ y $n$ enteros no negativos se tiene que $x^{m+n}= x^m x^n$.
  3. Toma $P_1(x),\ldots,P_m(x)$ polinomios en $\mathbb{R}[x]$ de grado $n_1,\ldots,n_m$ respectivamente. ¿Cuál es el grado de $P_1(x)+\ldots+P_m(x)$? ¿Y el grado de $P_1(x)\cdot \ldots \cdot P_m(x)$?
  4. Usando distribución y agrupamiento, muestra que para cada entero positivo $n$ se cumple que $$(1-x)(1+x+x^2+\ldots+x^{n-1})=1-x^n.$$
  5. Justifica que si $r(x)$ es un polinomio y $f_r$ es la función aplicar $r$, entonces para cualesquiera polinomios $p(x)$ y $q(x)$, se tiene que $f_p+f_q=f_{p+q}$ y que $f_pf_q=f_{pq}$.

Para practicar la aritmética de polinomios, puedes ir a la sección correspondiente de Khan Academy.

Entradas relacionadas

Álgebra Superior II: Problemas de exponencial, logaritmo y trigonometría en los complejos

Por Claudia Silva

Introducción

En entradas anteriores, vimos la construcción de los números complejos, sus operaciones y varias de sus características algebraicas. Conociendo ya las funciones exponencial y logaritmo, así como las funciones trigonométricas seno y coseno, vamos a iniciar con un breve análisis geométrico de la función exponencial. Posteriormente pasaremos a hacer unos ejercicios simples de operar dichas funciones en números complejos concretos.

Geometría de la exponencial compleja

Para empezar, estudiamos qué le hace la función exponencial al plano complejo de manera geométrica. Para hacer esto, tomamos varias rectas en el plano complejo para entender en qué se transforman tras aplicarles la función exponencial.

A grandes rasgos, cuando tomamos una recta vertical, la imagen de esta le da la vuelta al origen repetidamente. Cuando tomamos una recta horizontal, su imagen es un rayo que emana del origen (sin tocarlo).

En este video se explican estas ideas de manera visual.

Calcular una exponencial compleja

Lo siguiente que haremos es resolver un ejercicio de calcular la exponencial de un número complejo. Recuerda que, por definición, se tiene que $$e^{x+iy}=e^x\text{cis}(y).$$

Ejercicio. Expresa $e^{4+\frac{\pi}{6}i}$ en la forma $x+iy$.

Problema de logaritmo complejo

Recuerda que el logaritmo complejo funciona como inverso de la función exponencial. Para que esto sea cierto, tenemos que restringir la exponencial a una franja del plano complejo.

Por definición, tenemos que $$L(z)=\ln \norm{z} + \text{arg}(z)i.$$ Para que la definición funcione bien, es necesario que tomemos el argumento en el intervalo $(-\pi,\pi]$.

Resolveremos el siguiente ejercicio.

Ejercicio. Calcula $L\left(\frac{1}{2}+\frac{\sqrt{3}}{2} i\right)$.

Problema de trigonometría compleja

Por último, haremos un ejercicio de calcular una función trigonométrica compleja. Sólo necesitaremos la definición de la función coseno, pero por conveniencia, a continuación recordamos tanto la definición de seno, como la de coseno.

\begin{align*}
\cos(z)=\frac{e^{zi}+e^{-zi}}{2},
\sin(z)=\frac{e^{zi}-e^{-zi}}{2}.
\end{align*}

Con esto en mente, resolveremos el siguiente ejercicio.

Ejercicio. Calcula $\cos\left(\frac{\pi}{2}+\frac{\pi}{2} i\right)$.

Más tarde les subo fotos por si alguien tiene dificultades para ver los videos.

Más adelante…

Tarea moral

Entradas relacionadas