Archivo del Autor: Leonardo Ignacio Martínez Sandoval

Acerca de Leonardo Ignacio Martínez Sandoval

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Álgebra Superior II: Desigualdades de polinomios reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior mostramos el teorema de factorización para polinomios con coeficientes reales. Lo que haremos ahora es ver que podemos aplicarlo en la resolución de desigualdades de polinomios en $\mathbb{R}[x]$. El objetivo es que, al final de la entrada, entendamos cómo se pueden resolver problemas como los siguientes:

Problema 1. Determina todos los números $x$ en $\mathbb{R}$ para los cuales $$x^6-12x^4-49x^2-30 > 3x^5-48x^3-51x+6.$$

Problema 2. Determina todos los números $x$ en $\mathbb{R}$ para los cuales $$\frac{1}{x}>x^3-x^2+1.$$

Antes de hablar de resolución de desigualdades de polinomios, veremos una forma alternativa de factorizar en $\mathbb{R}[x]$ usando potencias.

Teorema de factorización de polinomios reales con potencias

De acuerdo al teorema de factorización en $\mathbb{R}[x]$, un polinomio $p(x)$ se puede factorizar de manera única en factores lineales y factores cuadráticos con discriminante negativo. De ser necesario, podemos agrupar los factores lineales iguales y reordenarlos para llegar a una factorización de la forma $$a(x-r_1)^{\alpha_1}\cdots(x-r_m)^{\alpha_m}(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n}),$$ en donde:

  • $a$ es un real distinto de cero,
  • $\alpha_1,\ldots,\alpha_m$ y $n$ son enteros positivos tales que $2n+\sum_{i=1}^m \alpha_i$ es igual al grado de $p(x)$,
  • para cada $i$ en $\{1,\ldots,m\}$ se tiene que $r_i$ es raíz real de $p(x)$ y $r_1<r_2<\ldots<r_m$
  • para cada $j$ en $ \{1,\ldots,n\}$ se tiene que $b_j,c_j$ son reales tales que $b_j^2-4c_j<0$.

Observa que los $r_i$ son ahora distintos y que están ordenados como $r_1<\ldots<r_m$. De aquí, obtenemos que $(x-r_i)^{\alpha_i}$ es la mayor potencia del factor lineal $x-r_i$ que divide a $p(x)$. Este número $\alpha_i$ se usa frecuentemente, y merece una definición por separado.

Definición. Sea $p(x)$ un polinomio en $\mathbb{R}[x]$ y $r$ una raíz de $p(x)$. La multiplicidad de $r$ como raíz de $p(x)$ es el mayor entero $\alpha$ tal que $$(x-r)^\alpha \mid p(x).$$ Decimos también que $r$ es una raíz de multiplicidad $\alpha$.

Ejemplo. El polinomio $k(x)=x^4-x^3-3x^2+5x-2$ se factoriza como $(x-1)^3(x+2)$. Así, la multiplicidad de $1$ como raíz de $k(x)$ es $3$. Además, $-2$ es una raíz de $k(x)$ de multiplicidad $1$.

$\triangle$

Después hablaremos de una forma práctica en la que podemos encontrar la multiplicidad de una raíz, cuando hablemos de continuidad de polinomios y sus derivadas.

Desigualdades de polinomios reales factorizados

Supongamos que tenemos un polinomio $p(x)$ no constante en $\mathbb{R}[x]$ para el cual conocemos su factorización en la forma $$a(x-r_1)^{\alpha_1}\cdots(x-r_m)^{\alpha_m}(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n}),$$ y que queremos determinar para qué valores reales $r$ se cumple que $$p(r)>0.$$

Daremos por cierto el siguiente resultado, que demostraremos cuando hablemos de continuidad de polinomios.

Proposición. Las evaluaciones en reales de un polinomio cuadrático y mónico en $\mathbb{R}[x]$ de discriminante negativo, siempre son positivas.

Lo que nos dice este resultado es que, para fines de la desigualdad que queremos resolver, podemos ignorar los factores cuadráticos en la factorización de $p(x)$ pues

$$a(x-r_1)^{\alpha_1}\cdots(x-r_m)^{\alpha_m}(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n})$$ y $$a(x-r_1)^{\alpha_1}\cdots(x-r_m)^{\alpha_m}$$ tienen el mismo signo.

Por la miasma razón, podemos ignorar aquellos factores lineales con exponente par, y de los de exponente impar, digamos $(x-r)^{2\beta +1}$ obtenemos una desigualdad equivalente si los remplazamos por exponente $1$, pues $(x-r)^{2\beta}$ es positivo y por lo tanto no cambia el signo de la desigualdad si lo ignoramos.

En resumen, cuando estamos resolviendo una desigualdad del estilo $p(x)>0$ podemos, sin cambiar el conjunto solución, reducirla a una de la forma $$q(x):=a(x-r_1)(x-r_2)\ldots(x-r_m)>0.$$ La observación clave para resolver desigualdades de este estilo está resumida en el siguiente resultado.

Proposición. Tomemos un polinomio $q(x)$ en $\mathbb{R}[x]$ de la forma $$q(x)=a(x-r_1)(x-r_2)\ldots(x-r_m)$$ con $r_1<\ldots<r_m$ reales.

Si $m$ es par:

  • Para reales $r$ en la unión de intervalos $$(-\infty,r_1)\cup(r_2,r_3)\cup\ldots \cup (r_{m-2},r_{m-1})\cup (r_m,\infty),$$ la evaluación $q(r)$ tiene el mismo signo que $a$
  • Para reales $r$ en la unión de intervalos $$(r_1,r_2)\cup(r_3,r_4)\cup\ldots \cup (r_{m-3},r_{m-2})\cup (r_{m-1},r_m),$$ la evaluación $q(r)$ tiene signo distinto al de $a$.

Si $m$ es impar:

  • Para reales $r$ en la unión de intervalos $$(r_1,r_2)\cup(r_3,r_4)\cup\ldots \cup (r_{m-2},r_{m-1})\cup (r_m,\infty),$$ la evaluación $q(r)$ tiene el mismo signo que $a$.
  • Para reales $r$ en la unión de intervalos $$(-\infty,r_1)\cup(r_2,r_3)\cup\ldots \cup (r_{m-3},r_{m-2})\cup (r_{m-1},r_m),$$ la evaluación $q(r)$ tiene signo distinto al de $a$.

Demostración. El producto $(r-r_1)(r-r_2)\ldots(r-r_m)$ es positivo si y sólo si tiene una cantidad par de factores negativos. Si $r>r_m$, todos los factores son positivos, y por lo tanto $q(r)$ tiene el mismo signo que $a$ cuando $r$ está en el intervalo $(r_m,\infty)$.

Cada que movemos $r$ de derecha a izquierda y cruzamos un valor $r_i$, cambia el signo de exactamente uno de los factores, y por lo tanto la paridad de la cantidad de factores negativos. El resultado se sigue de hacer el análisis de casos correspondiente.

$\square$

Veamos cómo podemos utilizar esta técnica para resolver desigualdades polinomiales que involucran a un polinomio que ya está factorizado en irreducibles.

Problema 1. Determina para qué valores reales $x$ se tiene que $$-2(x-5)^7(x+8)^4(x+2)^3(x+10)(x^2-x+2)^3$$ es positivo.

Solución. Por la discusión anterior, podemos ignorar el polinomio cuadrático del final, pues es irreducible. También podemos ignorar los factores lineales con potencia par, y podemos remplazar las potencias impares por unos. Así, basta con encontrar los valores reales de $x$ para los cuales $$q(x)=-2(x-5)(x+2)(x+10)$$ es positivo. Tenemos $3$ factores, así que estamos en el caso de $m$ impar en la proposición.

Las tres raíces, en orden, son $-10, -2, 5$. Por la proposición, para $x$ en la unión de intervalos $$(-\infty,-10)\cup (-2,5)$$ se tiene que $q(x)$ tiene signo distinto al de $a=-2$ y por lo tanto es positivo. Para $x$ en el conjunto $$(-10,-2)\cup (5,\infty)$$ se tiene que $q(x)$ tiene signo igual al de $a=-2$, y por lo tanto es negativo. De esta forma, la respuesta es el conjunto $$(-\infty,-10)\cup (-2,5).$$

Puedes dar clic aquí para ver en GeoGebra las gráfica de $q(x)$ y del polinomio original, y verificar que tienen el mismo signo en los mismos intervalos.

$\triangle$

Si estamos resolviendo una desigualdad y el valor de $a$ en la factorización es positivo, es un poco más práctico ignorarlo desde el principio, pues no afecta a la desigualdad.

Problema 2. Determina para qué valores reales $x$ se tiene que $$7(x+7)^{13}(x+2)^{31}(x-5)^{18}(x^2+1)$$ es positivo.

Solución. Tras las cancelaciones correspondientes, obtenemos la desigualdad equivalente $$(x+7)(x+2)>0.$$

Las raíces del polinomio que aparece son $-7$ y $-2$. De acuerdo a la proposición, estamos en el caso con $m$ par. De esta forma, la expresión es negativa en el intervalo $(-7,-2)$ y es positiva en la unión de intervalos $$(-\infty,-7)\cup (-2,\infty).$$

$\triangle$

Otras desigualdades de polinomios y manipulaciones algebraicas

Si tenemos otras expresiones polinomiales, también podemos resolverlas con ideas similares, solo que a veces se tienen que hacer algunas manipulaciones previas para llevar la desigualdad a una de la forma $p(x)>0$.

Problema. Determina todos los números $x$ en $\mathbb{R}$ para los cuales $$x^6-12x^4-49x^2-30 > 3x^5-48x^3-51x+6.$$

Solución. El problema es equivalente a encontrar los reales $x$ para los cuales $$x^6-3x^5+12x^4+48x^3-29x^2+51x-36>0.$$ El polinomio del lado izquierdo se puede factorizar como $(x-3)^2(x-1)(x+4)(x^2+1)$, así que obtenemos el problema equivalente $$(x-3)^2(x-1)(x+4)(x^2+1)>0,$$ que ya sabemos resolver. El resto de la solución queda como tarea moral.

Puedes ver la gráfica del polinomio $$(x-3)^2(x-1)(x+4)(x^2+1)$$ en GeoGebra si das clic aquí.

$\triangle$

Tener cuidado al multiplicar por denominadores

Hay que tener cuidado al realizar algunas manipulaciones algebraicas, pues pueden cambiar el signo de la desigualdad que estamos estudiando. Veamos un ejemplo donde sucede esto.

Problema. Determina todos los números $x$ en $\mathbb{R}$ para los cuales $$\frac{1}{x}>x^3-x^2+1.$$

Solución. La expresión no está definida en $x=0$, pues se anula un denominador. Supongamos entonces que $x\neq 0$, y recordémoslo al expresar la solución final. Vamos a multiplicar la desigualdad por $x$, pero tenemos que hacer casos.

Si $x>0$, entonces el signo de desigualdad no se altera y obtenemos la desigualdad equivalente $$0>x^4-x^3+x-1=(x-1)(x+1)(x^2-x+1).$$ El factor cuadrático es irreducible y lo podemos ignorar. Si estuviéramos trabajando en todo $\mathbb{R}$, el conjunto solución sería el intervalo $(-1,1)$. Sin embargo, tenemos que restringir este conjunto solución sólo al caso en el que estamos, es decir, $x>0$. Así, para este caso sólo los reales en $(0,1)$ son solución.

Si $x<0$, entonces el signo de la desigualdad sí se altera, y entonces obtenemos la desigualdad equivalente $$0<x^4-x^3+x-1=(x-1)(x+1)(x^2-x+1).$$ De nuevo podemos ignorar el factor cuadrático. La desigualdad tiene solución en todo $\mathbb{R}$ al conjunto $(-\infty,-1)\cup (1,\infty)$, pero en este caso debemos limitarlo adicionalmente con la restricción $x<0$. De este modo, las soluciones para este caso están en el intervalo $(-\infty,-1)$.

Ahora sí, juntando ambos casos, tenemos que el conjunto solución final es $$(-\infty,-1)\cup(0,1).$$

Puedes ver la gráfica en GeoGebra de $\frac{1}{x}-x^3+x^2-1$ dando clic aquí. Ahí puedes verificar que esta expresión es positiva exactamente en el conjunto que encontramos.

$\triangle$

Más adelante…

Como queda claro, resulta ser útil tener un polinomio en su forma factorizada para resolver desigualdades de polinomios reales. En los ejemplos que dimos en esta entrada, se dieron las factorizaciones de los polinomios involucrados. En el resto del curso veremos herramientas que nos permitirán encontrar la factorización de un polinomio o, lo que es parecido, encontrar sus raíces:

  • Veremos propiedades de continuidad de polinomios para mostrar la existencia de raíces para polinomios reales en ciertos intervalos.
  • El teorema del factor nos dice que si $r$ es raíz de $p(x)$, entonces $x-r$ divide a $p(x)$. Sin embargo, no nos dice cuál es la multiplicidad de $r$. Veremos que la derivada de un polinomio nos puede ayudar a determinar eso.
  • También veremos el criterio de la raíz racional, que nos permite enlistar todos los cantidatos a ser raíces racionales de un polinomio $p(x)$ con coeficientes racionales.
  • Finalmente, veremos que para los polinomios de grado $3$ y $4$ hay formas de obtener sus raíces de forma explícita, mediante las fórmulas de Cardano y de Ferrari.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Completa la solución del problema enunciado en la sección de manipulaciones algebraicas.
  2. Encuentra el conjunto solución de números reales $x$ tales que $$(x+1)(x+2)^2(x+3)^3(x+4)^4>0.$$
  3. Determina las soluciones reales a la desigualdad $$\frac{x-1}{x+2}>\frac{x+2}{x-1}.$$ Ten cuidado con los signos. Verifica tu respuesta en este enlace de GeoGebra, que muestra la gráfica de $f(x)=\frac{x-1}{x+2}-\frac{x+2}{x-1}$.
  4. Realiza las gráficas de otros polinomios de la entrada en GeoGebra para verificar las soluciones dadas a las desigualdades de polinomios.
  5. Revisa esta entrada, en donde se hablan de aplicaciones de desigualdades polinomiales para un problema de un concurso de matemáticas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz $A$ en $M_{m,n}(F)$ es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación $X\mapsto AX$ de $F^n\to F^m$. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de $A$. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de $A$.

Lo que veremos ahora es que podemos determinar el rango de una matriz $A$ calculando algunos determinantes de matrices pequeñas asociadas a $A$. Una submatriz de $A$ es una matriz que se obtiene de eliminar algunas filas o columnas de $A$.

Teorema. Sea $A$ una matriz en $M_{m,n}(F)$. El rango de $A$ es igual al tamaño de la submatriz cuadrada más grande de $A$ que sea invertible.

Demostración. Llamemos $C_1,\ldots,C_n$ a las columnas de $A$. Sabemos que $$r=\dim \text{span}(C_1,\ldots,C_n).$$

Mostraremos primero que hay una submatriz cuadrada de tamaño $r$. Por el lema de Steinitz, podemos escoger $r$ enteros $1\leq i_1<\ldots<i_r\leq n$ tal que las columnas $C_{i_1},\ldots,C_{i_r}$ de $A$ cumplen $$\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).$$ Así, la matriz $B$ hecha por columnas $C_{i_1},\ldots,C_{i_r}$ está en $M_{m,r}(F)$ y es de rango $r$.

Ahora podemos calcular el rango de $B$ por filas. Si $F_1,\ldots,F_m$ son las filas de $B$, tenemos que $$r=\dim \text{span}(F_1,\ldots,F_m).$$ De nuevo, por el lema de Steinitz, existen enteros $1\leq j_1<\ldots<j_r\leq m$ tales que $$\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).$$ De esta forma, la matriz $C$ hecha por las filas $F_{j_1},\ldots,F_{j_r}$ está en $M_r(F)$ y es de rango $r$. Por lo tanto, $C$ es una matriz cuadrada de tamaño $r$ y es invertible.

Esta matriz $C$ es una submatriz de $A$ pues se obtiene al eliminar de $A$ todas las columnas en posiciones distintas a $i_1,\ldots,i_r$ y todas las filas en posiciones distintas a $j_1,\ldots,j_r$. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si $B$ es una submatriz de $A$ cuadrada e invertible de tamaño $d$, entonces $d\leq r$. En efecto, tomemos una $B$ así. Sus columnas son linealmente independientes. Si $i_1<\ldots<i_n$ corresponden a los índices de las columnas de $A$ que se preservan al pasar a $B$, entonces las columnas $C_{i_1},\ldots,C_{i_d}$ de $A$ son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de $B$, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
\begin{align*}
d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\
&\leq \dim \text{span} (C_1,\ldots,C_d)\\
&=r,
\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

$\square$

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en $M_{3,5}(\mathbb{R})$: $$A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.$$

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho $\min(3,5)=3$.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada $$\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.$$ Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es $4\cdot (-1)\cdot (-3)=12$.

Como el determinante no es cero, es una matriz invertible de tamaño $3$. Por la proposición anterior, el rango de $A$ debe ser entonces mayor o igual a $3$. Juntando las dos desigualdades que encontramos, el rango de $A$ debe ser igual a $3$.

$\triangle$

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con $m$ ecuaciones y $n$ incógnitas es de la forma

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\
\vdots&\\
a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,
\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
\begin{align*}
A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\
b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},
\end{align*} y reescribiendo el sistema como $$AX=b.$$

Si $C_1,\ldots, C_n$ son las columnas de la matriz $A$, también sabemos que $$AX=x_1C_1+\ldots + x_nC_n,$$ de modo que el sistema de ecuaciones puede ser escrito como $$x_1C_1+\ldots + x_nC_n=b.$$

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si $b$ está en el espacio generado por las columnas de $A$, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean $A\in M_n(F)$ y $b\in F^m$. Sea $(A|b)$ la matriz en $M_{n,n+1}(F)$ obtenida de agregar a $b$ como columna hasta la derecha de la matriz $A$. Entonces:

  • El sistema lineal de ecuaciones $AX=b$ tiene al menos una solución si y sólo si $\rank(A)=\rank((A|b))$.
  • El conjunto de soluciones $\mathcal{S}_h$ al sistema homogéneo es un subespacio de $F^n$ de dimensión $n-\rank(A)$.

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si $b$ es una combinación lineal de las columnas de $A$. De esta forma, si existe una solución, entonces $\rank(A)=\rank((A|b))$, pues el espacio generado por las columnas de $A$ sería el mismo que el de las columnas de $(A|b)$.

Por otro lado, si $\rank(A)=\rank((A|b))$ es porque las columnas de $A$ y las de $(A|b)$ generan el mismo espacio, de modo que $b$ está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es $AX=0$, de modo que el conjunto solución es precisamente el kernel de la transformación $T:F^n\to F^m$ tal que $X\mapsto AX$. Por el teorema de rango-nulidad, tenemos que $$\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).$$ Esto termina la demostración.

$\square$

Como discutimos con anterioridad, ya que tenemos una solución $x_0$ para el sistema de ecuaciones $AX=b$, entonces todas las soluciones son el conjunto $$x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.$$ En otras palabras, cualquier solución al sistema se puede obtener sumando a $x_0$ una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=0
\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$. Por lo que sabemos de determinantes de $3\times 3$, podemos calcular su determinante como
\begin{align*}
\begin{vmatrix}
2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5
\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\
&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\
&=10-30+18-3-40+45\\
&=0.
\end{align*}

Esto muestra que $A$ no es invertible, y que por lo tanto tiene rango a lo más $2$. Como $$\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11$$ es un subdeterminante no cero de tamaño 2, entonces $A$ tiene rango $2$.

Ahora consideremos la matriz $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.$$ Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de $3\times 3$ por expansión de Laplace en la última columna:

\begin{align*}
\begin{vmatrix}
2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0
\end{vmatrix} &= 1 \cdot \begin{vmatrix} 3 & -1 \\ 3 & 10 \end{vmatrix} – 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\
&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\
&=33.
\end{align*}

De esta forma, $(A|b)$ tiene una submatriz de $3\times 3$ invertible, y por lo tanto tiene rango al menos $3$. Como tiene $3$ filas, su rango es a lo más $3$. Con esto concluimos que su rango es exactamente $3$. Conluimos que $$\text{rank} A = 2 \neq 3 = \text{rank} (A|b),$$ de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

$\triangle$

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz $A$ es de rango $r$, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada $B$ de tamaño $r$ que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables $x_1,\ldots,x_r$ y a las primeras $r$ ecuaciones. De esta forma, el sistema $AX=b$ se resume en el siguiente sistema de ecuaciones equivalente:

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\
\vdots\\
a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,
\end{align*}

Aquí $x_{r+1},\ldots,x_n$ son lo que antes llamábamos las variables libres y $x_1,\ldots,x_r$ son lo que llamábamos variables pivote. Como la submatriz $B$ correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal $AX=b$ en donde $A$ es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible en $M_n(F)$ y $b=(b_1,\ldots,b_n)$ un vector en $F^n$. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por $$X=(x_1,\ldots,x_n)=A^{-1}b.$$

Si $C_1,\ldots,C_n$ son las columnas de $A$, que $(x_1,\ldots,x_n)$ sea solución al sistema quiere decir que $$x_1C_1+\ldots+x_nC_n=b.$$

El determinante pensado como una función en $n$ vectores columna es $n$-lineal, de modo que usando la linealidad en la $i$-ésima entrada y que el determinantes es alternante, tenemos que:
\begin{align*}
\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\
&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\
&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\
&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\
&=x_i \det A
\end{align*}

Como $A$ es invertible, su determinante no es $0$, de modo que $$x_i=\frac{\det A_i}{\det A},$$ como queríamos.

$\square$

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=3
\end{align*}

En un ejemplo anterior vimos que la matriz asociada $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$ tiene rango $2$. Se puede verificar que la matriz aumentada $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}$$ también tiene rango $2$. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones $AX=b$, y el sistema homogéneo tiene espacio de soluciones de dimensión $3-2=1$.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante $2(-1)-(3)(3)=-11\neq 0$, entonces el sistema de ecuaciones original es equivalente al subsistema

\begin{align*}
2x+3y=1+z\\
3x-y=-2z.
\end{align*}

Para encontrar su solución, fijamos una $z$ arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
\begin{align*}
x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\
y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.
\end{align*}

De esta forma, las soluciones al sistema original están dadas por $$\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).$$

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión $1$, pues está generado por el vector $$\left(-\frac{5}{11},\frac{7}{11},1\right),$$ y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular $$\left(\frac{1}{11},\frac{3}{11},0\right).$$

$\square$

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de $2\times 2$ con un parámetro $\theta$. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto $(x,y)$ del plano tal que al rotarse en $\theta$ alrededor del origen, llega al punto $(a,b)$ » .

Problema. Sea $a,b,\theta$ números reales. Encuentra las soluciones $x,y$ al sistema de ecuaciones
\begin{align*}
x \cos \theta – y \sin \theta = a\\
x \sin \theta + y \cos \theta = b.
\end{align*}

Solución. La matriz asociada al sistema es $$A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}$$ que tiene determinante $$\det A = \cos ^2 \theta + \sin^2 \theta = 1.$$

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

\begin{align*}
x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\
y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta – a\sin \theta.
\end{align*}

$\triangle$

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz $$A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.$$
  • Para la matriz $A$ del inciso anterior, resuelve los sistemas de ecuaciones lineales $AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix}$ y $AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}$.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango $2$.
  • Muestra que si $A$ es una matriz en $M_n(\mathbb{R})$ con entradas enteras y de determinante $1$, y $b$ es un vector en $R^n$ con entradas enteras, entonces la solución $X$ del sistema de ecuaciones $AX=b$ tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible $A$?
  • Considera un sistema de ecuaciones con coeficientes en un campo $F_1$ y una extensión de campo $F_2$. Muestra que si el sistema tiene una solución en $F_2$, entonces también tiene una solución en $F_1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Seguimos con las entradas de temas de desigualdades. Con anterioridad ya hablamos de desigualdades básicas y de desigualdades con medias. En esta ocasión estudiaremos una desigualdad muy versátil: la desigualdad de Cauchy-Schwarz.

En su versión más simple, lo que dice la desigualdad de Cauchy-Schwarz es lo siguiente.

Desigualdad (de Cauchy-Schwarz). Para cualesquiera números reales $a_1,\ldots,a_n$ y $b_1,\ldots,b_n$ se tiene que $$|a_1b_1+\ldots+a_nb_n| \leq \sqrt{a_1^2+\ldots+a_n^2} \sqrt{b_1^2+\ldots+b_n^2}.$$

Primero, veremos cómo se demuestra esta desigualdad. Luego, veremos varios problemas en los que se puede aplicar. Finalmente, hablaremos un poco de sus extensiones a espacios vectoriales.

La demostración polinomial de la desigualdad de Cauchy-Schwarz

Una forma de demostrar la desigualdad de Cauchy-Schwarz es usando inducción sobre $n$. Hay otra demostración usando polinomios. Veamos esa demostración, pues tiene la idea útil de usar argumentos polinomiales para demostrar igualdades.

Consideremos la expresión $$p(t)=\sum_{i=1}^n (a_i+b_i t)^2.$$ Como es una suma de cuadrados, esta expresión es no negativa. Haciendo los cuadrados, y desarrollando la suma, podemos escribirla de la siguiente forma, que nos dice que es un polinomio cuadrático en $t$:

\begin{align*}
\sum_{i=1}^n (a_i+b_i t)^2&=\sum_{i=1}^n \left(a_i^2 + 2a_ib_i t + b_i^2 t^2\right)\\
&=\sum_{i=1}^n a_i^2 + \left(2\sum_{i=1}^n a_ib_i \right)t + \left(\sum_{i=1}^n b_i^2\right)t^2.
\end{align*}

De esta forma $p(t)$ es un polinomio cuadrático y siempre toma valores no negativos. Así, a lo más puede tener una raíz $t$, por lo que su discriminante es menor o igual a $0$:

$$ \left(2\sum_{i=1}^n a_ib_i \right)^2-4\left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right)\leq 0$$

Al pasar el segundo término sumando al otro lado y dividir entre $4$ queda

$$\left(\sum_{i=1}^n a_ib_i \right)^2\leq \left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right).$$

Al sacar raíz cuadrada de ambos lados hay que tener cuidado de poner un valor absoluto al lado izquierdo. Al hacer esto, se obtiene el resultado deseado: $$\left|\sum_{i=1}^n a_ib_i \right|\leq \sqrt{\sum_{i=1}^n a_i^2}\cdot \sqrt{\sum_{i=1}^n b_i^2}.$$

Observa que la igualdad se da si y sólo si el discriminante es $0$, lo cual sucede si y sólo si el polinomio tiene una raíz $t$. Cuando esto pasa, cada uno de los sumandos al cuadrado de $p(t)$ debe ser $0$. Así, existe un real $t$ tal que $a_i=-tb_i$ para todo $i=1,\ldots,n$. Esto lo podemos decir en términos vectoriales como que «la igualdad se da si y sólo si el vector $(a_1,\ldots,a_n)$ es un múltiplo escalar del vector $(b_1,\ldots,b_n)$ » .

Un problema sobre acotar el valor de una variable

Problema. Sean $a,b,c,d$ números reales tales que
\begin{align*}
a+b+c+d&=6\\
a^2+b^2+c^2+d^2&=12.
\end{align*}
¿Cuál es el máximo valor que puede tener $d$?

Sugerencia. Aplica la desigualdad de Cauchy-Schwarz a las ternas $(a,b,c)$ y $(1,1,1)$.

Solución. Aplicando la desigualdad a las ternas $(a,b,c)$ y $(1,1,1)$ obtenemos que $$|a+b+c|\leq \sqrt{a^2+b^2+c^2}\cdot{\sqrt{3}}.$$ Usando las hipótesis sobre $a,b,c,d$, tenemos que esta desigualdad es equivalente a $|6-d|\leq \sqrt{3}\cdot {\sqrt{12-d^2}$. Elevando al cuadrado de ambos lados, obtenemos las desigualdades equivalentes
\begin{align*}
36-12d+d^2&\leq 3(12-d^2)\\
36-12d+d^2&\leq 36-3d^2\\
4d^2-12d&\leq 0\\
4d(d-3)&\leq 0.
\end{align*}

Para que se satisfaga esta desigualdad, tiene que pasar o bien que simultáneamente $d\leq 0$ y $d\geq 3$ (lo cual es imposible), o bien que simultáneamente $d\geq 0$ y $d\leq 3$. En conclusión, esto acota el máximo valor posible de $d$ con $3$.

En efecto, existe una solución con $d=3$. De acuerdo al caso de igualdad de la desigualdad de Cauchy-Schwarz, debe pasar cuando $(a,b,c)$ es un múltiplo escalar de $(1,1,1)$, es decir, cuando $a=b=c$. Como $a+b+c+d=6$ y queremos $d=3$, esto forza a que $a=b=c=1$. Y en efecto, tenemos que con esta elección $$a^2+b^2+c^2+d^2=1+1+1+9=12.$$

$\square$

Aplicando Cauchy-Schwarz en un problema con el circunradio

A veces podemos aprovechar información implícita en un problema geométrico y combinarla con la desigualdad de Cauchy-Schwarz. Veamos un problema en el que sucede esto.

Problema. Sea $P$ un punto en el interior del triángulo $ABC$ y $p,q,r$ las distancias de $P$ a los lados $BC, CA, AB$ respectivamente, que tienen longitudes $a,b,c$, respectivamente. Sea $R$ el circunradio de $ABC$. Muestra que $$\sqrt{p}+\sqrt{q}+\sqrt{r} \leq \sqrt{\frac{a^2+b^2+c^2}{2R}}.$$

Sugerencia pre-solución. Necesitarás aplicar la desigualdad de Cauchy-Schwarz más de una vez. Haz una figura para entender la expresión $ap+bq+cr$. Necesitarás también la fórmula que dice que se puede calcular el área $T$ de un triángulo mediante la fórmula $$T=\frac{abc}{R}.$$

Solución. Lo primero que haremos es aplicar la desigualdad de Cauchy-Schwarz en las ternas $(\sqrt{ap},\sqrt{bq},\sqrt{cr})$ y $(1/\sqrt{a},1/\sqrt{b},1/\sqrt{c})$ para obtener $$\sqrt{p}+\sqrt{q}+\sqrt{r}\leq \sqrt{ap+bq+cr}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}.$$

Observa que $ap$ es dos veces el área de $\triangle BCP$. De manera similar, tenemos que $bq$ y $cr$ son las áreas de $\triangle CAP$ y $\triangle ABP$ respectivamente. Así, si llamamos $T$ al área de $\triangle ABC$ tenemos que $ap+bq+cr=2T$. Otra expresión para el área de $\triangle ABC$ en términos de su circunradio $R$ es $$T=\frac{abc}{4R}.$$ En otras palabras, $ap+bq+cr=\frac{abc}{2R}$.

Esto nos permite continuar con la desigualdad como sigue:
\begin{align*}
\sqrt{p}+\sqrt{q}+\sqrt{r} &\leq \sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}\\
&=\sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{ab+bc+ca}{abc}}\\
&=\sqrt{\frac{ab+bc+ca}{2R}}.
\end{align*}

Esto es casi la desigualdad que queremos. Para terminar, basta mostrar que $$ab+bc+ca\leq a^2+b^2+c^2.$$ Esto se puede hacer de varias formas (intenta hacerlo usando la desigualdad MA-MG). Pero para continuar viendo la versatilidad de la desigualdad de Cauchy-Schwarz, observa que se puede deducir de ella aplicándola a las ternas $(a,b,c)$ y $(b,c,a)$.

$\square$

En el problema anterior, ¿para qué puntos $P$ se alcanza la igualdad?

Cauchy-Schwarz más allá de los números reales

Lo que está detrás de la desiguadad de Cauchy-Schwarz es en realidad la noción de producto interior en álgebra lineal. En cualquier espacio vectorial sobre los reales que tenga un producto interior $\langle \cdot, \cdot \rangle$ se satisface una desigualdad del tipo de la de Cauchy-Schwarz. No entraremos en los detalles de la teoría que se necesita desarrollar, pues eso se estudia en un curso de álgebra lineal. Sin embargo, enunciaremos el teorema y veremos una forma de aplicarlo.

Teorema (desigualdad de Cauchy-Schwarz). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$|\langle u , v\rangle|\leq \sqrt{\langle u , u\rangle}\cdot \sqrt{\langle v , v\rangle}.$$

Se puede mostrar que bajo las hipótesis del teorema la función $\norm{u}:=\langle u , u\rangle$ es una norma. Como platicamos con anterioridad, una norma satisface la desigualdad del triángulo, que en espacios vectoriales tiene un nombre especial.

Teorema (desigualdad de Minkowski). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ y $\norm{u}:=\langle u , u\rangle$, entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$\norm{u}+\norm{v}\geq \norm{u+v}.$$

Es relativamente sencillo ver que las desigualdades de Cauchy-Schwarz y de Minkowski son «equivalentes», en el sentido de que se puede mostrar una fácilmente suponiendo la otra y viceversa.

La desigualdad de Cauchy-Schwarz que usamos en las secciones anteriores es para el producto interior en $\mathbb{R}^n$ dado por $$\langle (a_1,\ldots,a_n),(b_1,\ldots,b_n) \rangle = a_1b_1+\ldots + a_nb_n,$$ al cual le llamamos el producto punto.

Si tenemos a $V$ el espacio vectorial de las funciones continuas reales en el intervalo $[0,1]$, entonces $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ es un producto interior para $V$. Esto nos puede ayudar a resolver algunos problemas.

Problema. Sea $f:[0,1]\to \mathbb{R}^+$ una función continua. Muestra que $$\left ( \int_0^1 f(x)\, dx \right) \left (\int_0^1 \frac{1}{f(x)}\, dt \right) \geq 1.$$

Sugerencia pre-solución. Aplica la desigualdad de Cauchy-Schwarz con el producto interior que discutimos antes de esta entrada.

Solución. Tomemos el producto interior $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ en el espacio vectorial de funciones reales y continuas en $[0,1]$. Como la imagen de $f$ está en los reales positivos, podemos definir la función $h:[0,1]\to \mathbb{R}^+$ dada por $h(x)=\sqrt{f(x)}$.

Tenemos que
\begin{align*}
\left \langle h, \frac{1}{h}\right \rangle &= \int_0^1 h(x)\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 1\, dx\\
&=1.
\end{align*}

Por otro lado,

\begin{align*}
\langle h, h \rangle &= \int_0^1 h(x)\cdot h(x)\, dx\\
&=\int_0^1 f(x)\, dx.
\end{align*}

y

\begin{align*}
\left\langle \frac{1}{h}, \frac{1}{h} \right\rangle&= \int_0^1 \frac{1}{h(x)}\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 \frac{1}{f(x)}\, dx
\end{align*}

La conclusión se sigue entonces de manera inmediata de la desigualdad de Cauchy-Schwarz para $\langle \cdot, \cdot \rangle$.

$\square$

Más problemas

Puedes encontrar más problemas que usan la desigualdad de Cauchy-Schwarz en la sección 7.1 del libro Problem Solving through Problems de Loren Larson. También puedes consultar más técnicas y problemas en el libro Desigualdades de la Olimpiada Mexicana de Matemáticas.

Álgebra Lineal I: Técnicas básicas de cálculo de determinantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

Ya definimos a los determinantes para vectores, para transformaciones y para matrices. Además, mostramos algunas propiedades básicas de determinantes y las usamos para resolver varios problemas. Como hemos discutido, los determinantes guardan información importante sobre una transformación lineal o sobre una matriz. También ayudan a implementar la técnica de diagonalización la cual introdujimos hace algunas entradas y en la cual profundizaremos después. Es por esta razón que es importante tener varias técnicas para el cálculo de determinantes.

Fuera de este curso, los determinantes sirven en muchas otras áreas de las matemáticas. Cuando se hace cálculo de varias variables ayudan a enunciar el teorema del cambio de variable. En combinatoria ayudan a calcular el número de árboles generadores de una gráfica. Más adelante en tu formación matemática es probable que te encuentres con otros ejemplos.

Calculo de determinantes de $2\times 2$

Como ya discutimos anteriormente, una matriz en $M_2(F)$, digamos $A=\begin{pmatrix}a&b\\ c&d\end{pmatrix}$ tiene determinante $ad-bc$.

Problema. Calcula el determinante de la matriz $$\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}^8.$$

Solución. Por la fórmula para el determinante de las matrices de $2\times 2$, se tiene que $\begin{vmatrix} 0 & 1\\ 1 & 1\end{vmatrix} = 0\cdot 1 – 1\cdot 1 = -1.$

Como el determinante es multiplicativo, $\det(A^2)=\det(A)\det(A)=(\det(A))^2$, e inductivamente se puede mostrar que para todo entero positivo $n$ se tiene que $\det(A^n)=(\det(A))^n$. De esta forma, el determinante que buscamos es $(-1)^8=1$.

$\triangle$

Observa que hubiera tomado más trabajo elevar la matriz a la octava potencia. Aunque esto usualmente no es recomendable, en este problema hay algo interesante que sucede con esta matriz. Llamémosla $A=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}$. Haciendo las cuentas para las primeras potencias, se tiene que
\begin{align*}
A&=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}\\
A^2&=\begin{pmatrix} 1 & 1\\ 1 & 2\end{pmatrix}\\
A^3&=\begin{pmatrix} 1 & 2\\ 2 & 3\end{pmatrix}\\
A^4&=\begin{pmatrix} 2 & 3\\ 3 & 5\end{pmatrix}\\
A^5&=\begin{pmatrix} 3 & 5\\ 5 & 8\end{pmatrix}
\end{align*}

Aquí aparece la sucesión de Fibonacci, dada por $F_0=0$, $F_1=1$ y $F_{n+2}=F_{n+1}+F_n$ para $n\geq 0$, cuyos primeros términos son $$0,1,1,2,3,5,8,13,21,\ldots.$$ De hecho se puede probar por inducción que $$A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix}.$$

Así, por un lado el determinante de la matriz $A^n$ es $F_{n-1}F_{n+1}-F_n^2$, usando la fórmula de determinante de $2\times 2$. Por otro lado, es $(-1)^n$, por el argumento del problema. Con esto hemos demostrado que para cualquier entero $n$ tenemos la siguiente identidad para los números de Fibonacci: $$F_{n-1}F_{n+1}-F_n^2 = (-1)^n.$$

Cálculo de determinantes de $3\times 3$

Para calcular el determinante de una matriz en $M_3(F)$ por definición, digamos de $A=\begin{pmatrix}a&b&c\\ d&e&f\\ g&h&i\end{pmatrix}$, tenemos que hacer una suma de $3!=6$ términos. Si se hacen las cuentas de manera explícita, el valor que se obtiene es $$aei+bfg+cdh-ceg-afh-bdi.$$

Esto se puede recordar mediante el siguiente diagrama, en el cual se ponen la primera y la segunda columna de nuevo, a la derecha. Las diagonales hacia abajo son términos positivos y las diagonales hacia arriba son términos negativos.

Cálculo de determinantes de matrices de 3x3
Cálculo de determinantes de $3\times 3$

Veamos un ejemplo de un problema en el que se puede aprovechar esta técnica.

Problema. Determina para qué reales $a,b,c$ se tiene que los vectores $(a,b,0)$, $(a,0,b)$ y $(0,a,b)$ son una base de $\mathbb{R}^3$.

Solución. Para que estos vectores sean una base de $\mathbb{R}^3$, basta con que sean linealmente independientes, pues son $3$. Como hemos visto en entradas anteriores, para que sean linealmente independientes, es necesario y suficiente que el determinante de la matriz $\begin{pmatrix}a&b&0\\ a&0&b\\ 0&a&b\end{pmatrix}$ sea distinto de cero.

Usando la técnica de arriba, hacemos siguiente diagrama:

De aquí, vemos que el determinante es $$0+0+0-0-a^2b-ab^2=-ab(a+b).$$ Esta expresión es igual a cero si $a=0$, si $b=0$ o si $a+b=0$. En cualquier otro caso, el determinante no es cero, y por lo tanto los vectores forman una base.

$\triangle$

Ten mucho cuidado. Esta técnica no funciona para matrices de $4\times 4$ o más. Hay una forma sencilla de convencerse de ello. Por ejemplo, el determinante de una matriz de $4\times 4$ debe tener $4!=24$ sumandos. Si intentamos copiar la técnica de arriba, tendremos solamente $8$ sumandos ($4$ en una diagonal y $4$ en otra). Para cuando tenemos matrices de $4\times 4$ o más, tenemos que recurrir a otras técnicas.

Reducción gaussiana para determinantes

Cuando vimos el tema de sistemas de ecuaciones hablamos del algoritmo de reducción gaussiana, y vimos que este siempre lleva una matriz en $M_{m,n}(F)$ a su forma escalonada reducida mediante operaciones elementales. Cuando aplicamos el algoritmo a matrices en $M_n(F)$, siempre llegamos a una matriz triangular, en donde sabemos fácilmente calcular el determinante: es simplemente el producto de las entradas en la diagonal. Nota cómo lo anterior también se cumple para las matrices diagonales, pues son un caso particular de matrices triangulares.

Por esta razón, es fundamental para el cálculo de determinantes saber qué le hacen las operaciones elementales al determinante de una matriz.

Teorema. Las operaciones elementales tienen el siguiente efecto en el determinante de una matriz $A$:

  1. Si todos los elementos de un renglón o columna de $A$ se multiplican por $\lambda$, entonces el determinante se multiplica por $\lambda$.
  2. Cuando se intercambian dos renglones o columnas de $A$, el determinante se multiplica por $-1$.
  3. Si a un renglón de $A$ se le suma un múltiplo escalar de otro renglón, entonces el determinante no cambia. Sucede algo análogo para columnas.

Demostración. El punto $1$ ya lo demostramos en la entrada anterior, en donde vimos que el determinante es homogéneo.

Para los puntos $2$ y $3$, usemos que si $e_1,\ldots e_n$ es la base canónica de $F^n$, el determinante de una matriz con renglones $R_1,\ldots,R_n$ es $$\det_{(e_1,\ldots,e_n)}(R_1,\ldots,R_n).$$

Intercambiar los renglones $i$ y $j$ es hacer $\det_{(e_1,\ldots,e_n)}(R_{\sigma(1)},\ldots,R_{\sigma(n)})$ para la transposición $\sigma$ que intercambia $i$ y $j$. Como el determinante es antisimétrico y $\sigma$ tiene signo $-1$, obtenemos la conclusión.

Hagamos ahora el tercer punto. Tomemos $i\neq j$ y un escalar $\lambda$. Si al $i$-ésimo renglón de $A$ le sumamos $\lambda$ veces el $j$-ésimo renglón de $A$, esto es lo mismo que multiplicar a $A$ por la izquierda por la matriz $B$ que tiene unos en la diagonal y $\lambda$ en la entrada $(i,j)$. La matriz $B$ es triangular, de modo que su determinante es el producto de las entradas, que es $1$. De esta forma, $$\det(BA)=\det(B)\det(A)=\det(A).$$

$\square$

Así, una estrategia para calcular el determinante de una matriz es hacer reducción gaussiana hasta llegar a una matriz diagonal (incluso es suficiente que sea triangular superior) de determinante $\Delta$. Si en el camino se hicieron $r$ intercambios de renglones y se multiplicaron los renglones por escalares $\lambda_1,\ldots,\lambda_s$, entonces el determinante de $A$ será $$\frac{(-1)^r \Delta}{\lambda_1\cdot\ldots\cdot \lambda_s}.$$

Otras propiedades para calcular determinantes

Aquí recolectamos otras propiedades de determinantes que pueden ayudar a calcularlos. Ya mostramos todas ellas, salvo la número $2$. Esta la mostramos después de la lista.

  1. Si se descompone una columna de una matriz como suma de dos columnas, entonces el determinantes es la suma de los determinantes en los que ponemos cada columna en vez de la original.
  2. Si $A$ es una matriz en $M_n(\mathbb{C})$, entonces el determinante de la matriz conjugada $\overline{A}$ es el conjugado del determinante de $A$.
  3. El determinante es multiplicativo.
  4. Si $A$ es una matriz en $M_n(F)$, el determinante de $\lambda A$ es $\lambda^n$ veces el determinante de $A$.
  5. El determinante de una matriz triangular es el producto de sus entradas en la diagonal.
  6. El determinante de una matriz invertible es el inverso multiplicativo del determinante de la matriz.
  7. Una matriz tiene el mismo determinante que su transpuesta.

Proposición. Si $A$ es una matriz en $M_n(\mathbb{C})$, entonces el determinante de la matriz conjugada $\overline{A}$ es el conjugado del determinante de $A$.

Demostración. La conjugación compleja abre sumas y productos. Aplicando esto repetidas veces obtenemos la siguiente cadena de igualdades:

\begin{align*}
\overline{\det(A)}&=\overline{\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\
&=\sum_{\sigma \in S_n} \overline{\text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\
&=\sum_{\sigma \in S_n} \text{sign}(\sigma)\overline{a_{1\sigma(1)}}\cdot\ldots\cdot \overline{a_{n\sigma(n)}}\\
&=\det(\overline{A}).
\end{align*}

$\square$

Hay una última técnica que es fundamental para el cálculo de determinantes: la expansión de Laplace. En algunos textos incluso se usa para definir el determinante. Probablemente la conoces: es la que consiste en hacer el determinante «con respecto a una fila o columna» y proceder de manera recursiva. Hablaremos de ella más adelante y veremos por qué funciona.

Dos problemas de cálculo de determinantes

Problema 1. Considera la matriz $$A=\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}.$$ Calcula los siguientes determinantes:

  • $\det A$
  • $\det(^t A)$
  • $\det(A^{-1})$
  • $\det(^t A A)$
  • $\det(-2A)$

Solución. Hagamos primero el determinante de la matriz $A$. Para ello, haremos operaciones elementales como sigue
\begin{align*}
&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}\\
\to&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & -\frac{14}{5} & \frac{2}{5} & 1\end{pmatrix}\\
\to &\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & -\frac{12}{5} & \frac{33}{5}\end{pmatrix}\\
\to& \begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & 0 & \frac{189}{25}\end{pmatrix}.
\end{align*}

En el primer paso sumamos $1/5$ veces el primer renglón al último. Luego, sumamos $14/5$ veces el segundo renglón al último. Finalmente, sumamos $12/25$ veces el tercer renglón al último. De esta forma, nunca cambiamos el determinante de la matriz. Así, del determinante de $A$ es el mismo que el de la matriz final, que por ser triangular superior es el producto de las entradas en su diagonal. De este modo, $$\det(A) = 5\cdot 1 \cdot 5 \cdot \frac{189}{5} = 189.$$

El determinante de una matriz es igual al de su transpuesta, así que $\det(^t A)=\det(A)$. El determinante $\det(A^{-1})$ es el inverso multiplicativo de $\det(A)$, así que es $\frac{1}{189}$.

Como el determinante es multiplicativo, $$\det({^tA}A)=\det({^tA})\det(A)=189\cdot 189=35721.$$

Finalmente, usando que el determinante es homogéneo y que estamos en $M_4(\mathbb{R})$, tenemos que
\begin{align*}
\det(-2A)&=(-2)^4\det(A)\\
&=16\cdot 189\\
&=3024.
\end{align*}

$\triangle$

Problema 2. Sean $a,b,c$ números complejos. Calculando el determinante de la matriz $$A=\begin{pmatrix}a&b&c\\ c&a&b\\ b&c&a\end{pmatrix}$$ en $M_3(\mathbb{C})$ de dos formas distintas, muestra que $$a^3+b^3+c^3-3abc=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).$$

Solución. Usando la técnica para determinantes de $3\cdot 3$ tenemos que por un lado,
\begin{align*}
\det(A) &= a^3 + b^3 + c^3 – abc – bca – cab\\
&=a^3+b^3+c^3-3abc.
\end{align*}

Por otro lado, el determinante no cambia si al primer renglón le sumamos los otros dos, así que el determinante de $A$ también es $$\begin{vmatrix}a+b+c&a+b+c&a+b+c\\ c&a&b\\ b&c&a\end{vmatrix}.$$ Como el determinante es homogéneo, podemos factorizar $a+b+c$ de la primera entrada para obtener que $$\det(A)=(a+b+c)\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix}.$$

Aplicando de nuevo la fórmula de determinantes de $3\times 3$, tenemos que $$\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix} = a^2+b^2+c^2-ab-bc-ca.$$

Concluimos entonces que $$\det(A)=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).$$ Igualando ambas expresiones para $\det(A)$ obtenemos la identidad deseada.

$\triangle$

Más adelante…

En esta entrada vimos varias formas para calcular el determinante de una matriz. Cuando nos enfrentemos con un problema que requiere el cálculo de un determinante, tenemos que elegir la que más nos convenga (o la que requiera menos pasos). La mejor forma de desarrollar un poco de «intuición» al momento de elegir el mejor método para calcular determinantes es haciendo ejercicios.

A continuación pondremos en práctica lo que aprendimos en esta entrada haciendo varios ejercicios de cálculo de determinantes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $\alpha$ un número real. Encuentra el determinante de la matriz $$\begin{pmatrix}\sin \alpha & \cos \alpha \\ -\cos \alpha & \sin \alpha \end{pmatrix}.$$
  • Determina para qué valores de $a$ la matriz $$\begin{pmatrix} a & 0 & a & 0 & a \\0 & a & 0 & a & 0 \\ 0 & 0 & a & 0 & 0 \\ 0 & a & 0 & a & 0 \\ a & 0 & a & 0 & a \end{pmatrix}$$ es invertible.
  • Encuentra el determinante de la matriz $$\begin{pmatrix} 2 & 1 & 0 & 0 & 0 \\0 & 2 & 1 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 1 & 0 & 0 & 0 & 2 \end{pmatrix}.$$
  • Sea $x$ un número complejo. Muestra que el determinante de la matriz $$\begin{pmatrix}3x^2-6x+5&2x^2-4x+2&x^2-2x\\ 2x^2-4x+2&2x^2+2x+1&x^2-x\\ x^2-2x&x^2-x&x^2\end{pmatrix}$$ es $x^6$. Sugerencia. Hay una solución simple, factorizando a la matriz como el producto de dos matrices triangulares, una superior y una inferior, una transpuesta de la otra.
  • Muestra que si $A=\begin{pmatrix}0& 1 \\ 1 & 1\end{pmatrix}$, entonces $$A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix},$$ donde $\{F_n\}$ es la sucesión de Fibonacci. Muestra que para los números de Fibonacci se satisface que $$F_{2n}=F_n(F_{n+1}+F_{n-1}).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Irreducibilidad y factorización en polinomios reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los números enteros tiene un teorema de factorización en primos: el teorema fundamental de la aritmética. Los polinomios en $\mathbb{R}[x]$ también. En esta entrada hablaremos de la irreducibilidad y factorización en polinomios reales. Lo primero lo haremos para decir «quiénes son los primos» en $\mathbb{R}[x]$. Para lo segundo usaremos el teorema del factor, que demostramos con anterioridad.

Resulta que el teorema de factorización en polinomios reales depende de un resultado importante de polinomios en $\mathbb{C}[x]$, es decir, los de coeficientes complejos. Esto es algo que sucede con frecuencia: a veces para resolver un problema en los números reales, hay que dar un paso hacia los complejos y luego regresar. Por esa razón, para esta entrada es importante que tengas en mente varias propiedades en los complejos, sobre todo cómo se realizan las operaciones y cuales son las propiedades de la conjugación compleja. Esto nos dará la oportunidad de enunciar (sin demostración) el teorema fundamental del álgebra.

Como recordatorio, un polinomio es irreducible en $\mathbb{R}[x]$ si no es un polinomio constante y no se puede escribir como producto de dos polinomios no constantes en $\mathbb{R}[x]$. Además, el teorema del factor nos dice que si $a$ es raíz de un polinomio $p(x)$, entonces $x-a$ divide a $p(x)$. Diremos que un polinomio es lineal si es de grado $1$ y cuadrático si es de grado $2$.

El teorema fundamental del álgebra

Así como construimos a $\mathbb{R}[x]$, se puede hacer algo análogo para construir a $\mathbb{C}[x]$, los polinomios de coeficientes complejos. Puedes practicar todo lo que hemos visto haciendo la construcción formal. Por el momento, para fines prácticos, puedes pensarlos como expresiones de la forma $$a_0+a_1 x + \ldots + a_n x^n$$ con $a_i$ complejos, digamos, $$(1+i)+2i x -3x^3+(5+2i)x^4.$$

Los polinomios en $\mathbb{C}[x]$ cumplen todo lo que hemos dicho de $\mathbb{R}[x]$: se vale el lema de Bézout, el algoritmo de Euclides, el teorema del factor, el teorema del residuo, etc. Una copia de $\mathbb{R}[x]$, con su estructura algebraica, «vive» dentro de $\mathbb{C}[x]$, es decir, todo polinomio con coeficientes reales se puede pensar como uno con coeficientes complejos.

Sin embargo, los polinomios en $\mathbb{R}[x]$ y en $\mathbb{C}[x]$ son muy diferentes en términos de raíces. Esto se nota, pir ejemplo, en el hecho de que el polinomio $x^2+1$ no tiene raíces en $\mathbb{R}$, pero sí en $\mathbb{C}$, donde la raíz es $i$. Resulta que esta $i$ hace toda la diferencia. Al agregarla no solamente hacemos que $x^2+1$ tenga una raíz, sino que ya todo polinomio tiene raíz. Esto está enunciado formalmente por el teorema fundamental del álgebra.

Teorema (teorema fundamental del álgebra). Todo polinomio no constante en $\mathbb{C}[x]$ tiene al menos una raíz en $\mathbb{C}$.

No vamos a demostrar este teorema durante el curso. Hay desde demostraciones elementales (como la que aparece en el bello libro Proofs from the book), hasta algunas muy cortas, pero que usan teoría un poco más avanzada (como las que se hacen en cursos de análisis complejo). Sin embargo, lo usaremos aquí para obtener algunas de sus consecuencias y, al final de esta entrada, demostrar los teoremas de irreducibilidad y factorización en polinomios reales.

Teorema de factorización en $\mathbb{C}[x]$

En la entrada anterior ya demostramos que los polinomios lineales son irreducibles. Veremos ahora que en $\mathbb{C}[x]$ no hay ningún otro polinomio irreducible.

Proposición. Los únicos polinomios irreducibles en $\mathbb{C}[x]$ son los de grado $1$.

Demostración. Tomemos cualquier polinomio $p(x)$ en $\mathbb{C}[x]$ de grado al menos $2$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz $z$ en $\mathbb{C}$. Por el teorema del factor, $$x-z \mid p(x),$$ así que podemos escribir $p(x)=(x-z)q(x)$ con $q(x)$ en $\mathbb{C}[x]$ de grado $\deg(p(x))-1\geq 1$.

De esta forma, pudimos factorizar al polinomio $p(x)$ en dos factores no constantes, y por lo tanto no es irreducible.

$\square$

Con esto podemos mostrar que en $\mathbb{C}[x]$ todo polinomio es factorizable como producto de términos lineales.

Teorema (de factorización única en $\mathbb{C}[x]$). Todo polinomio $p(x)$ en $\mathbb{C}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$p(x)=a(x-z_1)(x-z_2)\cdots(x-z_n)$$ en donde $a$ es un complejo no cero, $n$ es el grado de $p(x)$ y $z_1,\ldots,z_n$ son complejos que son raíces de $p(x)$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Procedemos por inducción en el grado de $p(x)$. Si $p(x)$ es de grado cero, entonces es de la forma $p(x)=a$ con $a$ un complejo, y ya está en la forma que queremos.

Tomemos ahora un entero $n\geq 1$. Supongamos que el resultado es cierto para los polinomios de grado $n-1$ y consideremos un polinomio $p(x)$ de grado $n$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz, digamos $z_n$. Usando el teorema del factor, existe un polinomio $q(x)$, que debe de ser de grado $n-1$, tal que $$p(x)=q(x)(x-z_n).$$ Aplicando la hipótesis inductiva a $q(x)$, podemos factorizarlo de la forma $$q(x)=a(x-z_1)(x-z_2)\cdots(x-z_{n-1}),$$ con $z_1,\ldots,z_{n-1}$ raíces de $q(x)$ (y por lo tanto también raíces de $p(x)$). De esta forma, $$p(x)=(x-z_1)(x-z_2)\cdots(x-z_{n-1})(x-z_n)$$ es una factorización que cumple lo que queremos. Esto termina la hipótesis inductiva, y por lo tanto la parte de existencia de la demostración.

$\square$

Ejemplo. Consideremos al polinomio $$p(x)=x^4+5x^2+4$$ en $\mathbb{R}[x]$. Este polinomio no tiene raíces reales, pues sus evaluaciones siempre son positivas. Sin embargo, lo podemos pensar como un polinomio en $\mathbb{C}[x]$. Por el teorema fundamental del álgebra, este polinomio debe tener una raíz en $\mathbb{C}$.

Afortunadamente, podemos encontrarla por inspección. Una de estas raíces es $i$, pues $$i^4+5i^2+4=1-5+4=0.$$ Por el teorema del factor, $x-i$ divide a $p(x)$. Al realizar la división, obtenemos $$p(x)=(x-i)(x^3+ix^2+4x+4i).$$ De aquí, por inspección, obtenemos que $-i$ es una raíz de $x^3+ix^2+4x+4i$, y realizando la división entre $x+i$, tenemos que $$p(x)=(x-i)(x+i)(x^2+4).$$

El polinomio $x^2+4$ claramente tiene como raíces a $2i$ y $-2i$. A partir de todo esto concluimos que $$p(x)=(x-i)(x+i)(x-2i)(x+2i)$$ es la factorización de $p(x)$ en polinomios lineales en $\mathbb{C}[x]$.

$\square$

En el ejemplo anterior podemos agrupar los factores $(x-i)$ y $(x+i)$ para obtener el polinomio $x^2+1$. De aquí obtenemos la factorización alternativa $$p(x)=(x^2+1)(x^2+2).$$ Esta factorización tiene puros coeficientes reales. Aquí hay que hacer una observación importante: esta no es una factorización en irreducibles en $\mathbb{C}[x]$, pero sí es una factorización en irreducibles en $\mathbb{R}[x]$. Retomaremos varias de estas ideas más en general en las siguientes secciones.

Raíces complejas de polinomios en $\mathbb{R}[x]$

En el ejemplo de la sección anterior sucedió que $i$ era una raíz de $p(x)$, y que $-i$ también. Cuando tenemos un polinomio de coeficientes reales y $z$ es un complejo que es raíz, entonces su conjugado también.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y $z$ un número en $\mathbb{C}$. Si $p(z)=0$, entonces $p(\overline{z})=0$.

Demostración. Si $p(x)$ es el polinomio cero, la afirmación es cierta. En otro caso, sea $n$ el grado de $p(x)$ y escribamos a $p(x)$ como $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ donde $a_i$ son números en $\mathbb{R}$ para $i=0,\ldots,n$. Por lo que sabemos de la conjugación compleja, $\overline{a_i}=a_i$, y además abre sumas y productos. Así,
\begin{align*}
\overline{p(z)}&=\overline{a_0+a_1z+\ldots+a_nz^n}\\
&=\overline{a_0}+\overline{a_1z}+\ldots +\overline{a_nz^n}\\
&=\overline{a_0} + \overline{a_1}\, \overline{z} + \ldots +\overline{a_n}\, \overline{z}^n\\
&=a_0 + a_1 \overline{z} + \ldots + a_n \overline{z}^n\\
&=p(\overline{z}).
\end{align*}

Como $p(z)=0$, concluimos que $$p(\overline{z})=\overline{p(z)}=\overline{0}=0.$$

$\square$

El resultado anterior no es cierto en general para polinomios con coeficientes en $\mathbb{C}[x]$. Esto debe ser muy claro pues, por ejemplo, $i$ es raíz de $x-i$, pero $-i$ no.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y una raíz $z$ de $p(x)$ en $\mathbb{C}\setminus \mathbb{R}$. Entonces el polinomio $$q(x)=x^2-(z+\overline{z})x+z\overline{z}$$ es un polinomio en $\mathbb{R}[x]$ que divide a $p(x)$ en $\mathbb{R}[x]$.

Demostración. Observa que $q(x)=(x-z)(x-\overline{z})$. Recordemos que
\begin{align*}
z+\overline{z}&=2\Rea{(z)} \\
z\overline{z}&=\norm{z}^2 .
\end{align*}

Esto muestra que los coeficientes de $q(x)$ son reales. Usemos el algoritmo de la división en $\mathbb{R}[x]$ para escribir $$p(x)=q(x)h(x)+r(x),$$ con $r(x)$ el polinomio cero, o de grado a lo más $1$.

Evaluando en $z$ y en $\overline{z}$, se obtiene que $r(z)=r(\overline{z})=0$. Como $z$ no es real, entonces $z$ y $\overline{z}$ son distintos. De este modo, $r(x)$ es el polinomio cero. Así, $p(x)=q(x)h(x)$ es una factorización de $p(x)$ en $\mathbb{R}[x]$ que usa a $q(x)$.

$\square$

Nuevamente, hay que tener cuidado con las hipótesis del resultado anterior. Es muy importante que usemos que $z$ es una raíz compleja y no real de un polinomio con coeficientes reales. En la tarea moral puedes encontrar un contraejemplo si no se satisfacen las hipótesis.

Ejemplo. Consideremos el polinomio $$p(x)=2x^3-16x^2+44x-40.$$ Una de sus raíces complejas es $3+i$, como puedes verificar. Como es un polinomio con coeficientes reales, el conjugado $3-i$ también es una raíz. Tal como lo menciona la proposición anterior, el polinomio
\begin{align*}
q(x):&=(x-(3+i))(x-(3-i))\\
&=x^2-(3+i+3-i)x+(3+i)(3-i)\\
&=x^2-6x+10
\end{align*}

es un polinomio de coeficientes reales. Además, divide a $p(x)$ en $\mathbb{R}[x]$ pues haciendo la división polinomial, tenemos que $$2x^3-16x^2+44x-40=(2x-4)(x^2-6x+10).$$

$\square$

Irreducibilidad y factorización en polinomios reales

Con todo lo que hemos hecho hasta ahora, estamos listos para probar los resultados que queremos en $\mathbb{R}[x]$. Observa que los enunciados de las secciones anteriores involucran a $\mathbb{C}$, pero los de esta sección ya no. Sin embargo, para hacer las demostraciones tenemos que dar un «brinco momentáneo a los complejos».

Recuerda que para un polinomio cuadrático $q(x)=ax^2+bx+c$ su discriminante es $b^2-4ac$.

Teorema (irreducibilidad en polinomios reales). Los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

Demostración. Ya mostramos antes que los polinomios lineales son irreducibles. Si $q(x)=ax^2+bx+c$ es un polinomio cuadrático y $r$ es una raíz real, tenemos que
\begin{align*}
ar^2+br+c&=0\\
r^2+\frac{b}{a}r+\frac{c}{a}&=0\\
r^2+\frac{b}{a}r+\frac{b^2}{4a^2}-\frac{b^2}{4a^2}+\frac{c}{a}&=0\\
\left(r+\frac{b}{2a}\right)^2&=\frac{b^2-4ac}{4a^2}.
\end{align*}

De esta igualdad, obtenemos que $\frac{b^2-4ac}{4a^2}\geq 0$ y por lo tanto que $b^2-4ac \geq 0$. Dicho de otra forma, si $b^2-4ac<0$, entonces $q(x)$ no tiene raíces reales. De esta misma equivalencia de igualdades se puede ver que si $b^2-4ac\geq 0$, entonces $q(x)$ sí tiene por lo menos una raíz real.

Supongamos que $q(x)$ es un polinomio cuadrático con discriminante negativo. Si existiera una factorización en $\mathbb{R}[x]$ de la forma $q(x)=a(x)b(x)$, con ninguno de ellos constante, entonces ambos deben tener grado $1$. Podemos suponer que $a$ es mónico. Pero entonces $a(x)=x-r$ para $r$ un real, y por el teorema del factor tendríamos que $r$ sería raíz de $q(x)$, una contradicción a la discusión anterior. Esto muestra que $q(x)$ es irreducible.

Falta ver que no hay ningún otro polinomio irreducible en $\mathbb{R}[x]$. Cuando $p(x)$ es cuadrático de discriminante no negativo, entonces por la fórmula cuadrática tiene al menos una raíz real $r$ y por lo tanto $x-r$ divide a $p(x)$, mostrando que no es irreducible.

Si $p(x)$ es de grado mayor o igual a $3$ y tiene una raíz real $r$, sucede lo mismo. En otro caso, es de grado mayor o igual a $3$ y no tiene raíces reales. Pero de cualquier forma tiene al menos una raíz compleja $z$. Usando la proposición de la sección anterior, tenemos que $x^2-(z+\overline{z})x+z\overline{z}$ es un polinomio de coeficientes reales que divide a $p(x)$ en $\mathbb{R}[x]$, lo cual muestra que no es irreducible.

Concluimos entonces que los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

$\square$

Ahora sí podemos enunciar el resultado estelar de esta entrada.

Teorema (factorización en polinomios reales). Todo polinomio $p(x)$ en $\mathbb{R}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$a(x-r_1)\cdots(x-r_m)(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n}),$$ en donde:

  • $a$ es un real distinto de cero,
  • $m$ y $n$ son enteros tales que $m+2n$ es igual al grado de $p(x)$,
  • para cada $i$ en $\{1,\ldots,m\}$ se tiene que $r_i$ es raíz real de $p(x)$ y
  • para cada $j$ en $ \{1,\ldots,n\}$ se tiene que $b_j,c_j$ son reales tales que $b_j^2-4c_j<0$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Si $p(x)$ es irreducible, entonces al factorizar su coeficiente principal $a$ obtenemos la factorización deseada. Si $p(x)$ no es irreducible, procedemos por inducción fuerte sobre el grado $d$ de $p(x)$. El menor grado que debe tener es $2$ para no ser irreducible.

Si $d=2$ y es no irreducible, el resultado es cierto pues se puede factorizar como dos factores lineales y luego factorizar al término $a$ los coeficientes principales de cada factor para que queden mónicos.

Sea $d\geq 3$ y supongamos el resultado cierto para todo polinomio de grado menor a $d$. Tomemos un polinomio $p(x)$ de grado $d$. Por el teorema de irreducibilidad de polinomios reales, $p(x)$ no es irreducible, así que se puede factorizar como $p(x)=r(x)s(x)$ con $r(x)$ y $s(x)$ no constantes, y por lo tanto de grado menor al de $p(x)$. Por hipótesis inductiva, tienen una factorización como la del teorema. La factorización de $p(x)$ se obtiene multiplicando ambas. Esto termina la inducción.

$\square$

Veamos cómo podemos usar todas estas ideas en un problema en concreto de factorización en polinomios reales.

Problema. Factoriza al polinomio $x^{12}-1$ en polinomios irreducibles en $\mathbb{R}[x]$.

Solución. Usando identidades de factorización, podemos avanzar bastante:
\begin{align*}
x^{12}-1&=(x^6-1)(x^6+1)\\
&=(x^3-1)(x^3+1)(x^6+1)\\
&=(x-1)(x^2+x+1)(x+1)(x^2-x+1)(x^2+1)(x^4-x^2+1).
\end{align*}

Hasta aquí, $x+1$ y $x-1$ son factores lineales. Además, $x^2+x+1$, $x^2-x+1$ y $x^2+1$ son factores cuadráticos irreducibles pues sus discriminantes son, respectivamente, $-3,-3,-4$.

Aún queda un factor $x^4-x^2+1$ que por ser de grado $4$ no es irreducible. Sumando y restando $2x^2$, y luego factorizando la diferencia de cuadrados, tenemos:
\begin{align*}
x^4-x^2+1 &= x^4+2x^2+1-3x^2\\
&=(x^2+1)^2-3x^2\\
&=(x^2+1-\sqrt{3}x)(x^2+1+\sqrt{3}x).
\end{align*}

Cada uno de estos factores cuadráticos tiene discriminante $-1$, y por lo tanto es irreducible. Concluimos entonces que la factorización en irreducibles de $x^{12}-1$ en $\mathbb{R}[x]$ es
\begin{align*}
(x-1)(x&+1)(x^2+1)(x^2+x+1)\\
&(x^2-x+1)(x^2+\sqrt{3}x+1)(x^2-\sqrt{3}x+1).
\end{align*}

$\square$

Más adelante…

El teorema fundamental del álgebra y sus consecuencias en $\mathbb{R}$ son los resultados algebraicos más importantes que obtendremos en el estudio de polinomios, ya que nos permite caracterizar, al menos en teoría a todos los polinomios a partir de sus raíces.

En las siguientes entradas ocuparemos las herramientas que hemos desarrollado hasta ahora, sin embargo cambiaremos el enfoque de estudio, usaremos también herramientas de los cursos de cálculo para poder dar un análisis más detallado del comportamiento de los polinomios, y que nos servirán para que en muchos casos podamos encontrar las raíces de un polinomio, o cuando menos tener una idea de cómo son.

Tarea moral

  • Haz la construcción formal de $\mathbb{C}[x]$ a partir de sucesiones de complejos. Muestra que se pueden expresar en la notación de $x$ y sus potencias. Prueba los teoremas que hemos visto hasta ahora. Todo debe ser análogo al caso real, por lo que te servirá mucho para repasar los conceptos vistos hasta ahora.
  • Muestra la unicidad de la factorización en $\mathbb{C}[x]$ y en $\mathbb{R}[x]$.
  • Sea $z$ un complejo no real. Muestra que que $x-z$ y $x-\overline{z}$ son polinomios primos relativos en $\mathbb{C}[x]$.
  • Hay que tener cuidado en las hipótesis de los teoremas de esta entrada. Muestra que $3$ es una raíz del polinomio $x^3-6x^2+11x-6$, pero que $x^2-6x+9$ no divide a este polinomio.
  • Argumenta por qué en el teorema de factorización en polinomios reales sucede que $m+2n$ es el grado de $p(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»