Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Por Blanca Radillo

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo $F$ es $\mathbb{Z}_2$, y el siguiente ejemplo lo expone:

Ejemplo. Sea $f:\mathbb{Z}_2 \times \mathbb{Z}_2 \rightarrow \mathbb{Z}_2$ definido como $f(x,y)=xy$. Claramente $f$ es bilineal, pero no es alternate ya que $f(1,1)=1\neq 0$. Por otro lado, $f$ es antisimétrica, porque $f(x,y)+f(y,x)=xy+yx=2xy=0$.

$\triangle$

De manera natural surge la pregunta: ¿cómo podemos construir una transformación $d$-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo $d$-lineal $f$.

Problema. Sea $f:V^d \rightarrow W$ una transformación $d$-lineal. Demuestra que

$A(f):=\sum_{\sigma \in S_d} \text{sign}(\sigma) \sigma (f)$

es un mapeo $d$-lineal antisimétrico.

Solución. Es fácil ver que $A(f)$ es una transformación $d$-lineal, dado que $A(f)$ es una combinación lineal de mapeos $d$-lineales. Queremos probar que, para $\tau \in S_d$, $\tau (A(f))=\text{sign}(\tau) A(f)$. Notemos que

\begin{align*}
\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\sigma) \tau(\sigma(f)) \\
&= \sum_{\sigma \in S_d} \text{sign}(\sigma) (\tau\sigma)(f).
\end{align*}

Usando el hecho que $\text{sign}(\tau)\text{sign}(\sigma)=\text{sign}(\tau\sigma)$ y que $\{ \tau \sigma : \sigma \in S_d \}=S_d$, obtenemos que

\begin{align*}
\text{sign}(\tau)\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\tau\sigma) (\tau\sigma)(f) \\
&= \sum_{\eta \in S_d} \text{sign}(\eta) (\eta)(f) =A(f).
\end{align*}

Por lo tanto, $\tau(A(f))=\text{sign}(\tau)A(f)$.

$\square$

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma $n$-lineal alternante, y además que cualquier otra forma $n$-lineal alternante varía de $\det(b_1,\ldots,b_n)$ únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema 1. Sea $V$ un espacio vectorial sobre $F$ de dimensión finita. Sea $e_1,\ldots,e_n$ una base de $V$ y sea $T:V\rightarrow V$ una transformación lineal. Demuestra que para todo $v_1,\ldots,v_n\in V$ tenemos que

$\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots, v_n) =\text{Tr}(T)\cdot \det(v_1,\ldots,v_n),$

donde todos los determinantes están calculados en la base canónica y $\text{Tr}(T)$ es la traza de la matriz de $T$ (con respecto a la base canónica).

Solución. Definimos el mapeo $\phi:V^n\rightarrow F$ como

$\phi(v_1,\ldots,v_n)=\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n).$

Esta transformación es la suma de transformaciones $n$-lineales, por lo tanto $\phi$ es $n$-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que $v_1=v_2$, entonces

\begin{align*}
\phi(v_1,v_1,v_3,\ldots,v_n) &=\det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&+ \sum_{i=3}^n \det(v_1,v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)- \det(T(v_1),v_1,v_3,\ldots,v_n) \\
&=0,
\end{align*}

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar $\alpha$ tal que

$\phi(v_1,\ldots,v_n)=\alpha \det(v_1,\ldots,v_n)$

para todo $v_1,\ldots,v_n$. Sea $A=[a_{ij}]$ la matriz de $T$ con respecto a la base canónica. Si tomamos $v_1=e_1,\ldots,v_n=e_n$, por el mismo teorema tenemos que

\begin{align*}
\alpha &= \phi(e_1,\ldots,e_n) \\
&=\sum_{i=1}^n \det(e_1,\ldots,e_{i-1},\sum_{j=1}^n a_{ji}e_j, e_{i+1},\ldots,e_n)\\
&=\sum_{i=1}^n \sum_{j=1}^n a_{ji}\det(e_1,\ldots,e_{i-1},e_j,e_{i+1},\ldots,e_n) \\
&= \sum_{i=1}^n a_{ii} = \text{Tr}(T).
\end{align*}

Por lo tanto, obtenemos lo que queremos.

$\square$

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema 2. Sea $n$ un número impar y sean $A,B\in M_n(\mathbb{R})$ matrices tal que $A^2+B^2=0_n$. Prueba que la matriz $AB-BA$ no es invertible.

Solución. Notemos que

$(A+iB)(A-iB)=A^2+B^2+i(BA-AB)=i(BA-AB).$

Por la propiedad del determinante de un producto, tenemos que

$\det(A+iB)\det(A-iB)=i^n \det(BA-AB).$

Suponemos que $AB-BA$ es invertible, entonces $\det(BA-AB)\neq 0$. Además sabemos que

$\det(A-iB)=\det(\overline{A+iB})=\overline{\det(A+iB)},$

esto implica que $|\det(A+iB)|^2=i^n\det(BA-AB).$ Como consecuencia, $i^n$ es un número real, contradiciendo al hecho que $n$ es impar. Por lo tanto $\det(BA-AB)=0$.

$\square$

Problema 3. Para $1\leq i,j\leq n$, definimos $a_{ij}$ como el número de divisores positivos en común de $i$ y $j$ y definimos $b_{ij}$ igual a 1 si $j$ divide $i$ e igual a 0 si no.

  1. Probar que $A=B\cdot ^t B$, donde $A=[a_{ij}]$ y $B=[b_{ij}]$.
  2. ¿Qué podemos decir de la forma de $B$?
  3. Calcula $\det(A)$.

Solución. 1) Fijando $i,j$ tenemos que

$\det(B\cdot ^t B)_{ij}=\sum{k=1}^n b_{ik}b_{jk}.$

Notemos que $b_{ik}b_{jk}$ no es cero ($b_{ij},b_{jk}=1$) si y sólo si $k$ divide a $i$ y a $j$, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan $i$ y $j$. Por lo tanto $\det(B\cdot ^tB)_{ij}=a_{ij}$.

2) Si $i<j$, no es posible que $j$ divida a $i$. Entonces $b_{ij}=0$ para todo $i<j$, esto significa que $B$ es, al menos, triangular inferior. Un dato más que podemos asegurar es que $b_{ii}=1$ para toda $i$, por lo tanto, al menos, todos los términos de la diagonal de $B$ son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que $\det(B)=\det(^tB)$ y usando el inciso (1), tenemos que $\det(A)=\det(B\cdot ^tB)=(\det B)^2.$ Pero por el inciso (2), $\det B=1$, concluimos que $\det A=1$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Seguimos con las entradas de temas de desigualdades. Con anterioridad ya hablamos de desigualdades básicas y de desigualdades con medias. En esta ocasión estudiaremos una desigualdad muy versátil: la desigualdad de Cauchy-Schwarz.

En su versión más simple, lo que dice la desigualdad de Cauchy-Schwarz es lo siguiente.

Desigualdad (de Cauchy-Schwarz). Para cualesquiera números reales $a_1,\ldots,a_n$ y $b_1,\ldots,b_n$ se tiene que $$|a_1b_1+\ldots+a_nb_n| \leq \sqrt{a_1^2+\ldots+a_n^2} \sqrt{b_1^2+\ldots+b_n^2}.$$

Primero, veremos cómo se demuestra esta desigualdad. Luego, veremos varios problemas en los que se puede aplicar. Finalmente, hablaremos un poco de sus extensiones a espacios vectoriales.

La demostración polinomial de la desigualdad de Cauchy-Schwarz

Una forma de demostrar la desigualdad de Cauchy-Schwarz es usando inducción sobre $n$. Hay otra demostración usando polinomios. Veamos esa demostración, pues tiene la idea útil de usar argumentos polinomiales para demostrar igualdades.

Consideremos la expresión $$p(t)=\sum_{i=1}^n (a_i+b_i t)^2.$$ Como es una suma de cuadrados, esta expresión es no negativa. Haciendo los cuadrados, y desarrollando la suma, podemos escribirla de la siguiente forma, que nos dice que es un polinomio cuadrático en $t$:

\begin{align*}
\sum_{i=1}^n (a_i+b_i t)^2&=\sum_{i=1}^n \left(a_i^2 + 2a_ib_i t + b_i^2 t^2\right)\\
&=\sum_{i=1}^n a_i^2 + \left(2\sum_{i=1}^n a_ib_i \right)t + \left(\sum_{i=1}^n b_i^2\right)t^2.
\end{align*}

De esta forma $p(t)$ es un polinomio cuadrático y siempre toma valores no negativos. Así, a lo más puede tener una raíz $t$, por lo que su discriminante es menor o igual a $0$:

$$ \left(2\sum_{i=1}^n a_ib_i \right)^2-4\left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right)\leq 0$$

Al pasar el segundo término sumando al otro lado y dividir entre $4$ queda

$$\left(\sum_{i=1}^n a_ib_i \right)^2\leq \left(\sum_{i=1}^n a_i^2\right)\left(\sum_{i=1}^n b_i^2\right).$$

Al sacar raíz cuadrada de ambos lados hay que tener cuidado de poner un valor absoluto al lado izquierdo. Al hacer esto, se obtiene el resultado deseado: $$\left|\sum_{i=1}^n a_ib_i \right|\leq \sqrt{\sum_{i=1}^n a_i^2}\cdot \sqrt{\sum_{i=1}^n b_i^2}.$$

Observa que la igualdad se da si y sólo si el discriminante es $0$, lo cual sucede si y sólo si el polinomio tiene una raíz $t$. Cuando esto pasa, cada uno de los sumandos al cuadrado de $p(t)$ debe ser $0$. Así, existe un real $t$ tal que $a_i=-tb_i$ para todo $i=1,\ldots,n$. Esto lo podemos decir en términos vectoriales como que «la igualdad se da si y sólo si el vector $(a_1,\ldots,a_n)$ es un múltiplo escalar del vector $(b_1,\ldots,b_n)$ » .

Un problema sobre acotar el valor de una variable

Problema. Sean $a,b,c,d$ números reales tales que
\begin{align*}
a+b+c+d&=6\\
a^2+b^2+c^2+d^2&=12.
\end{align*}
¿Cuál es el máximo valor que puede tener $d$?

Sugerencia. Aplica la desigualdad de Cauchy-Schwarz a las ternas $(a,b,c)$ y $(1,1,1)$.

Solución. Aplicando la desigualdad a las ternas $(a,b,c)$ y $(1,1,1)$ obtenemos que $$|a+b+c|\leq \sqrt{a^2+b^2+c^2}\cdot{\sqrt{3}}.$$ Usando las hipótesis sobre $a,b,c,d$, tenemos que esta desigualdad es equivalente a $|6-d|\leq \sqrt{3}\cdot {\sqrt{12-d^2}$. Elevando al cuadrado de ambos lados, obtenemos las desigualdades equivalentes
\begin{align*}
36-12d+d^2&\leq 3(12-d^2)\\
36-12d+d^2&\leq 36-3d^2\\
4d^2-12d&\leq 0\\
4d(d-3)&\leq 0.
\end{align*}

Para que se satisfaga esta desigualdad, tiene que pasar o bien que simultáneamente $d\leq 0$ y $d\geq 3$ (lo cual es imposible), o bien que simultáneamente $d\geq 0$ y $d\leq 3$. En conclusión, esto acota el máximo valor posible de $d$ con $3$.

En efecto, existe una solución con $d=3$. De acuerdo al caso de igualdad de la desigualdad de Cauchy-Schwarz, debe pasar cuando $(a,b,c)$ es un múltiplo escalar de $(1,1,1)$, es decir, cuando $a=b=c$. Como $a+b+c+d=6$ y queremos $d=3$, esto forza a que $a=b=c=1$. Y en efecto, tenemos que con esta elección $$a^2+b^2+c^2+d^2=1+1+1+9=12.$$

$\square$

Aplicando Cauchy-Schwarz en un problema con el circunradio

A veces podemos aprovechar información implícita en un problema geométrico y combinarla con la desigualdad de Cauchy-Schwarz. Veamos un problema en el que sucede esto.

Problema. Sea $P$ un punto en el interior del triángulo $ABC$ y $p,q,r$ las distancias de $P$ a los lados $BC, CA, AB$ respectivamente, que tienen longitudes $a,b,c$, respectivamente. Sea $R$ el circunradio de $ABC$. Muestra que $$\sqrt{p}+\sqrt{q}+\sqrt{r} \leq \sqrt{\frac{a^2+b^2+c^2}{2R}}.$$

Sugerencia pre-solución. Necesitarás aplicar la desigualdad de Cauchy-Schwarz más de una vez. Haz una figura para entender la expresión $ap+bq+cr$. Necesitarás también la fórmula que dice que se puede calcular el área $T$ de un triángulo mediante la fórmula $$T=\frac{abc}{R}.$$

Solución. Lo primero que haremos es aplicar la desigualdad de Cauchy-Schwarz en las ternas $(\sqrt{ap},\sqrt{bq},\sqrt{cr})$ y $(1/\sqrt{a},1/\sqrt{b},1/\sqrt{c})$ para obtener $$\sqrt{p}+\sqrt{q}+\sqrt{r}\leq \sqrt{ap+bq+cr}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}.$$

Observa que $ap$ es dos veces el área de $\triangle BCP$. De manera similar, tenemos que $bq$ y $cr$ son las áreas de $\triangle CAP$ y $\triangle ABP$ respectivamente. Así, si llamamos $T$ al área de $\triangle ABC$ tenemos que $ap+bq+cr=2T$. Otra expresión para el área de $\triangle ABC$ en términos de su circunradio $R$ es $$T=\frac{abc}{4R}.$$ En otras palabras, $ap+bq+cr=\frac{abc}{2R}$.

Esto nos permite continuar con la desigualdad como sigue:
\begin{align*}
\sqrt{p}+\sqrt{q}+\sqrt{r} &\leq \sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{1}{a}+\frac{1}{b}+\frac{1}{c}}\\
&=\sqrt{\frac{abc}{2R}}\cdot\sqrt{\frac{ab+bc+ca}{abc}}\\
&=\sqrt{\frac{ab+bc+ca}{2R}}.
\end{align*}

Esto es casi la desigualdad que queremos. Para terminar, basta mostrar que $$ab+bc+ca\leq a^2+b^2+c^2.$$ Esto se puede hacer de varias formas (intenta hacerlo usando la desigualdad MA-MG). Pero para continuar viendo la versatilidad de la desigualdad de Cauchy-Schwarz, observa que se puede deducir de ella aplicándola a las ternas $(a,b,c)$ y $(b,c,a)$.

$\square$

En el problema anterior, ¿para qué puntos $P$ se alcanza la igualdad?

Cauchy-Schwarz más allá de los números reales

Lo que está detrás de la desiguadad de Cauchy-Schwarz es en realidad la noción de producto interior en álgebra lineal. En cualquier espacio vectorial sobre los reales que tenga un producto interior $\langle \cdot, \cdot \rangle$ se satisface una desigualdad del tipo de la de Cauchy-Schwarz. No entraremos en los detalles de la teoría que se necesita desarrollar, pues eso se estudia en un curso de álgebra lineal. Sin embargo, enunciaremos el teorema y veremos una forma de aplicarlo.

Teorema (desigualdad de Cauchy-Schwarz). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$|\langle u , v\rangle|\leq \sqrt{\langle u , u\rangle}\cdot \sqrt{\langle v , v\rangle}.$$

Se puede mostrar que bajo las hipótesis del teorema la función $\norm{u}:=\langle u , u\rangle$ es una norma. Como platicamos con anterioridad, una norma satisface la desigualdad del triángulo, que en espacios vectoriales tiene un nombre especial.

Teorema (desigualdad de Minkowski). Si $V$ es un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ y $\norm{u}:=\langle u , u\rangle$, entonces para cualesquiera dos vectores $u$ y $v$ se satisface que $$\norm{u}+\norm{v}\geq \norm{u+v}.$$

Es relativamente sencillo ver que las desigualdades de Cauchy-Schwarz y de Minkowski son «equivalentes», en el sentido de que se puede mostrar una fácilmente suponiendo la otra y viceversa.

La desigualdad de Cauchy-Schwarz que usamos en las secciones anteriores es para el producto interior en $\mathbb{R}^n$ dado por $$\langle (a_1,\ldots,a_n),(b_1,\ldots,b_n) \rangle = a_1b_1+\ldots + a_nb_n,$$ al cual le llamamos el producto punto.

Si tenemos a $V$ el espacio vectorial de las funciones continuas reales en el intervalo $[0,1]$, entonces $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ es un producto interior para $V$. Esto nos puede ayudar a resolver algunos problemas.

Problema. Sea $f:[0,1]\to \mathbb{R}^+$ una función continua. Muestra que $$\left ( \int_0^1 f(x)\, dx \right) \left (\int_0^1 \frac{1}{f(x)}\, dt \right) \geq 1.$$

Sugerencia pre-solución. Aplica la desigualdad de Cauchy-Schwarz con el producto interior que discutimos antes de esta entrada.

Solución. Tomemos el producto interior $$\langle f,g\rangle = \int_0^1 f(x)g(x) \, dx$$ en el espacio vectorial de funciones reales y continuas en $[0,1]$. Como la imagen de $f$ está en los reales positivos, podemos definir la función $h:[0,1]\to \mathbb{R}^+$ dada por $h(x)=\sqrt{f(x)}$.

Tenemos que
\begin{align*}
\left \langle h, \frac{1}{h}\right \rangle &= \int_0^1 h(x)\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 1\, dx\\
&=1.
\end{align*}

Por otro lado,

\begin{align*}
\langle h, h \rangle &= \int_0^1 h(x)\cdot h(x)\, dx\\
&=\int_0^1 f(x)\, dx.
\end{align*}

y

\begin{align*}
\left\langle \frac{1}{h}, \frac{1}{h} \right\rangle&= \int_0^1 \frac{1}{h(x)}\cdot \frac{1}{h(x)}\, dx\\
&=\int_0^1 \frac{1}{f(x)}\, dx
\end{align*}

La conclusión se sigue entonces de manera inmediata de la desigualdad de Cauchy-Schwarz para $\langle \cdot, \cdot \rangle$.

$\square$

Más problemas

Puedes encontrar más problemas que usan la desigualdad de Cauchy-Schwarz en la sección 7.1 del libro Problem Solving through Problems de Loren Larson. También puedes consultar más técnicas y problemas en el libro Desigualdades de la Olimpiada Mexicana de Matemáticas.

Álgebra Lineal I: Técnicas básicas de cálculo de determinantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

Ya definimos a los determinantes para vectores, para transformaciones y para matrices. Además, mostramos algunas propiedades básicas de determinantes y las usamos para resolver varios problemas. Como hemos discutido, los determinantes guardan información importante sobre una transformación lineal o sobre una matriz. También ayudan a implementar la técnica de diagonalización la cual introdujimos hace algunas entradas y en la cual profundizaremos después. Es por esta razón que es importante tener varias técnicas para el cálculo de determinantes.

Fuera de este curso, los determinantes sirven en muchas otras áreas de las matemáticas. Cuando se hace cálculo de varias variables ayudan a enunciar el teorema del cambio de variable. En combinatoria ayudan a calcular el número de árboles generadores de una gráfica. Más adelante en tu formación matemática es probable que te encuentres con otros ejemplos.

Calculo de determinantes de $2\times 2$

Como ya discutimos anteriormente, una matriz en $M_2(F)$, digamos $A=\begin{pmatrix}a&b\\ c&d\end{pmatrix}$ tiene determinante $ad-bc$.

Problema. Calcula el determinante de la matriz $$\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}^8.$$

Solución. Por la fórmula para el determinante de las matrices de $2\times 2$, se tiene que $\begin{vmatrix} 0 & 1\\ 1 & 1\end{vmatrix} = 0\cdot 1 – 1\cdot 1 = -1.$

Como el determinante es multiplicativo, $\det(A^2)=\det(A)\det(A)=(\det(A))^2$, e inductivamente se puede mostrar que para todo entero positivo $n$ se tiene que $\det(A^n)=(\det(A))^n$. De esta forma, el determinante que buscamos es $(-1)^8=1$.

$\triangle$

Observa que hubiera tomado más trabajo elevar la matriz a la octava potencia. Aunque esto usualmente no es recomendable, en este problema hay algo interesante que sucede con esta matriz. Llamémosla $A=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}$. Haciendo las cuentas para las primeras potencias, se tiene que
\begin{align*}
A&=\begin{pmatrix} 0 & 1\\ 1 & 1\end{pmatrix}\\
A^2&=\begin{pmatrix} 1 & 1\\ 1 & 2\end{pmatrix}\\
A^3&=\begin{pmatrix} 1 & 2\\ 2 & 3\end{pmatrix}\\
A^4&=\begin{pmatrix} 2 & 3\\ 3 & 5\end{pmatrix}\\
A^5&=\begin{pmatrix} 3 & 5\\ 5 & 8\end{pmatrix}
\end{align*}

Aquí aparece la sucesión de Fibonacci, dada por $F_0=0$, $F_1=1$ y $F_{n+2}=F_{n+1}+F_n$ para $n\geq 0$, cuyos primeros términos son $$0,1,1,2,3,5,8,13,21,\ldots.$$ De hecho se puede probar por inducción que $$A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix}.$$

Así, por un lado el determinante de la matriz $A^n$ es $F_{n-1}F_{n+1}-F_n^2$, usando la fórmula de determinante de $2\times 2$. Por otro lado, es $(-1)^n$, por el argumento del problema. Con esto hemos demostrado que para cualquier entero $n$ tenemos la siguiente identidad para los números de Fibonacci: $$F_{n-1}F_{n+1}-F_n^2 = (-1)^n.$$

Cálculo de determinantes de $3\times 3$

Para calcular el determinante de una matriz en $M_3(F)$ por definición, digamos de $A=\begin{pmatrix}a&b&c\\ d&e&f\\ g&h&i\end{pmatrix}$, tenemos que hacer una suma de $3!=6$ términos. Si se hacen las cuentas de manera explícita, el valor que se obtiene es $$aei+bfg+cdh-ceg-afh-bdi.$$

Esto se puede recordar mediante el siguiente diagrama, en el cual se ponen la primera y la segunda columna de nuevo, a la derecha. Las diagonales hacia abajo son términos positivos y las diagonales hacia arriba son términos negativos.

Cálculo de determinantes de matrices de 3x3
Cálculo de determinantes de $3\times 3$

Veamos un ejemplo de un problema en el que se puede aprovechar esta técnica.

Problema. Determina para qué reales $a,b,c$ se tiene que los vectores $(a,b,0)$, $(a,0,b)$ y $(0,a,b)$ son una base de $\mathbb{R}^3$.

Solución. Para que estos vectores sean una base de $\mathbb{R}^3$, basta con que sean linealmente independientes, pues son $3$. Como hemos visto en entradas anteriores, para que sean linealmente independientes, es necesario y suficiente que el determinante de la matriz $\begin{pmatrix}a&b&0\\ a&0&b\\ 0&a&b\end{pmatrix}$ sea distinto de cero.

Usando la técnica de arriba, hacemos siguiente diagrama:

De aquí, vemos que el determinante es $$0+0+0-0-a^2b-ab^2=-ab(a+b).$$ Esta expresión es igual a cero si $a=0$, si $b=0$ o si $a+b=0$. En cualquier otro caso, el determinante no es cero, y por lo tanto los vectores forman una base.

$\triangle$

Ten mucho cuidado. Esta técnica no funciona para matrices de $4\times 4$ o más. Hay una forma sencilla de convencerse de ello. Por ejemplo, el determinante de una matriz de $4\times 4$ debe tener $4!=24$ sumandos. Si intentamos copiar la técnica de arriba, tendremos solamente $8$ sumandos ($4$ en una diagonal y $4$ en otra). Para cuando tenemos matrices de $4\times 4$ o más, tenemos que recurrir a otras técnicas.

Reducción gaussiana para determinantes

Cuando vimos el tema de sistemas de ecuaciones hablamos del algoritmo de reducción gaussiana, y vimos que este siempre lleva una matriz en $M_{m,n}(F)$ a su forma escalonada reducida mediante operaciones elementales. Cuando aplicamos el algoritmo a matrices en $M_n(F)$, siempre llegamos a una matriz triangular, en donde sabemos fácilmente calcular el determinante: es simplemente el producto de las entradas en la diagonal. Nota cómo lo anterior también se cumple para las matrices diagonales, pues son un caso particular de matrices triangulares.

Por esta razón, es fundamental para el cálculo de determinantes saber qué le hacen las operaciones elementales al determinante de una matriz.

Teorema. Las operaciones elementales tienen el siguiente efecto en el determinante de una matriz $A$:

  1. Si todos los elementos de un renglón o columna de $A$ se multiplican por $\lambda$, entonces el determinante se multiplica por $\lambda$.
  2. Cuando se intercambian dos renglones o columnas de $A$, el determinante se multiplica por $-1$.
  3. Si a un renglón de $A$ se le suma un múltiplo escalar de otro renglón, entonces el determinante no cambia. Sucede algo análogo para columnas.

Demostración. El punto $1$ ya lo demostramos en la entrada anterior, en donde vimos que el determinante es homogéneo.

Para los puntos $2$ y $3$, usemos que si $e_1,\ldots e_n$ es la base canónica de $F^n$, el determinante de una matriz con renglones $R_1,\ldots,R_n$ es $$\det_{(e_1,\ldots,e_n)}(R_1,\ldots,R_n).$$

Intercambiar los renglones $i$ y $j$ es hacer $\det_{(e_1,\ldots,e_n)}(R_{\sigma(1)},\ldots,R_{\sigma(n)})$ para la transposición $\sigma$ que intercambia $i$ y $j$. Como el determinante es antisimétrico y $\sigma$ tiene signo $-1$, obtenemos la conclusión.

Hagamos ahora el tercer punto. Tomemos $i\neq j$ y un escalar $\lambda$. Si al $i$-ésimo renglón de $A$ le sumamos $\lambda$ veces el $j$-ésimo renglón de $A$, esto es lo mismo que multiplicar a $A$ por la izquierda por la matriz $B$ que tiene unos en la diagonal y $\lambda$ en la entrada $(i,j)$. La matriz $B$ es triangular, de modo que su determinante es el producto de las entradas, que es $1$. De esta forma, $$\det(BA)=\det(B)\det(A)=\det(A).$$

$\square$

Así, una estrategia para calcular el determinante de una matriz es hacer reducción gaussiana hasta llegar a una matriz diagonal (incluso es suficiente que sea triangular superior) de determinante $\Delta$. Si en el camino se hicieron $r$ intercambios de renglones y se multiplicaron los renglones por escalares $\lambda_1,\ldots,\lambda_s$, entonces el determinante de $A$ será $$\frac{(-1)^r \Delta}{\lambda_1\cdot\ldots\cdot \lambda_s}.$$

Otras propiedades para calcular determinantes

Aquí recolectamos otras propiedades de determinantes que pueden ayudar a calcularlos. Ya mostramos todas ellas, salvo la número $2$. Esta la mostramos después de la lista.

  1. Si se descompone una columna de una matriz como suma de dos columnas, entonces el determinantes es la suma de los determinantes en los que ponemos cada columna en vez de la original.
  2. Si $A$ es una matriz en $M_n(\mathbb{C})$, entonces el determinante de la matriz conjugada $\overline{A}$ es el conjugado del determinante de $A$.
  3. El determinante es multiplicativo.
  4. Si $A$ es una matriz en $M_n(F)$, el determinante de $\lambda A$ es $\lambda^n$ veces el determinante de $A$.
  5. El determinante de una matriz triangular es el producto de sus entradas en la diagonal.
  6. El determinante de una matriz invertible es el inverso multiplicativo del determinante de la matriz.
  7. Una matriz tiene el mismo determinante que su transpuesta.

Proposición. Si $A$ es una matriz en $M_n(\mathbb{C})$, entonces el determinante de la matriz conjugada $\overline{A}$ es el conjugado del determinante de $A$.

Demostración. La conjugación compleja abre sumas y productos. Aplicando esto repetidas veces obtenemos la siguiente cadena de igualdades:

\begin{align*}
\overline{\det(A)}&=\overline{\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\
&=\sum_{\sigma \in S_n} \overline{\text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}}\\
&=\sum_{\sigma \in S_n} \text{sign}(\sigma)\overline{a_{1\sigma(1)}}\cdot\ldots\cdot \overline{a_{n\sigma(n)}}\\
&=\det(\overline{A}).
\end{align*}

$\square$

Hay una última técnica que es fundamental para el cálculo de determinantes: la expansión de Laplace. En algunos textos incluso se usa para definir el determinante. Probablemente la conoces: es la que consiste en hacer el determinante «con respecto a una fila o columna» y proceder de manera recursiva. Hablaremos de ella más adelante y veremos por qué funciona.

Dos problemas de cálculo de determinantes

Problema 1. Considera la matriz $$A=\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}.$$ Calcula los siguientes determinantes:

  • $\det A$
  • $\det(^t A)$
  • $\det(A^{-1})$
  • $\det(^t A A)$
  • $\det(-2A)$

Solución. Hagamos primero el determinante de la matriz $A$. Para ello, haremos operaciones elementales como sigue
\begin{align*}
&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ -1 & -3 & 0 & 1\end{pmatrix}\\
\to&\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & -\frac{14}{5} & \frac{2}{5} & 1\end{pmatrix}\\
\to &\begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & -\frac{12}{5} & \frac{33}{5}\end{pmatrix}\\
\to& \begin{pmatrix}5& 1 & 2& 0 \\ 0 & 1 & -1 & 2 \\ 0 & 0 & 5 & 2\\ 0 & 0 & 0 & \frac{189}{25}\end{pmatrix}.
\end{align*}

En el primer paso sumamos $1/5$ veces el primer renglón al último. Luego, sumamos $14/5$ veces el segundo renglón al último. Finalmente, sumamos $12/25$ veces el tercer renglón al último. De esta forma, nunca cambiamos el determinante de la matriz. Así, del determinante de $A$ es el mismo que el de la matriz final, que por ser triangular superior es el producto de las entradas en su diagonal. De este modo, $$\det(A) = 5\cdot 1 \cdot 5 \cdot \frac{189}{5} = 189.$$

El determinante de una matriz es igual al de su transpuesta, así que $\det(^t A)=\det(A)$. El determinante $\det(A^{-1})$ es el inverso multiplicativo de $\det(A)$, así que es $\frac{1}{189}$.

Como el determinante es multiplicativo, $$\det({^tA}A)=\det({^tA})\det(A)=189\cdot 189=35721.$$

Finalmente, usando que el determinante es homogéneo y que estamos en $M_4(\mathbb{R})$, tenemos que
\begin{align*}
\det(-2A)&=(-2)^4\det(A)\\
&=16\cdot 189\\
&=3024.
\end{align*}

$\triangle$

Problema 2. Sean $a,b,c$ números complejos. Calculando el determinante de la matriz $$A=\begin{pmatrix}a&b&c\\ c&a&b\\ b&c&a\end{pmatrix}$$ en $M_3(\mathbb{C})$ de dos formas distintas, muestra que $$a^3+b^3+c^3-3abc=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).$$

Solución. Usando la técnica para determinantes de $3\cdot 3$ tenemos que por un lado,
\begin{align*}
\det(A) &= a^3 + b^3 + c^3 – abc – bca – cab\\
&=a^3+b^3+c^3-3abc.
\end{align*}

Por otro lado, el determinante no cambia si al primer renglón le sumamos los otros dos, así que el determinante de $A$ también es $$\begin{vmatrix}a+b+c&a+b+c&a+b+c\\ c&a&b\\ b&c&a\end{vmatrix}.$$ Como el determinante es homogéneo, podemos factorizar $a+b+c$ de la primera entrada para obtener que $$\det(A)=(a+b+c)\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix}.$$

Aplicando de nuevo la fórmula de determinantes de $3\times 3$, tenemos que $$\begin{vmatrix}1&1&1\\ c&a&b\\ b&c&a\end{vmatrix} = a^2+b^2+c^2-ab-bc-ca.$$

Concluimos entonces que $$\det(A)=(a+b+c)(a^2+b^2+c^2-ab-bc-ca).$$ Igualando ambas expresiones para $\det(A)$ obtenemos la identidad deseada.

$\triangle$

Más adelante…

En esta entrada vimos varias formas para calcular el determinante de una matriz. Cuando nos enfrentemos con un problema que requiere el cálculo de un determinante, tenemos que elegir la que más nos convenga (o la que requiera menos pasos). La mejor forma de desarrollar un poco de «intuición» al momento de elegir el mejor método para calcular determinantes es haciendo ejercicios.

A continuación pondremos en práctica lo que aprendimos en esta entrada haciendo varios ejercicios de cálculo de determinantes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $\alpha$ un número real. Encuentra el determinante de la matriz $$\begin{pmatrix}\sin \alpha & \cos \alpha \\ -\cos \alpha & \sin \alpha \end{pmatrix}.$$
  • Determina para qué valores de $a$ la matriz $$\begin{pmatrix} a & 0 & a & 0 & a \\0 & a & 0 & a & 0 \\ 0 & 0 & a & 0 & 0 \\ 0 & a & 0 & a & 0 \\ a & 0 & a & 0 & a \end{pmatrix}$$ es invertible.
  • Encuentra el determinante de la matriz $$\begin{pmatrix} 2 & 1 & 0 & 0 & 0 \\0 & 2 & 1 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 1 & 0 & 0 & 0 & 2 \end{pmatrix}.$$
  • Sea $x$ un número complejo. Muestra que el determinante de la matriz $$\begin{pmatrix}3x^2-6x+5&2x^2-4x+2&x^2-2x\\ 2x^2-4x+2&2x^2+2x+1&x^2-x\\ x^2-2x&x^2-x&x^2\end{pmatrix}$$ es $x^6$. Sugerencia. Hay una solución simple, factorizando a la matriz como el producto de dos matrices triangulares, una superior y una inferior, una transpuesta de la otra.
  • Muestra que si $A=\begin{pmatrix}0& 1 \\ 1 & 1\end{pmatrix}$, entonces $$A^n=\begin{pmatrix} F_{n-1} & F_n\\ F_n & F_{n+1}\end{pmatrix},$$ donde $\{F_n\}$ es la sucesión de Fibonacci. Muestra que para los números de Fibonacci se satisface que $$F_{2n}=F_n(F_{n+1}+F_{n-1}).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Irreducibilidad y factorización en polinomios reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los números enteros tiene un teorema de factorización en primos: el teorema fundamental de la aritmética. Los polinomios en $\mathbb{R}[x]$ también. En esta entrada hablaremos de la irreducibilidad y factorización en polinomios reales. Lo primero lo haremos para decir «quiénes son los primos» en $\mathbb{R}[x]$. Para lo segundo usaremos el teorema del factor, que demostramos con anterioridad.

Resulta que el teorema de factorización en polinomios reales depende de un resultado importante de polinomios en $\mathbb{C}[x]$, es decir, los de coeficientes complejos. Esto es algo que sucede con frecuencia: a veces para resolver un problema en los números reales, hay que dar un paso hacia los complejos y luego regresar. Por esa razón, para esta entrada es importante que tengas en mente varias propiedades en los complejos, sobre todo cómo se realizan las operaciones y cuales son las propiedades de la conjugación compleja. Esto nos dará la oportunidad de enunciar (sin demostración) el teorema fundamental del álgebra.

Como recordatorio, un polinomio es irreducible en $\mathbb{R}[x]$ si no es un polinomio constante y no se puede escribir como producto de dos polinomios no constantes en $\mathbb{R}[x]$. Además, el teorema del factor nos dice que si $a$ es raíz de un polinomio $p(x)$, entonces $x-a$ divide a $p(x)$. Diremos que un polinomio es lineal si es de grado $1$ y cuadrático si es de grado $2$.

El teorema fundamental del álgebra

Así como construimos a $\mathbb{R}[x]$, se puede hacer algo análogo para construir a $\mathbb{C}[x]$, los polinomios de coeficientes complejos. Puedes practicar todo lo que hemos visto haciendo la construcción formal. Por el momento, para fines prácticos, puedes pensarlos como expresiones de la forma $$a_0+a_1 x + \ldots + a_n x^n$$ con $a_i$ complejos, digamos, $$(1+i)+2i x -3x^3+(5+2i)x^4.$$

Los polinomios en $\mathbb{C}[x]$ cumplen todo lo que hemos dicho de $\mathbb{R}[x]$: se vale el lema de Bézout, el algoritmo de Euclides, el teorema del factor, el teorema del residuo, etc. Una copia de $\mathbb{R}[x]$, con su estructura algebraica, «vive» dentro de $\mathbb{C}[x]$, es decir, todo polinomio con coeficientes reales se puede pensar como uno con coeficientes complejos.

Sin embargo, los polinomios en $\mathbb{R}[x]$ y en $\mathbb{C}[x]$ son muy diferentes en términos de raíces. Esto se nota, pir ejemplo, en el hecho de que el polinomio $x^2+1$ no tiene raíces en $\mathbb{R}$, pero sí en $\mathbb{C}$, donde la raíz es $i$. Resulta que esta $i$ hace toda la diferencia. Al agregarla no solamente hacemos que $x^2+1$ tenga una raíz, sino que ya todo polinomio tiene raíz. Esto está enunciado formalmente por el teorema fundamental del álgebra.

Teorema (teorema fundamental del álgebra). Todo polinomio no constante en $\mathbb{C}[x]$ tiene al menos una raíz en $\mathbb{C}$.

No vamos a demostrar este teorema durante el curso. Hay desde demostraciones elementales (como la que aparece en el bello libro Proofs from the book), hasta algunas muy cortas, pero que usan teoría un poco más avanzada (como las que se hacen en cursos de análisis complejo). Sin embargo, lo usaremos aquí para obtener algunas de sus consecuencias y, al final de esta entrada, demostrar los teoremas de irreducibilidad y factorización en polinomios reales.

Teorema de factorización en $\mathbb{C}[x]$

En la entrada anterior ya demostramos que los polinomios lineales son irreducibles. Veremos ahora que en $\mathbb{C}[x]$ no hay ningún otro polinomio irreducible.

Proposición. Los únicos polinomios irreducibles en $\mathbb{C}[x]$ son los de grado $1$.

Demostración. Tomemos cualquier polinomio $p(x)$ en $\mathbb{C}[x]$ de grado al menos $2$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz $z$ en $\mathbb{C}$. Por el teorema del factor, $$x-z \mid p(x),$$ así que podemos escribir $p(x)=(x-z)q(x)$ con $q(x)$ en $\mathbb{C}[x]$ de grado $\deg(p(x))-1\geq 1$.

De esta forma, pudimos factorizar al polinomio $p(x)$ en dos factores no constantes, y por lo tanto no es irreducible.

$\square$

Con esto podemos mostrar que en $\mathbb{C}[x]$ todo polinomio es factorizable como producto de términos lineales.

Teorema (de factorización única en $\mathbb{C}[x]$). Todo polinomio $p(x)$ en $\mathbb{C}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$p(x)=a(x-z_1)(x-z_2)\cdots(x-z_n)$$ en donde $a$ es un complejo no cero, $n$ es el grado de $p(x)$ y $z_1,\ldots,z_n$ son complejos que son raíces de $p(x)$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Procedemos por inducción en el grado de $p(x)$. Si $p(x)$ es de grado cero, entonces es de la forma $p(x)=a$ con $a$ un complejo, y ya está en la forma que queremos.

Tomemos ahora un entero $n\geq 1$. Supongamos que el resultado es cierto para los polinomios de grado $n-1$ y consideremos un polinomio $p(x)$ de grado $n$. Por el teorema fundamental del álgebra, $p(x)$ tiene al menos una raíz, digamos $z_n$. Usando el teorema del factor, existe un polinomio $q(x)$, que debe de ser de grado $n-1$, tal que $$p(x)=q(x)(x-z_n).$$ Aplicando la hipótesis inductiva a $q(x)$, podemos factorizarlo de la forma $$q(x)=a(x-z_1)(x-z_2)\cdots(x-z_{n-1}),$$ con $z_1,\ldots,z_{n-1}$ raíces de $q(x)$ (y por lo tanto también raíces de $p(x)$). De esta forma, $$p(x)=(x-z_1)(x-z_2)\cdots(x-z_{n-1})(x-z_n)$$ es una factorización que cumple lo que queremos. Esto termina la hipótesis inductiva, y por lo tanto la parte de existencia de la demostración.

$\square$

Ejemplo. Consideremos al polinomio $$p(x)=x^4+5x^2+4$$ en $\mathbb{R}[x]$. Este polinomio no tiene raíces reales, pues sus evaluaciones siempre son positivas. Sin embargo, lo podemos pensar como un polinomio en $\mathbb{C}[x]$. Por el teorema fundamental del álgebra, este polinomio debe tener una raíz en $\mathbb{C}$.

Afortunadamente, podemos encontrarla por inspección. Una de estas raíces es $i$, pues $$i^4+5i^2+4=1-5+4=0.$$ Por el teorema del factor, $x-i$ divide a $p(x)$. Al realizar la división, obtenemos $$p(x)=(x-i)(x^3+ix^2+4x+4i).$$ De aquí, por inspección, obtenemos que $-i$ es una raíz de $x^3+ix^2+4x+4i$, y realizando la división entre $x+i$, tenemos que $$p(x)=(x-i)(x+i)(x^2+4).$$

El polinomio $x^2+4$ claramente tiene como raíces a $2i$ y $-2i$. A partir de todo esto concluimos que $$p(x)=(x-i)(x+i)(x-2i)(x+2i)$$ es la factorización de $p(x)$ en polinomios lineales en $\mathbb{C}[x]$.

$\square$

En el ejemplo anterior podemos agrupar los factores $(x-i)$ y $(x+i)$ para obtener el polinomio $x^2+1$. De aquí obtenemos la factorización alternativa $$p(x)=(x^2+1)(x^2+2).$$ Esta factorización tiene puros coeficientes reales. Aquí hay que hacer una observación importante: esta no es una factorización en irreducibles en $\mathbb{C}[x]$, pero sí es una factorización en irreducibles en $\mathbb{R}[x]$. Retomaremos varias de estas ideas más en general en las siguientes secciones.

Raíces complejas de polinomios en $\mathbb{R}[x]$

En el ejemplo de la sección anterior sucedió que $i$ era una raíz de $p(x)$, y que $-i$ también. Cuando tenemos un polinomio de coeficientes reales y $z$ es un complejo que es raíz, entonces su conjugado también.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y $z$ un número en $\mathbb{C}$. Si $p(z)=0$, entonces $p(\overline{z})=0$.

Demostración. Si $p(x)$ es el polinomio cero, la afirmación es cierta. En otro caso, sea $n$ el grado de $p(x)$ y escribamos a $p(x)$ como $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ donde $a_i$ son números en $\mathbb{R}$ para $i=0,\ldots,n$. Por lo que sabemos de la conjugación compleja, $\overline{a_i}=a_i$, y además abre sumas y productos. Así,
\begin{align*}
\overline{p(z)}&=\overline{a_0+a_1z+\ldots+a_nz^n}\\
&=\overline{a_0}+\overline{a_1z}+\ldots +\overline{a_nz^n}\\
&=\overline{a_0} + \overline{a_1}\, \overline{z} + \ldots +\overline{a_n}\, \overline{z}^n\\
&=a_0 + a_1 \overline{z} + \ldots + a_n \overline{z}^n\\
&=p(\overline{z}).
\end{align*}

Como $p(z)=0$, concluimos que $$p(\overline{z})=\overline{p(z)}=\overline{0}=0.$$

$\square$

El resultado anterior no es cierto en general para polinomios con coeficientes en $\mathbb{C}[x]$. Esto debe ser muy claro pues, por ejemplo, $i$ es raíz de $x-i$, pero $-i$ no.

Proposición. Tomemos $p(x)$ un polinomio en $\mathbb{R}[x]$ y una raíz $z$ de $p(x)$ en $\mathbb{C}\setminus \mathbb{R}$. Entonces el polinomio $$q(x)=x^2-(z+\overline{z})x+z\overline{z}$$ es un polinomio en $\mathbb{R}[x]$ que divide a $p(x)$ en $\mathbb{R}[x]$.

Demostración. Observa que $q(x)=(x-z)(x-\overline{z})$. Recordemos que
\begin{align*}
z+\overline{z}&=2\Rea{(z)} \\
z\overline{z}&=\norm{z}^2 .
\end{align*}

Esto muestra que los coeficientes de $q(x)$ son reales. Usemos el algoritmo de la división en $\mathbb{R}[x]$ para escribir $$p(x)=q(x)h(x)+r(x),$$ con $r(x)$ el polinomio cero, o de grado a lo más $1$.

Evaluando en $z$ y en $\overline{z}$, se obtiene que $r(z)=r(\overline{z})=0$. Como $z$ no es real, entonces $z$ y $\overline{z}$ son distintos. De este modo, $r(x)$ es el polinomio cero. Así, $p(x)=q(x)h(x)$ es una factorización de $p(x)$ en $\mathbb{R}[x]$ que usa a $q(x)$.

$\square$

Nuevamente, hay que tener cuidado con las hipótesis del resultado anterior. Es muy importante que usemos que $z$ es una raíz compleja y no real de un polinomio con coeficientes reales. En la tarea moral puedes encontrar un contraejemplo si no se satisfacen las hipótesis.

Ejemplo. Consideremos el polinomio $$p(x)=2x^3-16x^2+44x-40.$$ Una de sus raíces complejas es $3+i$, como puedes verificar. Como es un polinomio con coeficientes reales, el conjugado $3-i$ también es una raíz. Tal como lo menciona la proposición anterior, el polinomio
\begin{align*}
q(x):&=(x-(3+i))(x-(3-i))\\
&=x^2-(3+i+3-i)x+(3+i)(3-i)\\
&=x^2-6x+10
\end{align*}

es un polinomio de coeficientes reales. Además, divide a $p(x)$ en $\mathbb{R}[x]$ pues haciendo la división polinomial, tenemos que $$2x^3-16x^2+44x-40=(2x-4)(x^2-6x+10).$$

$\square$

Irreducibilidad y factorización en polinomios reales

Con todo lo que hemos hecho hasta ahora, estamos listos para probar los resultados que queremos en $\mathbb{R}[x]$. Observa que los enunciados de las secciones anteriores involucran a $\mathbb{C}$, pero los de esta sección ya no. Sin embargo, para hacer las demostraciones tenemos que dar un «brinco momentáneo a los complejos».

Recuerda que para un polinomio cuadrático $q(x)=ax^2+bx+c$ su discriminante es $b^2-4ac$.

Teorema (irreducibilidad en polinomios reales). Los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

Demostración. Ya mostramos antes que los polinomios lineales son irreducibles. Si $q(x)=ax^2+bx+c$ es un polinomio cuadrático y $r$ es una raíz real, tenemos que
\begin{align*}
ar^2+br+c&=0\\
r^2+\frac{b}{a}r+\frac{c}{a}&=0\\
r^2+\frac{b}{a}r+\frac{b^2}{4a^2}-\frac{b^2}{4a^2}+\frac{c}{a}&=0\\
\left(r+\frac{b}{2a}\right)^2&=\frac{b^2-4ac}{4a^2}.
\end{align*}

De esta igualdad, obtenemos que $\frac{b^2-4ac}{4a^2}\geq 0$ y por lo tanto que $b^2-4ac \geq 0$. Dicho de otra forma, si $b^2-4ac<0$, entonces $q(x)$ no tiene raíces reales. De esta misma equivalencia de igualdades se puede ver que si $b^2-4ac\geq 0$, entonces $q(x)$ sí tiene por lo menos una raíz real.

Supongamos que $q(x)$ es un polinomio cuadrático con discriminante negativo. Si existiera una factorización en $\mathbb{R}[x]$ de la forma $q(x)=a(x)b(x)$, con ninguno de ellos constante, entonces ambos deben tener grado $1$. Podemos suponer que $a$ es mónico. Pero entonces $a(x)=x-r$ para $r$ un real, y por el teorema del factor tendríamos que $r$ sería raíz de $q(x)$, una contradicción a la discusión anterior. Esto muestra que $q(x)$ es irreducible.

Falta ver que no hay ningún otro polinomio irreducible en $\mathbb{R}[x]$. Cuando $p(x)$ es cuadrático de discriminante no negativo, entonces por la fórmula cuadrática tiene al menos una raíz real $r$ y por lo tanto $x-r$ divide a $p(x)$, mostrando que no es irreducible.

Si $p(x)$ es de grado mayor o igual a $3$ y tiene una raíz real $r$, sucede lo mismo. En otro caso, es de grado mayor o igual a $3$ y no tiene raíces reales. Pero de cualquier forma tiene al menos una raíz compleja $z$. Usando la proposición de la sección anterior, tenemos que $x^2-(z+\overline{z})x+z\overline{z}$ es un polinomio de coeficientes reales que divide a $p(x)$ en $\mathbb{R}[x]$, lo cual muestra que no es irreducible.

Concluimos entonces que los únicos polinomios irreducibles en $\mathbb{R}[x]$ son los lineales y los cuadráticos de discriminante negativo.

$\square$

Ahora sí podemos enunciar el resultado estelar de esta entrada.

Teorema (factorización en polinomios reales). Todo polinomio $p(x)$ en $\mathbb{R}[x]$ distinto del polinomio cero se puede factorizar de manera única como $$a(x-r_1)\cdots(x-r_m)(x^2-b_1x+c_1)\cdots (x^2-b_{n}x+c_{n}),$$ en donde:

  • $a$ es un real distinto de cero,
  • $m$ y $n$ son enteros tales que $m+2n$ es igual al grado de $p(x)$,
  • para cada $i$ en $\{1,\ldots,m\}$ se tiene que $r_i$ es raíz real de $p(x)$ y
  • para cada $j$ en $ \{1,\ldots,n\}$ se tiene que $b_j,c_j$ son reales tales que $b_j^2-4c_j<0$.

Demostración. Mostraremos la existencia de la factorización. La parte de la unicidad es sencilla, y su demostración queda como tarea moral. Si $p(x)$ es irreducible, entonces al factorizar su coeficiente principal $a$ obtenemos la factorización deseada. Si $p(x)$ no es irreducible, procedemos por inducción fuerte sobre el grado $d$ de $p(x)$. El menor grado que debe tener es $2$ para no ser irreducible.

Si $d=2$ y es no irreducible, el resultado es cierto pues se puede factorizar como dos factores lineales y luego factorizar al término $a$ los coeficientes principales de cada factor para que queden mónicos.

Sea $d\geq 3$ y supongamos el resultado cierto para todo polinomio de grado menor a $d$. Tomemos un polinomio $p(x)$ de grado $d$. Por el teorema de irreducibilidad de polinomios reales, $p(x)$ no es irreducible, así que se puede factorizar como $p(x)=r(x)s(x)$ con $r(x)$ y $s(x)$ no constantes, y por lo tanto de grado menor al de $p(x)$. Por hipótesis inductiva, tienen una factorización como la del teorema. La factorización de $p(x)$ se obtiene multiplicando ambas. Esto termina la inducción.

$\square$

Veamos cómo podemos usar todas estas ideas en un problema en concreto de factorización en polinomios reales.

Problema. Factoriza al polinomio $x^{12}-1$ en polinomios irreducibles en $\mathbb{R}[x]$.

Solución. Usando identidades de factorización, podemos avanzar bastante:
\begin{align*}
x^{12}-1&=(x^6-1)(x^6+1)\\
&=(x^3-1)(x^3+1)(x^6+1)\\
&=(x-1)(x^2+x+1)(x+1)(x^2-x+1)(x^2+1)(x^4-x^2+1).
\end{align*}

Hasta aquí, $x+1$ y $x-1$ son factores lineales. Además, $x^2+x+1$, $x^2-x+1$ y $x^2+1$ son factores cuadráticos irreducibles pues sus discriminantes son, respectivamente, $-3,-3,-4$.

Aún queda un factor $x^4-x^2+1$ que por ser de grado $4$ no es irreducible. Sumando y restando $2x^2$, y luego factorizando la diferencia de cuadrados, tenemos:
\begin{align*}
x^4-x^2+1 &= x^4+2x^2+1-3x^2\\
&=(x^2+1)^2-3x^2\\
&=(x^2+1-\sqrt{3}x)(x^2+1+\sqrt{3}x).
\end{align*}

Cada uno de estos factores cuadráticos tiene discriminante $-1$, y por lo tanto es irreducible. Concluimos entonces que la factorización en irreducibles de $x^{12}-1$ en $\mathbb{R}[x]$ es
\begin{align*}
(x-1)(x&+1)(x^2+1)(x^2+x+1)\\
&(x^2-x+1)(x^2+\sqrt{3}x+1)(x^2-\sqrt{3}x+1).
\end{align*}

$\square$

Más adelante…

El teorema fundamental del álgebra y sus consecuencias en $\mathbb{R}$ son los resultados algebraicos más importantes que obtendremos en el estudio de polinomios, ya que nos permite caracterizar, al menos en teoría a todos los polinomios a partir de sus raíces.

En las siguientes entradas ocuparemos las herramientas que hemos desarrollado hasta ahora, sin embargo cambiaremos el enfoque de estudio, usaremos también herramientas de los cursos de cálculo para poder dar un análisis más detallado del comportamiento de los polinomios, y que nos servirán para que en muchos casos podamos encontrar las raíces de un polinomio, o cuando menos tener una idea de cómo son.

Tarea moral

  • Haz la construcción formal de $\mathbb{C}[x]$ a partir de sucesiones de complejos. Muestra que se pueden expresar en la notación de $x$ y sus potencias. Prueba los teoremas que hemos visto hasta ahora. Todo debe ser análogo al caso real, por lo que te servirá mucho para repasar los conceptos vistos hasta ahora.
  • Muestra la unicidad de la factorización en $\mathbb{C}[x]$ y en $\mathbb{R}[x]$.
  • Sea $z$ un complejo no real. Muestra que que $x-z$ y $x-\overline{z}$ son polinomios primos relativos en $\mathbb{C}[x]$.
  • Hay que tener cuidado en las hipótesis de los teoremas de esta entrada. Muestra que $3$ es una raíz del polinomio $x^3-6x^2+11x-6$, pero que $x^2-6x+9$ no divide a este polinomio.
  • Argumenta por qué en el teorema de factorización en polinomios reales sucede que $m+2n$ es el grado de $p(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior II: Problemas de grado de polinomios, evaluación y raíces

Por Claudia Silva

Introducción

En esta entrada practicaremos los conceptos aprendidos en entradas anteriores, como el concepto de grado y de la función que induce un polinomio. De la misma forma veremos como aplicar el algoritmo de la división y los teoremas del residuo y del factor en algunos ejercicios básicos.

Conociendo ya a los polinomios y sus operaciones básicas, pasaremos a unos ejercicios sencillos que involucran los conceptos de polinomios que son el grado, la evaluación y raíz.

Problemas de grado de un polinomio

Problemas de evaluación

Problemas de divisibilidad y teorema del factor

Más adelante…

Ya que nos encargamos de practicar las herramientas que llevamos hasta ahora, pasaremos a ver un nuevo concepto en los polinomios, el máximo común divisor, esta nueva definición será análoga al concepto que desarrollamos para los enteros, por lo que existirá un gran paralelismo entre ambos y una gran cantidad de propiedades que probamos para los enteros, también se podrán probar para los polinomios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra que $x-a$ divide a $x-b$ si y solo si $a=b$.
  2. Si $f(x)$ y $g(x)$ son polinomios tales que $f(x)$ divide a $g(x)$ y $g(x)$ divide a $f(x)$, entonces existe $c\in \mathbb{R}$ tal que $f(x)=c g(x)$.
  3. Si $f(x)=x^2 +1$ y $g(x) = x^3-x+3$, evalúa $f\circ g(x)$ en $x=2$.
  4. Si $f(x)$ y $g(x)$ son polinomios, ¿Quién es el grado de $f\circ g(x)$?
  5. Demuestra que si $f(x)$ tiene grado mayor que $0$, entonces $f$ no tiene un inverso multiplicativo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»