Seminario de Resolución de Problemas: Sistemas de ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Finalmente, en esta serie de entradas, veremos temas selectos de álgebra lineal y su aplicación a la resolución de problemas. Primero, hablaremos de sistemas de ecuaciones lineales. Luego, hablaremos de evaluación de determinantes. Después, veremos teoría de formas cuadráticas y matrices positivas. Finalmente, estudiaremos dos teoremas muy versátiles: el teorema de factorización $PJQ$ y el teorema de Cayley-Hamilton.

Como lo hemos hecho hasta ahora, frecuentemente no daremos las demostraciones para los resultados principales. Además, asumiremos conocimientos básicos de álgebra lineal. También, asumiremos que todos los espacios vectoriales y matrices con los que trabajaremos son sobre los reales o complejos, pero varios resultados se valen más en general.

Para cubrir los temas de álgebra lineal de manera sistemática, te recomendamos seguir un libro como el Essential Linear Algebra de Titu Andreescu, o el Linear Algebra de Friedberg, Insel y Spence. Mucho del material también lo puedes consultar en las notas de curso que tenemos disponibles en el blog.

Sistemas de ecuaciones lineales

Una ecuación lineal en $n$ incógnitas en $\mathbb{R}$ consiste en fijar reales $a_1,\ldots,a_n, b$ y determinar los valores de las variables $x_1,\ldots,x_n$ tales que $$a_1x_1+a_2x_2+\ldots+a_nx_n=b.$$

Si $a_1,\ldots,a_n$ no son todos cero, los puntos $(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ que son solución a la ecuación definen un hiperplano en $\mathbb{R}^n$.

Un sistema de ecuaciones lineales con $m$ ecuaciones y $n$ variables consiste en fijar, para $i$ en $\{1,\ldots,m\}$ y $j$ en $\{1,\ldots,n\}$ a reales $a_{ij}$ y $b_i$, y determinar los valores de las variables $x_1,\ldots,x_n$ que simultáneamente satisfacen todas las $m$ ecuaciones
$$\begin{cases}
a_{11}x_1+ a_{12}x_2+\ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n = b_2\\
\quad \quad \vdots\\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n = b_m.
\end{cases}$$

Este sistema de ecuaciones se puede reescribir en términos matriciales de manera muy sencilla. Si $A$ es la matriz de $m\times n$ de entradas $[a_{ij}]$, $X$ es el vector de variables $(x_1,\ldots,x_n)$ y $b$ es el vector de reales $b_1,\ldots,b_m$, entonces el sistema de ecuaciones anterior se reescribe simplemente como $$AX=b.$$

Sistemas de ecuaciones lineales con mucha simetría

En algunos sistemas de ecuaciones hay mucha simetría, y no es necesario introducir técnicas avanzadas de álgebra lineal para resolverlos. Veamos el siguiente ejemplo.

Problema. Resuelve el sistema de ecuaciones

$$\begin{cases}
7a+2b+2c+2d+2e= -2020\\
2a+7b+2c+2d+2e=-1010\\
2a+2b+7c+2d+2e=0\\
2a+2b+2c+7d+2e=1010\\
2a+2b+2c+2d+7e=2020.
\end{cases}$$

Sugerencia pre-solución. Trabaja hacia atrás, suponiendo que el sistema tiene una solución. A partir de ahí, puedes usar las cinco ecuaciones y combinarlas con sumas o restas para obtener información.

Solución. Al sumar las cinco ecuaciones, obtenemos que $$15(a+b+c+d+e)=0,$$ de donde $2(a+b+c+d+e)=0$. Restando esta igualdad a cada una de las ecuaciones del sistema original, obtenemos que
$$\begin{cases}
5a= -2020\\
5b=-1010\\
5c=0\\
5d=1010\\
5e=2020.
\end{cases}$$

De aquí, si el sistema tiene alguna solución, debe suceder que
\begin{align*}
a&=\frac{-2020}{5}=-404\\
b&=\frac{-2020}{5}=-202\\
c&=\frac{-2020}{5}= 0\\
d&=\frac{-2020}{5}=202\\
e&=\frac{-2020}{5}=404.
\end{align*}

Como estamos trabajando hacia atrás, esta es sólo una condición necesaria para la solución. Sin embargo, una verificación sencilla muestra que también es una condición suficiente.

$\square$

Sistemas de ecuaciones de n x n y regla de Cramer

Si tenemos un sistema de $n$ variables y $n$ incógnitas, entonces es de la forma $$AX=b$$ con una matriz $A$ cuadrada de $n\times n$. Dos resultados importantes para sistemas de este tipo son el teorema de existencia y unicidad, y las fórmulas de Cramer.

Teorema (existencia y unicidad de soluciones). Si $A$ es una matriz cuadrada invertible de $n\times n$ y $b$ es un vector de $n$ entradas, entonces el sistema lineal de ecuaciones $$AX=b$$ tiene una solución única y está dada por $X=A^{-1}b$.

El teorema anterior requiere saber determinar si una matriz es invertible o no. Hay varias formas de hacer esto:

  • Una matriz cuadrada es invertible si y sólo si su determinante no es cero. Más adelante hablaremos de varias técnicas para evaluar determinantes.
  • Una matriz cuadrada es invertible si y sólo si al aplicar reducción gaussiana, se llega a la identidad.
  • También ,para mostrar que una matriz es invertible, se puede mostrar que cumple alguna de las equivalencias de invertibilidad.

Problema. Demuestra que el sistema lineal de ecuaciones

$$\begin{cases}
147a+85b+210c+483d+133e= 7\\
91a+245b+226c+273d+154e=77\\
-119a+903b+217c+220d+168e=777\\
189a+154b-210c-203d-108e=7777\\
229a+224b+266c-133d+98e=77777.
\end{cases}$$

tiene una solución única.

Sugerencia pre-solución. Reduce el problema a mostrar que cierta matriz es invertible. Para ello, usa alguno de los métodos mencionados. Luego, para simplificar mucho el problema, necesitarás un argumento de aritmética modular. Para elegir en qué módulo trabajar, busca un patrón en las entradas de la matriz.

Solución. Primero, notemos que el problema es equivalente a demostrar que la matriz

$$A=\begin{pmatrix}
147 & 85 & 210 & 483 & 133\\
91 & 245 & 226 & 273 & 154\\
-119 & 903 & 217 & 220 & 168\\
189 & 154 & -210 & -203 & -108 \\
229 & 224 & 266 & -133 & 98
\end{pmatrix}$$

es invertible. Mostraremos que su determinante no es $0$. Pero no calcularemos todo el determinante, pues esto es complicado.

Notemos que como $A$ es una matriz de entradas enteras, entonces su determinante (que es suma de productos de entradas), también es entero. Además, como trabajar en aritmética modular respeta sumas y productos, para encontrar el residuo de $\det(A)$ al dividirse entre $7$ se puede primero reducir las entradas de $A$ módulo $7$, y luego hacer la cuenta de determinante.

Al reducir las entradas módulo $7$, tenemos la matriz

$$B=\begin{pmatrix}
0 & 1 & 0 & 0 & 0 \\
0&0 & 2 & 0 & 0\\
0 & 0 & 0 & 3 & 0\\
0&0 & 0 & 0 & 4 \\
5& 0 & 0 & 0 & 0
\end{pmatrix}.$$

El determinante de la matriz $B$ es $-(1\cdot 2 \cdot 3 \cdot 4 \cdot 5)=-120$. Así,
\begin{align*}
\det(A) & \equiv \det(B)\\
&=-120\\
&\equiv 6 \pmod 7.
\end{align*}

Concluimos que $\det(A)$ es un entero que no es divisible entre $7$, por lo cual no puede ser cero. Así, $A$ es invertible.

$\square$

Por supuesto, en cualquier otro módulo podemos hacer la equivalencia y simplificar las cuentas. Pero $7$ es particularmente útil para el problema anterior pues se simplifican casi todas las entradas, y además funciona para dar un residuo no cero.

Ahora veremos otra herramienta importante para resolver problemas de ecuaciones lineales: las fórmulas de Cramer.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible de $n\times n$ con entradas reales y $b=(b_1,\ldots,b_n)$ un vector de reales. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

En realidad este método no es tan útil en términos prácticos, pues requiere que se evalúen muchos determinantes, y esto no suele ser sencillo. Sin embargo, las fórmulas de Cramer tienen varias consecuencias teóricas importantes.

Problema. Muestra que una matriz invertible $A$ de $n\times n$ con entradas enteras cumple que su inversa también tiene entradas enteras si y sólo si el determinante de la matriz es $1$ ó $-1$.

Sugerencia pre-solución. Para uno de los lados necesitarás las fórmulas de Cramer, y para el otro necesitarás que el determinante es multiplicativo.

Solución. El determinante de una matriz con entradas enteras es un número entero. Si la inversa de $A$ tiene entradas enteras, entonces su determinante es un entero. Usando que el determinante es multiplicativo, tendríamos que $$\det(A)\cdot \det(A^{-1}) = \det (I) = 1.$$ La única forma en la que dos enteros tengan producto $1$ es si ambos son $1$ o si ambos son $-1$. Esto muestra una de las implicaciones.

Ahora, supongamos que $A$ tiene determinante $\pm 1$. Si tenemos una matriz $B$ de columnas $C_1,\ldots,C_n$, entonces para $j$ en $\{1,\ldots,n\}$ la $j$-ésima columna de $AB$ es $AC_j$. De este modo, si $D_1,\ldots, D_n$ son las columnas de $A^{-1}$, se debe cumplir para cada $j$ en $\{1,\ldots,n\}$ que $$AD_j= e_j,$$ en donde $e_j$ es el $j$-ésimo elemento de la base canónica. Para cada $j$ fija, esto es un sistema de ecuaciones.

Por las fórmulas de Cramer, la $i$-ésima entrada de $C_j$, que es la entrada $x_{ij}$ de la matriz $A^{-1}$, está dada por $$x_{ij}=\frac{\det(A_{ij})}{\det(A)}=\pm \det(A_{ij}),$$ donde $A_{ij}$ es la matriz obtenida de colocar al vector $e_j$ en la $i$-ésima columna de $A$.

La matriz $A_{ij}$ tiene entradas enteras, así que $x_{ij}=\pm \det(A_{ij})$ es un número entero. Así, $A^{-1}$ es una matriz de entradas enteras.

$\square$

Sistemas de ecuaciones de m x n y teorema de Rouché-Capelli

Hasta aquí, sólo hemos hablando de sistemas de ecuaciones que tienen matrices cuadradas asociadas. También, sólo hemos hablado de los casos en los que no hay solución, o bien en los que cuando la hay es única. Los sistemas de ecuaciones lineales en general tienen comportamientos más interesantes. El siguiente resultado caracteriza de manera elegante todo lo que puede pasar.

Teorema (Rouché-Capelli). Sea $A$ una matriz de $m\times n$ con entradas reales, $(b_1,\ldots,b_m)$ un vector de reales y $(x_1,\ldots,x_n)$ un vector de incógnitas. Supongamos que $A$ tiene rango $r$. Entonces:

  • El sistema $AX=b$ tiene al menos una solución $X_0$ si y sólo si el rango de la matriz de $m\times (n+1)$ obtenida de colocar el vector $b$ como columna al final de la matriz $A$ también tiene rango $r$.
  • El conjunto solución del sistema $AX=(0,0,\ldots,0)$ es un subespacio vectorial $\mathcal{S}$ de $\mathbb{R}^n$ de dimensión $n-r$.
  • Toda solución al sistema $AX=b$ se obtiene de sumar $X_0$ y un elemento de $\mathcal{S}$.

Problema. Encuentra todos los polinomios $p(x)$ con coeficientes reales y de grado a lo más $3$ tales que $p(2)=3$ y $p(3)=2$.

Sugerencia pre-solución. Usa notación efectiva, eligiendo variables para cada uno de los coeficientes de $p(x)$. Luego, enuncia cada hipótesis como una ecuación.

Solución. Tomemos $p(x)=ax^3+bx^2+cx+d$. La hipótesis implica que

$$\begin{cases}
8a+4b+2c+d=p(2)= 3\\
27a+9b+3c+d=p(3)=2.
\end{cases}$$

El rango de la matriz $$\begin{pmatrix} 8 & 4 & 2 & 1\\ 27 & 9 & 3 & 1\end{pmatrix}$$ es a lo más $2$, pues tiene $2$ renglones. Pero es al menos $2$, pues los dos vectores columna $(2,3)$ y $(1,1)$ son linealmente independientes. Exactamente el mismo argumento muestra que la matriz aumentada $$\begin{pmatrix} 8 & 4 & 2 & 1 & 3\\ 27 & 9 & 3 & 1 & 2\end{pmatrix}$$ es de rango $2$. Por el primer punto del teorema de Rouché-Capelli, este sistema tiene solución.

Para encontrar esta solución de manera práctica, fijamos reales $a$ y $b$ y notamos que ahora

$$\begin{cases}
2c+d= 3-8a-4b\\
3c+d=2-27a-9b
\end{cases}$$

es un sistema en $2$ variables, y como $$\det\begin{pmatrix} 2 & 1\\ 3 & 1\end{pmatrix}=-1,$$ tiene una única solución para $c$ y $d$. Al hacer las cuentas, o usar fórmulas de Cramer, obtenemos que
\begin{align*}
c&=-1-19a-5b\\
d&=5+30a+6b.
\end{align*}

Así, concluimos que los polinomios $p(x)$ solución consisten de elegir cualesquiera reales $a$ y $b$ y tomar $$p(x)=ax^3+bx^2-(1+19a+5b)x+(5+20a+6b).$$

$\square$

Por supuesto, para usar este teorema es necesario conocer el rango de la matriz $A$. En el problema tuvimos la suerte de que eso es sencillo. Hablaremos más adelante de varias técnicas para encontrar el rango de matrices.

Más problemas

Puedes encontrar más problemas de sistemas de ecuaciones lineales en el Capítulo 3 y en la Sección 7.6 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Superior II: Raíces de polinomios de grados 3 y 4

Por Leonardo Ignacio Martínez Sandoval

Introducción

Esta es la entrada final de la unidad de polinomios y del curso. En ella hablaremos acerca de las fórmulas para encontrar las raíces de polinomios de grado $3$ y $4$. Además, en la parte final, hablaremos de polinomios de grados más altos y cómo ellos te pueden llevar a cursos muy interesantes que puedes tomar para continuar tu formación matemática.

Existen métodos generales para encontrar las raíces de polinomios de grado $3$ y $4$, ya sea en $\mathbb{R}[x]$ o en $\mathbb{C}[x]$. Para los polinomios de grado $3$, se usa el método de Cardano. Para los polinomios de grado $4$ se usa el método de Ferrari. Encontrar estas fórmulas tomó mucho tiempo. Ambas requieren de manipulaciones algebraicas muy creativas.

Raíces de polinomios de grado 3 y el método de Cardano

Tomemos un polinomio $f(x)$ en $\mathbb{R}[x]$ de grado $3$. Si $f(x)$ no es mónico, podemos multiplicarlo por el inverso de su coeficiente principal para obtener un polinomio con las mismas raíces. De esta forma, podemos suponer sin pérdida de generalidad que $f(x)$ es de la forma $$f(x)=x^3+ax^2+bx+c.$$

Consideremos al polinomio $$g(x)=f\left(x-\frac{a}{3}\right).$$ Observa que $r$ es una raíz de $g(x)$ si y sólo si $g(r)=0$, si y sólo si $f\left(r-\frac{a}{3}\right)=0$, si y sólo si $r-\frac{a}{3}$ es una raíz de $f$. De esta forma, si conocemos las raíces de $g(x)$, podemos encontrar las de $f(x)$, y viceversa.

Al hacer las cuentas (que quedan como tarea moral), se tiene que $g(x)$ se simplifica a
\begin{align*}
g(x)&=f\left(x-\frac{a}{3}\right)\\
&=x^3+\left(b-\frac{a^2}{3}\right)x+\left(-\frac{ba}{3}+c+\frac{2a^3}{27}\right),
\end{align*}

que tiene la ventaja de ya no tener término cuadrático. En otras palabras, para encontrar las raíces de polinomio cúbico, basta con poder encontrar las de los polinomios de la forma $$g(x)=x^3+px+q.$$

Tomando $x=u+v$ y haciendo las operaciones, se tiene que $$g(u+v)=u^3+v^3+(3uv+p)(u+v)+q.$$

Observa que si logramos encontrar $u$ y $v$ que satisfagan el sistema de ecuaciones
\begin{align*}
u^3+v^3&=-q\\
uv&=-\frac{p}{3},
\end{align*}

entonces tendríamos una raíz $x=u+v$.

La segunda ecuación implica $u^3v^3=-\frac{p^3}{27}$. Pero entonces conocemos la suma y el producto de las variables $u^3$ y $v^3$, con lo cual obtenemos que son las raíces del siguiente polinomio de grado $2$ en la variable $t$:
\begin{align*}
(t-u^3)(t-v^3)&=t^2-(u^3+v^3)t+u^3v^3\\
&=t^2+qt-\frac{p^3}{27}.
\end{align*}

El discriminante de esta ecuación cuadrática es $$\Delta = q^2 + \frac{4p^3}{27}.$$

Si $\Delta >0$, esta ecuación cuadrática tiene las siguientes soluciones reales:
\begin{align*}
\sqrt[3]{-\frac q2 + \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}\\
\sqrt[3]{-\frac q2 – \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}.
\end{align*}

Sin pérdida de generalidad, $u$ es la primera y $v$ la segunda. De esta forma, una raíz real para $g(x)$ es $$x= \sqrt[3]{-\frac q2 + \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}} + \sqrt[3]{-\frac q2 – \sqrt {\frac {q^2}{4} +\frac {p^3}{27}}}.$$

Hasta aquí hay algunas cosas por notar:

  • Supusimos que el discriminante $\Delta$ es positivo.
  • Sólo hemos encontrado una de las $3$ raíces de $p(x)$ que garantiza el teorema fundamental del álgebra.

Cuando el discriminante es positivo, las otras dos soluciones son $\omega x$ y $\omega^2 x$, en donde $\omega$ es una raíz cúbica primitiva de la unidad.

Cuando la cuadrática tiene discriminante $\Delta<0$, tenemos que $u$ y $v$ son complejos, y entonces al sacar raíz cúbica podemos tener tres opciones para cada uno, algo que parecería dar un total de $9$ soluciones. Sin embargo, recordando que $uv=-\frac{p}{3}$, tenemos que $u$ queda totalmente determinado por $v$, así que de ahí se obtienen las tres soluciones.

Raíces de polinomios de grado 4 y el método de Ferrari

El método de Ferrari está explicado a detalle en el libro de Álgebra de Bravo, Rincón y Rincón. Ahí están las ideas principales para encontrar una fórmula general para encontrar las raíces de un polinomio de grado $4$, es decir, de la forma $$p(x)=ax^4+bx^3+cx^2+dx+e.$$ Recuerda que el libro está disponible para descarga gratuita.

Al igual que en el caso del método de Ferrari, los primeros pasos consisten en hacer simplificaciones algebraicas. Así como el método de Cardano usa la fórmula cuadrática, del mismo modo el método de Ferrari reduce el problema a encontrar soluciones a un polinomio de grado 3. Uno podría creer que este patrón se repite, y que se pueden encontrar métodos para polinomios de grado arbitrario. Esto no es así, y lo platicaremos en la siguiente sección.

Para otra derivación de la fórmula de Ferrari, compartimos el artículo «Identidades para la resolución de ecuaciones cúbicas y cuárticas» de José Leonardo Sáenz Cetina, que apareció en el número 24 de la revista Miscelánea Matemática de la Sociedad Matemática Mexicana:

Este documento también tiene otras dos formas de resolver ecuaciones cúbicas, así que es una lectura recomendada.

Finalmente, se recomienda también echarle un ojo a la página de Wikipedia acerca de la ecuación cuártica. La entrada en inglés es mucho mejor. Sobre todo la sección referente al método de Ferrari.

Raíces de polinomios de grado 5 y más

De acuerdo al teorema fundamental del álgebra, todo polinomio sobre los complejos tiene al menos una raíz. De hecho, se puede mostrar que si es de grado $n$, entonces tiene exactamente $n$ raíces, contando multiplicidades.

Cuando tenemos polinomios de grados $2$, $3$ y $4$ podemos usar la fórmula cuadrática, el método de Cardano y el método de Ferrari para encontrar una fórmula para las soluciones. ¿Hay algún método que tenga fórmulas similares para polinomios de grado más grande?

La respuesta es que no. Aunque el teorema fundamental del álgebra garantice la existencia de las raíces, hay un teorema de Abel y Ruffini que muestra que no es posible encontrar una fórmula general. Al menos no una que ayude a poner las raíces de cualquier polinomio de grado cinco (o más) usando únicamente sumas, restas, multiplicaciones, divisiones y raíces. Esto formalmente se enuncia como que hay ecuaciones de grado 5 y más que no son solubles por radicales.

Enunciar y demostrar este teorema formalmente requiere de herramientas que quedan fuera del alcance de este curso, sin embargo, se puede estudiar en un curso avanzado de álgebra, en donde se hable de extensiones de campo y teoría de Galois.

Por otro lado, podemos dejar de lado la exactitud y preguntarnos si, dado un polinomio, podemos acercarnos a sus raíces tanto como queramos. Hoy en día eso se hace mediante métodos computacionales. Aunque la computadora sea muy buena haciendo cuentas, hay que ser particularmente cuidadoso con los errores que comete al hacer aproximaciones.

Eso es otra de las cosas que quedan fuera del alcance de este curso, y que puedes estudiar en un buen curso de métodos numéricos. Si lo que buscas es saber cómo pedirle a la computados que haga los cálculos, eso lo puedes aprender en un buen curso de programación, en donde te enseñen a usar ambientes de computación científica.

Más adelante…

Antes de concluir el curso, en la siguiente entrada, repasamos lo aprendido en esta entrada y vemos como se puede realizar una ecuación de grado $3$ y de grado $4$ usando los métodos de Cardano y de Ferrari, sin embargo, es importante no olvidar que antes de estos métodos, tenemos otros teoremas importantes que en principio podrían ser más simples para obtener las soluciones a una cúbica o cualquier ecuación.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Completa las cuentas faltantes en la discusión del método de Cardano.
  2. Muestra que un polinomio de grado $3$ y coeficientes reales tiene exactamente cero o dos raíces complejas distintas.
  3. ¿Cuántas raíces complejas distintas puede tener un polinomio de grado $4$ con coeficientes reales? Encuentra un ejemplo para cada una de las respuestas.
  4. Encuentra las raíces del polinomio cuártico $$p(x)=x^4+2x^3-12x^2-10x+4.$$ Después, compara tu respuesta con el Ejemplo 216 del libro de Álgebra de Bravo, Rincón, Rincón.
  5. Lee las entradas en Wikipedia acerca de ecuaciones cúbicas y ecuaciones cuárticas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior II: El criterio de la raíz racional para polinomios de coeficientes enteros

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada veremos el criterio de la raíz racional. Este es un método que nos permite determinar las únicas raíces racionales que puede tener un polinomio con coeficientes enteros. Es una más de las herramientas que podemos usar cuando estamos estudiando polinomios en $\mathbb{R}[x]$.

Si encontramos una raíz con este método, luego podemos encontrar su multiplicidad mediante el teorema de derivadas y multiplicidad. Esto puede ayudarnos a factorizar el polinomio. Otras herramientas que hemos visto que nos pueden ayudar son el algoritmo de Euclides, la fórmula cuadrática, el teorema del factor y propiedades de continuidad y diferenciabilidad de polinomios.

El criterio de la raíz racional

Si un polinomio $p(x)$ en $\mathbb{R}[x]$ cumple que todos sus coeficientes son números enteros, entonces decimos que es un polinomio sobre los enteros. Al conjunto de polinomios sobre los enteros se le denota $\mathbb{Z}[x]$.

Teorema (criterio de la raíz racional). Tomemos un polinomio $p(x)$ en $\mathbb{Z}[x]$ de la forma $$p(x)=a_0+a_1x+\ldots+a_nx^n.$$ Supongamos que el número $\frac{p}{q}$ es número racional simplificado, es decir con $p$ y $q\neq 0$ enteros primos relativos. Si $\frac{p}{q}$ es raíz de $p(x)$, entonces $p$ divide a $a_0$, y $q$ divide a $a_n$.

Demostración. Por definición, si $\frac{p}{q}$ es una raíz, tenemos que $$0=a_0+a_1\cdot \frac{p}{q} + \ldots + a_n \cdot \frac{p^n}{q^n}.$$

Multiplicando ambos lados de esta igualdad por $q^n$, tenemos que

$$0=a_0q^n+a_1pq^{n-1}+\ldots+a_{n-1}p^{n-1}q+a_np^n.$$

Despejando $a_0q^n$, tenemos que

\begin{align*}
a_0q^n&=-(a_1pq^{n-1}+\ldots+a_{n-1}p^{n-1}q+a_np^n)\\
&=-p(a_1q^{n-1}+\ldots+a_{n-1}p^{n-2}q+a_np^{n-1})
\end{align*}

Esto muestra que $a_0q^n$ es múltiplo de $p$. Pero como $\MCD{p,q}=1$, tenemos que $p$ debe dividir a $a_0$.

De manera similar, tenemos que

\begin{align*}
a_np^n&=-(a_0q^n+a_1pq^{n-1}+\ldots+a_{n-1}p^{n-1}q)\\
&=-q(a_0q^{n-1}+a_1pq^{n-2}+\ldots+a_{n-1}p^{n-1}).
\end{align*}

De aquí, $q$ divide a $a_np^n$, y como $\MCD{p,q}=1$, entonces $q$ divide a $a_n$.

$\square$

Como cualquier natural tiene una cantidad finita de divisores, el criterio de la raíz racional nos permite restringir la cantidad posible de raíces de un polinomio con coeficientes enteros a una cantidad finita de candidatos. Veamos un par de ejemplos.

Aplicación directa del criterio de la raíz racional

Ejercicio. Usa el criterio de la raíz racional para enlistar a todos los posibles números racionales que son candidatos a ser raíces del polinomio $$h(x)=2x^3-x^2+12x-6.$$ Después, encuentra las raíces racionales de $p(x)$.

Solución. El polinomio $h(x)$ tiene coeficientes enteros, así que podemos usar el criterio de la raíz racional. Las raíces racionales son de la forma $\frac{p}{q}$ con $p$ divisor de $-6$, con $q$ divisor de $2$ y además $\MCD{p,q}=1$. Los divisores enteros de $-6$ son $$-6,-3,-2,-1,1,2,3,6.$$ Los divisores enteros de $2$ son $$-2,-1,1,2.$$

Pareciera que hay muchas posibilidades por considerar. Sin embargo, nota que basta ponerle el signo menos a uno de $p$ o $q$ para considerar todos los casos. Así, sin pérdida de generalidad, $q>0$. Si $q=1$, obtenemos a los candidatos $$-6,-3,-2,-1,1,2,3,6.$$ Si $q=2$, por la condición de primos relativos basta usar los valores $-3,-1,1,3$ para $p$. De aquí, obtenemos al resto de los candidatos $$-\frac{3}{2},-\frac{1}{2},\frac{1}{2},\frac{3}{2}.$$

En el peor de los casos, ya solo bastaría evaluar el polinomio en estos $12$ candidatos para determinar si son o no son raíz. Sin embargo, a veces podemos hacer algunos trucos para disminuir todavía más la lista.

Observa que si evaluamos $$h(x)=2x^3-x^2+12x-6$$ en un número negativo, entonces la expresión quedará estrictamente negativa, así que ninguno de los candidatos negativos puede ser raíz. De este modo, sólo nos quedan los candidatos $$1,2,3,6,\frac{1}{2},\frac{3}{2}.$$

Si evaluamos en $x=2$ o $x=6$, entonces la parte de la expresión $2x^3-x^2+12x$ es múltiplo de $4$, pero $-6$ no. De esta forma, $h(x)$ no sería un múltiplo de $4$, y por lo tanto no puede ser $0$. Si evaluamos en $x=1$ o $x=3$, tendríamos que la parte de la expresión $2x^3+12x-6$ sería par, pero $-x^2$ sería impar, de modo que $h(x)$ sería impar, y no podría ser cero. Así, ya sólo nos quedan los candidatos $$\frac{1}{2},\frac{3}{2}.$$

Para ellos ya no hagamos trucos, y evaluemos directamente. Tenemos que
\begin{align*}
h\left(\frac{1}{2}\right) &= 2\cdot \frac{1}{8} – \frac{1}{4} + 12 \cdot \frac{1}{2}-6\\
&=\frac{1}{4}-\frac{1}{4}+6-6\\
&=0.
\end{align*}

y que
\begin{align*}
h\left(\frac{3}{2}\right) &= 2\cdot \frac{27}{8} – \frac{9}{4} + 12 \cdot \frac{3}{2}-6\\
&=\frac{27}{4}-\frac{9}{4}+18-6\\
&=\frac{9}{2}+12\\
&=\frac{33}{2}.
\end{align*}

Habiendo considerado todos los casos, llegamos a que la única raíz racional de $h(x)$ es $\frac{1}{2}$.

$\triangle$

Aplicación indirecta del criterio de la raíz racional

El criterio de la raíz racional lo podemos usar en algunos problemas, aunque en ellos no esté escrito un polinomio de manera explícita.

Problema. Muestra que $\sqrt[7]{13}$ no es un número racional.

Solución. Por definición, el número $\sqrt[7]{13}$ es el único real positivo $r$ que cumple que $r^7=13$. Se puede mostrar su existencia usando que la función $f:\mathbb{R}\to\mathbb{R}$ dada por $f(x)=x^7$ es continua, que $f(0)=0$, que $f(2)=128$, y aplicando el teorema del valor intermedio. Se puede mostrar su unicidad mostrando que la función $f$ es estrictamente creciente en los reales positivos. Lo que tenemos que mostrar es que este número real no es racional.

Si consideramos el polinomio $p(x)=x^7-13$, tenemos que $p(r)=r^7-13=0$, de modo que $r$ es raíz de $p(x)$. Así, para terminar el problema, basta mostrar que $p(x)$ no tiene raíces racionales.

El polinomio $p(x)$ tiene coeficientes enteros, así que podemos aplicarle el criterio de la raíz racional. Una raíz racional tiene que ser de la forma $\frac{p}{q}$ con $p$ divisor de $-13$ y $q$ divisor de $1$.

Sin perder generalidad, $q>0$, así que $q=1$. De esta forma, los únicos candidatos a ser raíces racionales de $p(x)$ son $-13,-1,1,13$. Sin embargo, una verificación de cada una de estas posibilidades muestra que ninguna de ellas es raíz de $p(x)$. Por lo tanto, $p(x)$ no tiene raíces racionales, lo cual termina la solución del problema.

$\square$

Aplicación en polinomio con coeficientes racionales

A veces un polinomio tiene coeficientes racionales, por ejemplo, $$r(x)=\frac{x^3}{2}+\frac{x^2}{3}-4x-1.$$

A un polinomio con todos sus coeficientes en $\mathbb{Q}$ se les conoce como polinomio sobre los racionales y al conjunto de todos ellos se le denota $\mathbb{Q}[x]$. Para fines de encontrar raíces racionales, los polinomios en $\mathbb{Q}[x]$ y los polinomios en $\mathbb{Z}[x]$ son muy parecidos.

Si tenemos un polinomio $q(x)$ en $\mathbb{Q}[x]$, basta con multiplicar por el mínimo común múltiplo de los denominadores de los coeficientes para obtener un polinomio $p(x)$ con coeficientes enteros. Como $q(x)$ y $p(x)$ varían sólo por un factor no cero, entonces tienen las mismas raíces. Por ejemplo, el polinomio $r(x)$ de arriba tiene las mismas raíces que el polinomio $$s(x)=6r(x)=3x^3+2x^2-24x-6.$$ A este nuevo polinomio se le puede aplicar el criterio de la raíz racional para encontrar todas sus raíces racionales.

Ejemplo. Consideremos el polinomio $$q(x)=x^3+\frac{x^2}{3}+5x+\frac{5}{3}.$$ Vamos a encontrar todos los candidatos a raíces racionales. Para ello, notamos que $q(x)$ y $p(x):=3q(x)$ varían sólo por un factor multiplicativo no nulo y por lo tanto tienen las mismas raíces. El polinomio $$p(x)=3x^3+x^2+15x+5$$ tiene coeficientes enteros, así que los candidatos a raíces racionales son de la forma $\frac{a}{b}$ con $a$ y $b$ primos relativos, $a\mid 5$ y $b\mid 3$. Sin pérdida de generalidad $b>0$.

Los divisores de $5$ son $-5,-1,1,5$. Los divisores positivos de $3$ son $1$ y $3$. De esta forma, los candidatos a raíces racionales son $$-5,-1,1,5,-\frac{5}{3},-\frac{1}{3},\frac{1}{3},\frac{5}{3}.$$

Si ponemos un número positivo en $p(x)$, como sus coeficientes son todos positivos, tenemos que la evaluación sería positiva, así que podemos descartar estos casos. Sólo nos quedan los candidatos $$-5,-1,-\frac{5}{3},-\frac{1}{3}.$$

La evaluación en $-5$ da
\begin{align*}
-3\cdot 125 + 25 – 15\cdot 5 +5&=-375+25-75+5\\
&=-295,
\end{align*}

así que $-5$ no es raíz.

La evaluación en $-1$ da
\begin{align*}
-3+1-15+5=-12,
\end{align*}

así que $-1$ tampoco es raíz.

Como tarea moral, queda verificar que $-\frac{5}{3}$ tampoco es raíz, pero que $-\frac{1}{3}$ sí lo es.

$\triangle$

Más adelante

Hemos visto como podemos encontrar algunas raíces de los polinomios con coeficientes en $\mathbb{Q}$, esta herramienta es extremadamente fuerte, porque aún encontrando solo una raíz para el polinomios, usando el teorema del factor, podemos cambiar nuestro polinomio por uno de al menos un grado menor.

La importancia de disminuir el grado de un polinomio, es que si logramos reducirlo a un polinomio de grado cuatro, entonces podremos encontrar todas las raíces, aunque estas pueden ser un poco complicadas.

El justificar la aseveración anterior, requiere esfuerzo, y será nuestra siguiente tarea, dar todas las soluciones a cualquier polinomio de grado menor o igual $4$.

Por lo mientras, para practicar los temas vistos, en la siguiente sección repasaremos algunos ejercicios para familiarizarnos con las técnicas que hemos visto.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Realiza las evaluaciones que faltan en el último ejemplo.
  2. Determina las raíces racionales del polinomio $$x^7-6x^4+3x^3+18x-1.$$
  3. Muestra que $\sqrt[3]{12}$ no es un número racional.
  4. Encuentra todos los candidatos a ser raíces racionales de $$x^3+\frac{2x^2}{3}-7x-\frac{14}{3}.$$ Determina cuáles sí son raíces.
  5. Puede que un polinomio en $\mathbb{Z}[x]$ no tenga raíces racionales, pero que sí se pueda factorizar en $\mathbb{Z}[x]$. Investiga acerca del criterio de irreducibilidad de Eisenstein.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz $A$ en $M_n(F)$ es simétrica si es igual a su transpuesta.
  • Una matriz $A$ en $M_n(F)$ es ortogonal si es invertible y $A^{-1}= {^tA}$.
  • Si $T:V\to V$ es una transformación lineal de un espacio vectorial $V$ a sí mismo y $W$ es un subespacio de $V$, entonces decimos que $W$ es estable bajo $T$ si $T(W)\subseteq W$.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si $W$ es un subespacio de un espacio Euclideano $V$, entonces $W^\bot$ es el conjunto de todos los vectores que de $V$ que son ortogonales a todos los vectores de $W$.
  • Una matriz $A$ en $M_n(F)$ es diagonalizable si existen matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible, $D$ diagonal y tales que $A=P^{-1}DP$.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz $A$ en $M_n(\mathbb{R})$ tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente $n$ raíces en $\mathbb{C}$, contando multiplicidades. Si alguna de estas raíces $r$ no es real, entonces $A$ no puede ser diagonalizable en $M_n(\mathbb{R})$. La razón es que $A$ sería similar a una matriz diagonal $D$, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como $A$ y $D$ comparten eigenvalores (por ser similares), entonces $r$ tendría que ser una entrada de $D$, pero entonces $D$ ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y $\lambda$ una raíz del polinomio característico de $A$. Entonces, $\lambda$ es un número real.

Demostración. El polinomio característico de $A$ es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que $\lambda$ debe ser un número en $\mathbb{C}$. Así, podemos escribirlo de la forma $\lambda = a+ib$, con $a$ y $b$ números reales. Lo que mostraremos es que $b=0$.

Se tiene que $\lambda$ es un eigenvalor de $A$ vista como matriz en $M_n(\mathbb{C})$, y por lo tanto le corresponde un eigenvector $U$ en $\mathbb{C}^n$, es decir, un $U\neq 0$ tal que $$AU=\lambda U.$$ Este vector $U$ lo podemos separar en partes reales e imaginarias con vectores $V$ y $W$ en $\mathbb{R}^n$ tales que $$U=V+iW.$$

En estos términos,
\begin{align*}
AU&=A(V+iW)=AV+iAW \quad\text{y}\\
\lambda U &= (a+ib)(V+iW)\\
&=(aV-bW) + i (aW+bV),
\end{align*}

de modo que igualando partes reales e imaginarias en la expresión $AU=\lambda U$ tenemos que
\begin{align*}
AV&=aV-bW\quad\text{y}\\
AW&=aW+bV.
\end{align*}

Como $A$ es simétrica, tenemos que

\begin{equation}
\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.
\end{equation}

Estudiemos las expresiones en los extremos, reemplazando los valores de $AV$ y $AW$ que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

\begin{align*}
\langle AV,W \rangle &= \langle aV-bW,W \rangle\\
&=a\langle V,W \rangle – b \langle W,W \rangle\\
&=a \langle V,W \rangle – b \norm{W}^2,
\end{align*}

y que

\begin{align*}
\langle V,AW \rangle &= \langle V,aW+bV \rangle\\
&=a\langle V,W \rangle + b \langle V,V \rangle\\
&=a \langle V,W \rangle + b \norm{V}^2.
\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

$$a \langle V,W \rangle – b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,$$

que se simplifica a $$b(\norm{V}^2+\norm{W}^2)=0.$$

Estamos listos para dar el argumento final. Como $U=V+iW$ es un eigenvector, entonces no es nulo, de modo que no es posible que $V$ y $W$ sean ambos el vector $0$ de $\mathbb{R}^n$. Como el producto interior es positivo definido, entonces alguna de las normas $\norm{V}$ o $\norm{W}$ no es cero, de modo que $$\norm{V}^2+\norm{W}^2\neq 0.$$

Concluimos que $b=0$, y por lo tanto que $\lambda$ es un número real.

$\square$

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a $\mathbb{C}$ para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si $V$ es un espacio Euclideano y $T:V\to V$ es una transformación lineal, entonces decimos que $T$ es simétrica si para todo par de vectores $u$ y $v$ en $V$ se tiene que $$\langle T(u),v\rangle = \langle u, T(v) \rangle.$$ Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea $V$ un espacio Eucideano y $T:V\to V$ una transformación lineal simétrica. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces:

  • $W^\bot$ también es estable bajo $T$ y
  • Las restricciones de $T$ a $W$ y a $W^\bot$ son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si $w$ pertenece a $W^\bot$, entonces $T(w)$ también, es decir, que $T(w)$ es ortogonal a todo vector $v$ en $W$.

Tomemos entonces un vector $v$ en $W$. Como $W$ es estable bajo $T$, tenemos que $T(v)$ está en $W$, de modo que $\langle w, T(v) \rangle =0$. Como $T$ es simétrica, tenemos entonces que $$\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.$$ Esto es lo que queríamos probar.

Para la segunda parte, si $T_1$ es la restricción de $T_1$ a $W$ y tomamos vectores $u$ y $v$ en $W$, tenemos que
\begin{align*}
\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\
&=\langle u, T(v) \rangle \\
&=\langle u, T_1(v) \rangle,
\end{align*}

lo cual muestra que $T_1$ es simétrica. La prueba para $W^\bot $ es análoga y queda como tarea moral.

$\square$

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en $M_n(F)$ sea diagonalizable, y que exista una base especial para $F^n$. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea $A$ una matriz en $M_n(F)$. Las siguientes dos afirmaciones son equivalentes:

  • $A$ es diagonalizable, es decir, existen matrices $P$ y $D$ en $M_n(F)$, con $P$ invertible y $D$ diagonal tales que $A=P^{-1}DP.$
  • Existe una base para $F^n$ que consiste de eigenvectores de $A$.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz $B$ en $M_n(F)$ de vectores columna $$C_1,\ldots,C_n,$$ entonces los vectores columna del producto $AB$ son $$AC_1,\ldots AC_n.$$ Además, si $D$ es una matriz diagonal en $M_n(F)$ con entradas en la diagonal $d_1,\ldots,d_n$, entonces los vectores columna de $BD$ son $$d_1C_1,\ldots,d_nC_n.$$

Comencemos la prueba del teorema. Supongamos que $A$ es diagonalizable y tomemos matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible y $D$ diagonal de entradas $d_1,\ldots,d_n$, tales que $A=P^{-1}DP$. Afirmamos que los vectores columna $C_1,\ldots,C_n$ de $P^{-1}$ forman una base de $F^n$ que consiste de eigenvectores de $A$.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son $n$, como la dimensión de $F^n$. Esto prueba que son una base.

De $A=P^{-1}DP$ obtenemos la igualdad $AP^{-1}=P^{-1}D$. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada $j=1,\ldots,n$ se cumple $$AC_j = d_j C_j.$$ Como $C_j$ forma parte de un conjunto linealmente independiente, no es el vector $0$. Así, $C_j$ es un eigenvector de $A$ con eigenvalor $d_j$. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de $F^n$ que consiste de eigenvectores $C_1,\ldots,C_n$ de $A$. Para cada $j=1,\ldots,n$, llamemos $\lambda_j$ al eigenvalor correspondiente a $C_j$, y llamemos $D$ a la matriz diagonal con entradas $\lambda_1,\ldots,\lambda_n$.

Como $C_1,\ldots,C_n$ son vectores linealmente independientes, la matriz $B$ cuyas columnas son $C_1,\ldots, C_n$ es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna $j$ de la matriz$AB$ es $AC_j$ y la columna $j$ de la matriz $BD$ es $\lambda_j C_j$. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que $AB=BD$, o bien, reescribiendo esta igualdad, que $$A=BDB^{-1}.$$ Así, la matriz invertible $P=B^{-1}$ y la matriz diagonal $D$ diagonalizan a $A$.

$\square$

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz $P$ no sólo será invertible, sino que además será ortogonal.

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en $M_n(\mathbb{C})$ cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de $T$ a $W^\bot$ es simétrica.
  • Realiza la demostración de que si $A$ y $B$ son matrices en $M_n(F)$ y los vectores columna de $B$ son $C_1,\ldots,C_n$, entonces los vectores columna de $AB$ son $AC_1,\ldots,AC_n$. También, prueba que si $D$ es diagonal de entradas $d_1,\ldots,d_n$, entonces las columnas de $BD$ son $d_1C_1,\ldots,d_nC_n$.
  • Encuentra una matriz $A$ con entradas reales similar a la matriz $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},$$ tal que ninguna de sus entradas sea igual a $0$. Encuentra una base ortogonal de eigenvectores de $A$ para $\mathbb{R}^3$.
  • Diagonaliza la matriz $$\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & – \frac{20}{7} & – \frac{48}{7} & – \frac{23}{7}\end{pmatrix}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Geometría discreta

Por Leonardo Ignacio Martínez Sandoval

Introducción

Como última entradaen esta parte de geometría, hablaremos de algunos temas de geometría discreta. Esta área de las matemáticas se dedica a estudiar propiedades combinatorias de familias de objetos geométricos. Estos objetos pueden ser puntos, rectas, rectángulos, convexos, politopos, etc. Las relaciones que nos interesan son que formen un tipo de acomodo especial, que se intersecten, que podamos contar ciertas configuraciones, etc.

Sólo hablaremos superficialmente de un área que es profunda y bastante interesante. Un libro genial que cubre varios temas de geometría discreta de manera sistemática es Lectures on Discrete Geometry de Jiří Matoušek.

Convexos y el teorema de Helly

Un convexo de $\mathbb{R}^d$ es un conjunto tal que cualquier segmento recto definido por dos de sus puntos queda totalmente contenido en el conjunto. Por ejemplo, los convexos de $\mathbb{R}$ son los intervalos, mientras que en el plano hay muchos más ejemplos, como lo muestra la figura.

Ejemplos de conjuntos convexos y no convexos
Ejemplos de conjuntos convexos y no convexos

Si tenemos un conjunto $X$ de $\mathbb{R}^d$, su envolvente convexa es el conjunto convexo más pequeño (por contención), que contiene a $X$. Cuando $X$ es un conjunto de puntos, tenemos algo como lo de la figura. Si todos los puntos de $X$ están sobre la frontera de su envolvente convexa, y no hay tres alineados, decimos que $X$ son puntos en posición convexa.

Envolvente convexa de un conjunto de puntos
Envolvente convexa de un conjunto de puntos. El conjunto $X$ no está en posición convexa.

Los conjuntos convexos son especiales en muchos sentidos. Uno de ellos es que la intersección de una familia de convexos se puede detectar «localmente».

Problema. A una plática de matemáticas de una hora asistieron una cantidad finita de matemáticos. La plática estaba tan aburrida, que cada matemático se durmió en cierto intervalo de tiempo de esa hora, pero sólo una vez. A la hora del café, los matemáticos platicaron entre sí, y si se dieron cuenta de que para cualesquiera dos de ellos, $I$ y $J$, hubo un momento en el que $I$ y $J$ estuvieron dormidos simultáneamente. Muestra que hubo un momento de la plática en la que todos los matemáticos estuvieron dormidos.

Sugerencia pre-solución. Hay muchas soluciones. Una es mediante un argumento de maximalidad.

Solución. En términos matemáticos, queremos ver que si tenemos una cantidad finita de intervalos acotados y cerrados en la recta real que se intersectan de dos en dos, entonces todos ellos se intersectan.

Tomemos el intervalo $I$ cuyo extremo derecho sea mínimo. Llamemos $x$ a este extremo derecho. Afirmamos que cualquier otro intervalo tiene a $x$. Sea $J$ cualquiera de estos intervalos, con extremo izquierdo $y$ y extremo derecho $z$.

Imagen auxiliar para intersección de intervalos
Imaten auxiliar para intersección de intervalos

Por la minimalidad de $x$, tenemos que $x\leq z$. Si $y>x$, entonces $J$ no intersecta a $I$ y se contradice la hipótesis. Entonces, para que $J$ pueda intersectar a $I$, necesitamos que $y \leq x$. Pero entonces $x$ queda entre los extremos del intervalo $J$ y por lo tanto $x$ está en $J$. Esto termina la prueba.

$\square$

En dimensiones más altas, tenemos el siguiente resultado.

Teorema (Helly). Sea $\mathcal{F}$ una familia finita de al menos $d+1$ conjuntos convexos compactos en $\mathbb{R}^d$. Si cada subfamilia de $\mathcal{F}$ de $d+1$ convexos tiene intersección no vacía, entonces $\mathcal{F}$ tiene intersección no vacía.

El teorema de Helly es una de las piedras angulares de la geometría discreta. Una cantidad de enorme de investigación ha resultado de considerar variantes del teorema con hipótesis más débiles o más fuertes.

Politopos y la fórmula de Euler

Otra área muy rica de la geometría discreta es la teoría de politopos. Un politopo es la generalización a altas dimensiones de un polígono, o de un poliedro. Hay dos formas de definir politopos. Una es tomar puntos en $\mathbb{R}^d$ y considerar su envolvente convexa. Esto es un $V$-politopo. Para la otra necesitamos algunas definiciones adicionales.

Un subespacio afín de $\mathbb{R}^d$ es la traslación de un subespacio lineal, y su dimensión es la dimensión del subespacio lineal trasladado. Por ejemplo, cualquier punto de $\mathbb{R}^d$ es un subespacio afín de dimensión $0$ pues es la traslación del subespacio trivial $\{0\}$. Las rectas en $\mathbb{R}^d$, incluso aquellas que no pasan por el $0$, son subespacios afines de dimensión $0$. A los subespacios afines de dimensión $n-1$ les llamamos hiperplanos. Así, las líneas son los hiperplanos de $\mathbb{R}^2$, los planos los hiperplanos de $\mathbb{R}^3$, etc.

Si $P$ es un hiperplano de $\mathbb{R}^d$, un semiespacio definido por $P$ es todo lo que queda en uno de los lados de $P$. Si es abierto, no incluye a $P$, y si es cerrado, sí incluye a $P$. Un hiperplano siempre define dos semiespacios abiertos, y dos cerrados.

Hay otra forma de pensar a los politopos: tomamos una cantidad finita de semiespacios cerrados y los intersectamos. Si esa intersección está acotada, entonces a lo que obtenemos le llamamos un $H$-politopo. Piensa, por ejemplo, en los hiperplanos que determinan las caras de un cubo, y en los semiespacios «hacia adentro».

Un resultado clásico es que todo $H$-politopo es un $V$-politopo, así que podemos usar la descripción que nos convenga de acuerdo al problema que estemos resolviendo.

Un hiperplano $H$ es hiperplano soporte de un politopo $P$ si el politopo se queda totalmente contenido en alguno de los semiespacios definidos por $H$. Una cara de $P$ es la intersección de $P$ con alguno de sus hiperplanos soporte. Resulta que las caras de politopos son politopos. Para que todo funcione bien, debemos considerar al vacío como un politopo.

La dimensión de un politopo es la menor dimensión de un subespacio afín que lo contiene. Por definición, la dimensión del vacío es $-1$. Si una cara de un politopo es $k$, entonces la llamamos una $k$-cara. Los valores de $k$ sólo pueden ir de $0$ a $d$. A las $0$-caras les llamamos los vértices de $P$. A las $1$-caras les llamamos las aristas.

Para cada $k$ de $0$ a $n$, usamos $f_k$ para denotar la cantidad de $k$ caras del politopo, y a $$(f_0,f_1,f_2,\ldots,f_d)$$ le llamamos el $f$-vector del politopo. Estamos listos para enunciar un resultado crucial en la teoría de politopos.

Teorema (fórmula de Euler). Sea $P$ un politopo de dimensión $d$ en $\mathbb{R}^d$. Entonces

$$f_0-f_1+f_2-\ldots + (-1)^d f_d = 1.$$

Observa que $f_d$ siempre es $1$ pues la única $d$ cara de un politopo $P$ de dimensión $d$ es $P$ mismo.

En $\mathbb{R}^2$ esta fórmula no es tan útil, pues simplemente nos dice que si un polígono tiene $V$ vértices y $A$ aristas, entonces $V-A=0$, es decir, que tiene la misma cantidad de vértices y aristas, lo cual es inmediato.

En $\mathbb{R}^3$ la fórmula nos dice que si un poliedros tiene $V$ vértices, $A$ aristas y $F$ caras, entonces $$V-A+F=2.$$ Este fórmula se puede usar en varios problemas matemáticos de poliedros.

Problema. Muestra que el tetraedro, el cubo, el octaedro, el dodecaedro y el icosaedro son los únicos poliedros en $\mathbb{R}^3$ tales que a cada vértice una misma cantidad $a$ de caras, y cada cara consiste de la misma cantidad $b$ de vértices.

Sugerencia pre-solución. Usa notación adecuada, poniendo la cantidad de vértices, aristas y caras en términos de $a$ y $b$. Usa la fórmula de Euler. Luego, da un argumento de desigualdades.

Solución. A cada vértice llegan por lo menos $3$ caras, y cada cara tiene por lo menos $3$ vértices. Así, $a\geq 3$ y $b\geq 3$.

Si hay $A$ aristas, entonces tanto $2A$ como $bF$ cuentan la cantidad de parejas $(e,c)$ donde $e$ es una arista y $c$ una cara que lo tiene. Esto se debe a que cada arista está exactamente en dos caras, y a que como cada cara tiene $b$ vértices, entonces tiene $b$ aristas. Por lo tanto, $2A=bF$, de donde $$A=\frac{bF}{2}.$$

De manera similar, si hay $V$ vértices y $F$ caras, entonces tanto $aV$ como $bF$ cuentan la cantidad de parejas $(v,c)$, donde $v$ es un vértice y $c$ es una cara que lo tiene. De esta forma, $aV=bF$, de lo cual $$V=\frac{bF}{a}.$$

Por la fórmula de Euler, tenemos entonces que $$\frac{bF}{a}-\frac{bF}{2}+F = 2.$$ Esta igualdad implica, en particular, que al determinar los valores de $a$ y $b$, se determinan $F$ y entonces $V$ y $A$.

Si multiplicamos por $\frac{2}{bF}$ de ambos lados, y sumamos $1$ de ambos lados, tenemos que \begin{equation}
\frac{2}{a}+\frac{2}{b}= \frac{4}{bF}+1 > 1.
\end{equation}

Como $a\geq 3$, entonces $\frac{2}{a}\leq \frac{2}{3}$. De este modo,
\begin{align*}
\frac{2}{b}&> 1 – \frac{2}{a}\\
&\geq 1-\frac{2}{3} \\
&= \frac{1}{3}.
\end{align*}

Esto muestra que $b<6$, de modo que $b\leq 5$. Por simetría, $a\leq 5$. Podemos entonces simplemente estudiar los casos $a=2,3,4$ y $b=2,3,4$.

Si $a=5$, entonces la desigualdad (1) se cumple sólo si $b=3$. Si $a=4$, la desigualdad (1) se cumple sólo si $b=3$. Finalmente, si $a=3$, la desigualdad se cumple para $b=3,4,5$. De este modo, las únicas parejas de $(a,b)$ que sirven son:

  • $(3,3)$, que nos da el tetraedro.
  • $(3,4)$, que nos da el cubo.
  • $(4,3)$, que nos da el octaedro.
  • $(3,5)$, que nos da el dodecaedro.
  • $(5,3)$, que nos da el icosaedro.

$\square$

La fórmula de Euler es sólo una de las relaciones lineales que satisfacen las entradas del $f$-vector de un politopo. Otros dos resultados interesantes del área son:

  • Las relaciones de Dehn-Sommerville, que dan otras relaciones lineales que satisfacen las entradas del $f$-vector.
  • El teorema de la cota superior que para $d$, $n$ y $k$ fijas acota el número de $k$-caras que puede tener un politopo de dimensión $d$ con $n$-vértices.

Un libro canónico para aprender de politopos de manera sistemática es el Lectures on Polytopes de Günter M. Ziegler.

Conjuntos de puntos y teoremas extremales

La última área de la que hablaremos serán los problemas extremales en geometría discreta. Nos enfocaremos únicamente en problemas sobre conjuntos de puntos, pero se podrían hacer preguntas análogas para otras familias de objetos geométricos. De manera informal, pero intuitiva, un problema extremal de geometría consiste en mostrar que si un número es suficientemente grande, entonces empiezan a pasar cosas interesantes con ciertos objetos geométricos.

Uno de los resultados clásicos es el teorema de Erdős-Szekeres. A grandes rasgos, lo que dice es que si tenemos muchos puntos en posición general en el plano (no hay tres colineales), entonces siempre es posible encontrar un subconjunto grande de ellos que está en posición convexa.

Teorema (Erdős-Szekeres). Sea $n$ un entero positivo. Entonces, existe un entero $f(n)$ tal que si se tiene un conjunto $S$ con $f(n)$ o más puntos en el plano en posición general, entonces hay un subconjunto de tamaño $n$ de $S$ que consiste de puntos en posición convexa.

Típicamente, es bastante difícil encontrar los valores exactos de las funciones involucradas en problemas extremales de geometría discreta. El tipo de resultados de interés para la investigación matemática es encontrar las mejores «cotas asintóticas», que digan, más o menos, cómo se comporta la función que se está estudiando. En el caso del teorema de Erdős-Szekeres, las mejores cotas se enuncian así:

$$1+2^{n-2}\leq f(n) \leq 2^{n+o(n)}.$$

La notación $h(n)=o(g(n))$ quiere decir que $\frac{h(n)}{g(n)}\to 0$ cuando $n\to \infty$.

Aunque sea difícil determinar los valores exactos de $f(n)$ para toda $n$, hay algunos valores pequeños que sí se pueden determinar.

Problema. Demuestra que $f(4)=5$, es decir:

  • Que hay conjuntos de $4$ puntos en posición general en el plano que no tienen subconjuntos de tamaño $4$ en posición convexa.
  • Que cualquier subconjunto de $5$ puntos en posición general en el plano tiene un subconjunto de $4$ puntos en posición convexa.

Sugerencia pre-solución. Encontrar el ejemplo para el primer punto es fácil, simplemente explora el problema haciendo varias figuras. Divide el problema en casos de acuerdo a la cantidad de puntos que forman la envolvente convexa. Para uno de los casos, usa el principio de las casillas.

Solución. El siguiente ejemplo son $4$ puntos que no están en posición convexa, y que por lo tanto no tienen subconjuntos de tamaño $4$ en posición convexa.

Cuatro puntos que no están en posición convexa
Cuatro puntos que no están en posición convexa

Mostraremos ahora que $5$ puntos en posición general en el plano siempre tienen un subconjunto de tamaño $4$ en posición convexa. Procedemos por casos de acuerdo a la cantidad de puntos que están en la frontera de la envolvente convexa. Si son $4$ ó $5$, entonces inmediatamente entre ellos hay $4$ en posición convexa.

Si son $3$, entonces llamemos $A$, $B$, $C$ a esos puntos y $D$ y $E$ a los otros dos, que quedan dentro de $\triangle ABC$. La recta $DE$ divide al plano en dos semiplanos. Por principio de las casillas, hay dos puntos de entre $A$, $B$ y $C$ que yacen en el mismo semiplano, digamos $A$ y $B$.

Caso con tres puntos en la envolvente convexa
Caso con tres puntos en la envolvente convexa

Como la recta $DE$ no corta al segmento $AB$ (por estar $D$ y $E$ en el mismo semiplano), y la recta $AB$ no corta al segmento $DE$ (por ser $AB$ un lado de la envolvente convexa), entonces los puntos $A$, $B$, $D$, $E$ están en posición convexa.

$\square$

Finalmente, presentamos un par de resultados más. También son problemas extremales, pero en vez de hablar de envolventes convexas, hablan acerca de distancias.

Si lo piensas un poco, es imposible colocar $4$ puntos distintos en el plano de modo que todas las parejas estén a distancia uno. Si tienes $n$ puntos en el plano, entonces ellos definen $\binom{n}{2}=\frac{n(n-1)}{2}\approx \frac{n^2}{2}$ parejas de puntos. ¿Cuántos de ellos pueden estar a distancia $1$? Estudiar esta cantidad es un problema que fue propuesto por Paul Erdős. Si $u(n)$ denota este máximo, las mejores cotas que hay para el problema son $$n^{1+d/\log \log n} \leq f(n) \leq O(n^{4/3}).$$

Aquí $d$ es una constante que sirve para toda $n$. La notación $h(n)\leq O(g(n))$ se refiere a que existe una constante $c$ tal que $h(n)\leq cg(n)$ para $n$ suficientemente grande.

Por supuesto, la distancia $1$ no tiene nada de especial. En realidad, ninguna distancia puede repetirse demasiado. Ya que ninguna distancia aparece muchas veces, la intuición (por principio de las casillas), nos debe decir que entonces para un conjunto de puntos, sus parejas deben definir muchas distancias diferentes. Llamemos $d(n)$ a la cantidad de distancias diferentes que define un conjunto de $n$ puntos en el plano. Erdős también preguntó, ¿cómo se comporta este número?. Las mejores cotas son $$\Omega\left(\frac{n}{\log }\right)\leq d(n) \leq O\left(\frac{n}{\sqrt{\log n}}\right).$$

La notación $h(n)\geq\Omega(g(n))$ se refiere a que existe una constante $c$ tal que $h(n)\geq cg(n)$ para $n$ suficientemente grande.

El problema de las distancias unitarias y el problema de las distancias diferentes han estimulado mucha de la investigación en geometría discreta. Las demostraciones de sus cotas, han introducido al área varias técnicas de teoría de números, del método probabilista y de geometría algebraica.

Un libro con mucho material de problemas extremales y otros temas es Combinatorial Geometry and its Algorithmic Applications de Janos Pach y Micha Sharir.

Más problemas

En resumen, en los siguientes libros hay bastante material para aprender los temas de esta entrada: