Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Lineal I: Propiedades del polinomio característico

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si $A$ es una matriz en $M_n(F)$, entonces la expresión $\det (\lambda I_n – A)$ es un polinomio en $\lambda$ de grado $n$ con coeficientes en $F$. A partir de ello, definimos el polinomio característico de $A$ como $$\chi_A(\lambda)=\det(\lambda I_n – A).$$

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz \begin{align*}
\begin{pmatrix}
0&1&0&0\\
2&0&-1&0\\
0& 7 & 0 & 6\\
0 & 0 & 3 & 0
\end{pmatrix}.
\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:
\begin{align*}
\begin{vmatrix}
\lambda&-1&0&0\\
-2&\lambda&1&0\\
0& -7 & \lambda & -6\\
0 & 0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}
+2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Para calcular los determinantes de cada una de las matrices de $3\times 3$ podemos aplicar la fórmula por diagonales para obtener:
\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
\lambda(\lambda^3-18\lambda+7\lambda)\\
&=\lambda(\lambda^3-11\lambda)\\
&=\lambda^4-11\lambda^2
\end{align*}

y
\begin{align*}
2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
2(-\lambda^2+18)\\
&=-2\lambda^2+36.
\end{align*}

Concluimos que el polinomio característico es
\begin{align*}
\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\
&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).
\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son $-2,2,-3,3$.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor $-2$, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo $$(-2I_n-A)X=0.$$

$\triangle$

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si $A=[a_{ij}]$ es una matriz triangular superior en $M_n(F)$, entonces su polinomio característico es $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

Demostración. Como $A$ es triangular superior, entonces $\lambda I_n -A$ también, y sus entradas diagonales son precisamente $\lambda-a_{ii}$ para $i=1,\ldots,n$. Como el determinante de una matriz triangular es el producto de sus entradas en la diagonal, tenemos que $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

$\square$

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea $A$ una matriz en $M_n(F)$. Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:
\begin{align*}
\chi_A(\lambda)&=\det(\lambda I_n – A)\\
&=\det({^t(\lambda I_n-A)})\\
&=\det(\lambda({^tI_n})-{^tA})\\
&=\det(\lambda I_n – {^tA})\\
&=\chi_{^tA}(\lambda).
\end{align*}

$\square$

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios $$(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)$$ tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. Entonces $A$ y $P^{-1}AP$ tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que $\det(P)\det(P^{-1})=1$ y que el determinante es multiplicativo:

\begin{align*}
\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\
&=\det(P) \det(\lambda I_n – P^{-1}AP) \det(P^{-1})\\
&=\det(P(\lambda I_n – P^{-1}AP)P^{-1})\\
&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\
&=\det(\lambda I_n – A)\\
&=\chi_{A}(\lambda)
\end{align*}

$\square$

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si $A$ y $B$ son matrices en $M_n(F)$, entonces $\chi_A(\lambda)$ y $\chi_B(\lambda)$ son cada uno polinomios de grado $n$, así que su producto es un polinomio de grado $2n$, que por lo tanto no puede ser igual al polinomio característico $\chi_{AB}(\lambda)$ pues este es de grado $n$. Así mismo, $\chi_{A^2}(\lambda)$ no es $\chi_{A}(\lambda)^2$.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea $A$ una matriz en $M_n(F)$ y $\chi_A(\lambda)$ su polinomio característico. Entonces $\chi_{A}(\lambda)$ es de la forma $$\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.$$

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio $\chi_{A}$ es mónico, es decir, tiene coeficiente principal $1$,
  • que el coeficiente del término de grado $n-1$ es $-\text{tr} A$ y
  • el coeficiente libre es $(-1)^n \det A$.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:
\begin{align*}
\chi_A(0)&=\det(0\cdot I_n-A)\\
&=\det(-A)\\
&=(-1)^n\det(A).
\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado $n-1$ y el coeficiente principal analicemos con más detalle la fórmula del determinante
\begin{align*}
\begin{vmatrix}
\lambda – a_{11} & -a_{12} & \ldots & -a_{1n}\\
-a_{21} & \lambda – a_{22} & \ldots & -a_{1n}\\
\vdots & & \ddots & \\
-a_{n1} & -a_{n2} & \ldots & \lambda – a_{nn}
\end{vmatrix}
\end{align*}
en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado $n$ es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado $n-1$, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más $n-2$.

De este modo, los únicos términos de grado $n$ y $n-1$ vienen del producto $$(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).$$

El único término de grado $n$ viene de elegir $\lambda$ en todos los factores, y se obtiene el sumando $\lambda^n$, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado $n-1$ se obtienen de elegir $\lambda$ en $n-1$ factores y un término del estilo $-a_{ii}$. Al considerar todas las opciones, el término de grado $n-1$ es $$-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},$$ que era lo último que debíamos mostrar.

$\square$

Ejemplo. El teorema anterior muestra que si $A$ es una matriz en $M_2(F)$, es decir, de $2\times 2$, entonces $$\chi_A(\lambda)=\lambda^2 – (\text{tr}A) \lambda +\det A.$$ De manera explícita en términos de las entradas tendríamos entonces que si $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2-(a+d)\lambda+(ad-bc).$$

Como ejemplo, si $A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2 -2\lambda +1=(\lambda-1)^2.$$ Su único eigenvalor sería entonces $1$.

$\triangle$

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para $A$ una matriz en $M_n(F)$, el espectro de $A$ es el conjunto de eigenvalores de $A$. Lo denotamos por $\text{spec} (A)$

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad algebraica de $\lambda$ es el mayor entero $m_{\lambda}$ tal que $(x-\lambda)^{m_\lambda}$ divide a $\chi_A(x)$.

Cuando estamos en $\mathbb{C}$, por el teorema fundamental del álgebra todo polinomio de grado $n$ se puede factorizar en exactamente $n$ términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz $A$ en $M_n(\mathbb{C})$, su polinomio característico se puede factorizar como sigue:

$$\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),$$

en donde $\lambda_1,\ldots,\lambda_n$ son eigenvalores de $A$, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de $\lambda^{n-1}$ es $$-(\lambda_1+\ldots+\lambda_n)$$ y que el coeficiente libre es $$(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.$$ Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea $A$ una matriz en $M_n(\mathbb{C})$

  • La traza $A$ es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.$$
  • El determinante de $A$ es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.$$

Veamos un problema en donde se usa este teorema.

Problema. Sea $A$ una matriz en $M_n(\mathbb{C})$ tal que $A^2-4A+3I_n=0$. Muestra que el determinante de $A$ es una potencia de $3$.

Solución. Sea $\lambda$ un eigenvalor de $A$ y $v$ un eigenvector para $\lambda$. Tenemos que $$A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.$$ De esta forma, tendríamos que
\begin{align*}
0&=(A^2-4A+3I_n)v\\
&=(\lambda^2 v – 4\lambda v + 3 v)\\
&=(\lambda^2-4\lambda+3) v.
\end{align*}

Como $v$ no es el vector $0$, debe suceder que $\lambda^2-4\lambda+3=0$. Como $\lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1)$, entonces $\lambda=1$ ó $\lambda=3$. Con esto concluimos que los únicos posibles eigenvectores de $A$ son $1$ y $3$.

Como $A$ es una matriz en $\mathbb{C}$, tenemos entonces que su polinomio característico es de la forma $(x-1)^a(x-3)^b$ con $a$ y $b$ enteros no negativos tales que $a+b=n$. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es $1^a\cdot 3^b=3^b$, con lo que queda demostrado que es una potencia de $3$.

$\square$

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor $\lambda$ de una matriz $A$ puede repetirse.

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad geométrica de $\lambda$ es la dimensión del kernel de la matriz $\lambda I_n -A$ pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz $A$ en $M_n(F)$ es diagonalizable si y sólo si su polinomio característico $\chi_A(\lambda)$ se puede factorizar en términos lineales en $F[\lambda]$ y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ tiene como polinomio característico a $\chi_A(\lambda)=\lambda^2+1$. Este polinomio no se puede factorizar en $\mathbb{R}[x]$, así que $A$ no es diagonalizable con matrices de entradas reales.

Sin embargo, en $\mathbb{C}$ tenemos la factorización en términos lineales $\lambda^2+1=(\lambda+i)(\lambda-i),$ que dice que $i$ y $-i$ son eigenvalores de multiplicidad algebraica $1$. Se puede mostrar que la multiplicidad geométrica también es $1$. Así, $A$ sí es diagonalizable con matrices de entradas complejas.

$\square$

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si $A$ es una matriz en $M_n(F)$ y $p$ es un polinomio en $F[\lambda]$ de la forma $$p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,$$ definimos a la matriz $p(A)$ como la matriz $$a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.$$

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si $A$ es una matriz en $M_n(F)$ y $\chi_A(x)$ es su polinomio característico, entonces $$\chi_A(A)=O_n.$$

Ejemplo. Tomemos de nuevo a la matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ del ejemplo anterior. Su polinomio característico es $x^2+1$. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:
\begin{align*}
A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.
\end{align*}

$\square$

Más adelante…

En esta entrada estudiamos algunas propiedades de los eigenvalores y eigenvectores de transformaciones lineales y matrices; vimos cómo obtener eigenvalores de una matriz a partir del polinomio característico y enunciamos dos teoremas muy importantes como parte opcional del curso.

En la siguiente entrada haremos varios ejercicios para desarrollar un poco de práctica al obtener los eigenvalores y eigenvectores de una transformación lineal y de una matriz.

Entradas relacionadas

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz $$\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.$$
  • Sea $A$ una matriz en $M_n(F)$. ¿Cómo es el polinomio característico de $-A$ en términos del polinomio característico de $A$?
  • Tomemos $A$ una matriz en $M_n(F)$ y $k$ un entero positivo. Muestra que si $\lambda$ es un eigenvalor de la matriz $A$, entonces $\lambda^k$ es un eigenvalor de la matriz $A^k$.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de $2\times 2$.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

La continuidad de funciones polinomiales

Por Claudia Silva

Introducción

En la entrada pasada demostramos que los polinomios (vistos como funciones de $\mathbb{R}$ en $\mathbb{R}$) son continuas e infinitamente diferenciables, vimos además que estas propiedades sirven para hacer un análisis más detallado de algunas de sus propiedades algebraicas.

En esta entrada, ocupamos esas propiedades y los teoremas del cálculo (como el teorema del valor intermedio) para resolver algunos ejercicios interesantes sobre los polinomios.

Ejercicios de continuidad

Comenzaremos con probar que los polinomios son acotados inferiormente, luego unos ejemplos simples de derivadas, y posteriormente un par de ejercicios que involucran emplear el Teorema del Valor Medio (TVM) y el Teorema del Valor Intermedio (TVI). En el siguiente ejercicio demostramos que si $[a,b]$ es un intervalo cerrado, y $p$ un polinomi, entonces $p$ está acotado inferiormente en $[a,b]$.

En este ejercicio probamos que todo polinomio de grado impar, tiene una raíz real

Ejercicios de diferenciabilidad

Más adelante…

En la siguiente entrada, seguimos estudiando las propiedades analíticas de los polinomios, y encontramos una interesante relación entre las propiedades de sus raíces y la derivada de la función.

Tarea moral

  1. Demuestra que si $p(x)$ es una función polinomial con al menos una raíz real y $p$ de grado par, entonces $p$ tiene al menos $2$ raíces.
  2. Demuestra que si $p$ es un polinomio con dos raíces reales distintas, entonces $p’$, su derivada, tiene al menos una raíz. ¿El recíproco es verdadero?
  3. Demuestra o da un contraejemplo: El número de raíces de un polinomio es mayor que el número de raíces de su derivada.
  4. Deriva el polinomio $p(x)=3x^4-2x^3+5x-10$.
  5. Demuestra que si $p(x)$ es un polinomio de grado par, entonces es acotado por arriba o acotado por abajo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

$v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)$

en $\mathbb{R}^4$. Prueba que para cualquier elección de $x\in\mathbb{R}$, los vectores $v_1,v_2,v_3$ son linealmente independientes.

Solución. Sea $A$ la matriz cuyas columnas son $v_1,v_2,v_3$, es decir,

$A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.$

Sabemos que $v_1,v_2,v_3$ son linealmente independiente si y sólo si $\text{dim(span}(v_1,v_2,v_3))=3$, ya que $\text{rank}(A)=3$, y eso es equivalente (por la clase del lunes) a demostrar que $A$ tiene una submatriz de $3\times 3$ invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

$\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,$

lo que implica que es invertible, y por lo tanto $v_1,v_2, v_3$ son vectores linealmente independientes.

$\square$

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre $\mathbb{R}$ o sobre $\mathbb{C}$. Como $\mathbb{R}\subset \mathbb{C}$, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en $\mathbb{R}$ se cumplen en $\mathbb{C}$. En este caso particular, si las soluciones de una matriz en $M_{m,n}(\mathbb{R})$ son soluciones de la misma matriz pero vista como elemento en $M_{m,n}(\mathbb{C})$. El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea $A\in M_{m,n}(F)$ y sea $F_1$ un campo contenido en $F$. Consideremos el sistema lineal $AX=0$. Si el sistema tiene una solución no trivial en $F_1^n$, entonces tiene una solución no trivial en $F^n$.

Demostración. Dado que el sistema tiene una solución no trivial en $F_1^n$, $r:=\text{rank}(A) < n$ vista como elemento en $M_{m,n}(F_1)$. Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a $A$ como elemento de $M_{m,n}(F_1)$ o de $M_{m,n}(F)$. Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de $F^n$ de dimensión $n-r>0$. Por lo tanto, el sistema $AX=0$ tiene una solución no trivial en $F^n$.

$\square$

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea $S_a$ el siguiente sistema lineal:

$\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.$

Encuentra los valores de $a$ para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como $AX=b$ donde

$A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.$

Notemos que

$\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,$

entonces si $a\neq 1/8$, $A$ es invertible, y por lo tanto $\text{rank}(A)=3$, mientras que si $a=1/8$, $A$ no es invertible y $\text{rank}(A)=2$ ya que la submatriz es invertible

$\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.$

Además, si la matriz $(A,b)$ es igual a

$\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},$

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, $\text{rank}(A,b)=3$.

Aplicando el Teorema de Rouché-Capelli, para $a=1/8$, el sistema $AX=b$ no tiene soluciones. También podemos concluir que como $\text{rank}(A)=3$ para todo $a\neq 1/8$, el sistema tiene exactamente una solución. (Y $AX=b$ nunca tiene infinitas soluciones).

$\triangle$

Problema 3. Sean $a,b,c$ números reales dados. Resuelve el sistema lineal

$\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.$

Solución. La matriz del sistema es

$A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.$

No es difícil ver que $\text{det}(A)=4abc$. Si $abc\neq 0$, usando la regla de Cramer, la única solución al sistema está dada por

$x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}$

$y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},$

resolviendo los determinantes obtenemos que

$x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.$

Ahora, si $abc=0$, entonces $A$ no es invertible ($\text{rank}(A)<3$). El sistema es consistente si y sólo si $\text{rank}(A)=\text{rank}(A,b)$.

Sin pérdida de generalidad, decimos que $a=0$ (pues $abc=0$). Esto reduce el sistema a

$\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.$

El sistema es consistente si $b=c$ y distintos de cero. En este caso, tenemos que $b(2x+y+z)=1$ y $b(y+z)=1$, implicando $x=0$, $y+z=1/b$. De manera similar, obtenemos las posibles soluciones si $b=0$ o si $c=0$.

Resumiendo:

  • Si $abc\neq 0$, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) $a=0$ y $b=c \neq 0$; caso 2) $b=0$ y $a=c\neq 0$; caso 3) $c=0$ y $a=b\neq 0$, tenemos infinitas soluciones descritas como, para todo $w\in \mathbb{R}$: caso 1) $(0,w,1/b-w)$; caso 2) $(w,0,1/a-w)$; caso 3) $(w,1/a-w,0)$.
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para $a,b,c$, el sistema no es consistente.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Vectores en geometría

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, comenzamos esta serie de entradas de geometría platicando de algunas técnicas euclideanas o sintéticas que se pueden usar para resolver problemas en el plano. Después, tomamos herramientas de la geometría analítica, las cuales nos permiten poner problemas en términos de coordenadas y ecuaciones. Lo que haremos ahora es ver varios ejemplos del uso de vectores en geometría.

A diferencia de la geometría analítica, cuando hablamos de soluciones por vectores estamos hablando de aquellas que aprovechan la estructura de espacio vectorial en $\mathbb{R}^2$. En otras palabras, usamos argumentos en los cuales pensamos a los puntos del plano como vectores, los cuales tienen una dirección y una magnitud. Los vectores tienen operaciones de suma y de producto por un escalar. Además, tienen producto punto, norma y transformaciones dadas por matrices. Apenas tocaremos la superficie del tipo de teoría que se puede usar. Un buen curso de álgebra lineal te puede dar más herramientas para resolver problemas geométricos.

Interpretar puntos como vectores

Pongamos un origen $O$ en el plano. A cada punto $P$ le corresponden ciertas coordenadas dadas por parejas de reales $(x,y)$, que identificaremos con $P$. Al origen le corresponden las coordenadas $(0,0)$. Si tenemos otro punto $Q=(w,z)$, entonces su suma es el vector $P+Q=(x+w,y+z)$. Si tomamos un real $r$, el vector $rP$ es el vector de coordenadas $(rx,ry)$.

Suma de vectores
Suma de vectores

La suma $P+Q$ se puede encontrar mediante la ley del paralelogramo: los puntos $O,P,P+Q,Q$ hacen un paralelogramo en ese orden cíclico. La resta $Q-P$ está definida por $Q+(-1)P$, y la llamamos el vector $PQ$. Geométricamente coincide con el vector que va «de $P$ a $Q$». Observa que el orden es importante y que $OP=P$.

Resta de vectores
Resta de vectores

Proposición (de la razón). Si tenemos dos puntos $P$ y $Q$ distintos y $m,n$ son reales, entonces podemos encontrar al único punto $R$ en la recta por $P$ y $Q$ tal que $$\frac{PR}{RQ}=\frac{m}{n}$$ así: $$R=\frac{n}{m+n}P + \frac{m}{m+n} Q.$$

Punto en una recta con cierta razón
Punto en una recta con cierta razón

Veamos dos problemas en los que se usan estas ideas de vectores en geometría, en particular, la proposición de la razón.

Problema. En el triángulo $ABC$ se toman puntos $D,E,F$ sobre los segmentos $BC,CA,AB$ tales que $\frac{BD}{DC}=\frac{CE}{EA}=\frac{AF}{FB}=\frac{1}{4}$. Muestra que $ABC$ y $DEF$ tienen el mismo gravicentro.

Sugerencia pre-solución. Encuentra una fórmula en términos vectoriales para el gravicentro de un triángulo $ABC$.

Solución. Tomemos un triángulo $PQR$ y pensemos a sus vértices como vectores. Afirmamos que su gravicentro $X$ es el punto correspondiente a $\frac{P+Q+R}{3}$ Demostraremos esto.

El gravicentro está a un tercio del punto medio hacia el vértice correspondiente
Razón del gravicentro en la mediana

Primero haremos un argumento de geometría sintética. El gravicentro es por definición el punto de intersección de las medianas de un triángulo. Si $L$ es el punto medio de $QR$ y $M$ es el punto medio de $RP$, entonces $X$ es el punto de intersección de $PL$ y $QM$. Tenemos que $$\frac{RL}{LQ}=1=\frac{RM}{MP},$$ así que por el teorema de Tales se tiene que la recta por $L$ y $M$ es paralela al lado $PQ$, y $\frac{LM}{PQ}=\frac{1}{2}$. Esto muestra que los triángulos $XLM$ y $XPQ$ son semejantes en razón $1$ a $2$. Por lo tanto, $\frac{LX}{XP}=\frac{1}{2}$.

Ahora hagamos el argumento vectorial, pensando a los puntos como vectores. El punto $L$ está a la mitad de $QR$, así que por la proposición de la razón, $$L=\frac{Q+R}{2}.$$ El punto $X$ cumple $\frac{LX}{XP}=\frac{1}{2}$, así que de nuevo por la proposición de la razón.
\begin{align*}
X&=\frac{2L+P}{2+1}\\
&=\frac{Q+R+P}{3}\\
&=\frac{P+Q+R}{3}.
\end{align*}

Esto es el resultado auxiliar que queríamos mostrar. Regresemos al problema.

De acuerdo al resultado auxiliar, el gravicentro de $ABC$ es $$G:=\frac{A+B+C}{3}.$$ Usando una vez más la proposición de la razón, los puntos $D$, $E$ y $F$ los podemos calcular como sigue:
\begin{align*}
D&=\frac{4B+C}{4+1}=\frac{4B+C}{5}\\
E&=\frac{4C+A}{4+1}=\frac{4C+A}{5}\\
F&=\frac{4A+B}{4+1}=\frac{4A+B}{5}.
\end{align*}

De esta forma, el gravicentro $G’$ de $DEF$ lo podemos encontrar como sigue:
\begin{align*}
G’&=\frac{D+E+F}{3}\\
&=\frac{\frac{4B+C}{5}+\frac{4C+A}{5}+\frac{4A+B}{5}}{3}\\
&=\frac{A+B+C}{3}\\
&=G.
\end{align*}

Esto termina la solución del problema.

$\square$

Problema. En el paralelogramo $ABCD$ el punto $F$ es el punto medio de $CD$. Muestra que el segmento $AF$ corta a la diagonal $BD$ en un punto $E$ tal que $\frac{DE}{DB}=\frac{1}{3}$.

Sugerencia pre-solución. Hay varias formas de hacer las cuentas en este problema, pero el uso de una notación adecuada te hará simplificar muchas operaciones.

Solución. Pensemos a los puntos de la figura como vectores. Coloquemos al punto $A$ en el origen. El punto $C$ está dado por $B+D$, de modo que $$F:=\frac{C+D}{2}=\frac{B+2D}{2}.$$

Vectores en geometría: problema de paralelogramo
Figura auxiliar para problema de paralelogramo

Para encontrar al punto $E$, notemos que está en las rectas $AF$ y $BD$. De esta forma, deben existir reales $r$ y $s$ tales que $$E=rF$$ y $$E=sB+(1-s)D.$$ Expresando $F$ en términos de $B$ y $D$ en la primer ecuación, tenemos que $$E=\frac{rB+2rD}{2}=\frac{rB}{2}+rD.$$ De ambas expresiones para $E$, concluimos que
\begin{align*}
s=\frac{r}{2}\\
1-s=r.
\end{align*}

Este sistema de ecuaciones tiene solución $r=\frac{2}{3}$, $s=\frac{1}{3}$, y por lo tanto $E=\frac{B+2D}{3}$. De aquí se obtiene $\frac{DE}{EB}=\frac{1}{2}$, o bien $\frac{DE}{DB}=\frac{DE}{DE+EB}=\frac{1}{3}$, como queríamos mostrar.

$\square$

Producto punto, norma y ángulos

Para dos vectores $P=(x,y)$ y $Q=(w,z)$ definimos su producto punto como la cantidad $P\cdot Q = xw+yz$. El productos puntos es:

  • Conmutativo: $P\cdot Q = Q\cdot P$
  • Abre sumas: $P\cdot (Q+R)=P\cdot Q + P\cdot R$
  • Saca escalares: $(rP)\cdot Q = r(P\cdot Q)$.

La norma de $P$ se define como $\norm{P}=\sqrt{P\cdot P}$, y coincide con la distancia de $P$ al origen. La norma de $PQ$ es entonces $\norm{PQ}=\sqrt{(Q-P)\cdot (Q-P)}$ y coincide con la distancia de $P$ a $Q$.

El ángulo entre dos vectores $PQ$ y $RS$ se define como el ángulo cuyo coseno es $$\frac{PQ \cdot RS}{\norm{PQ}\norm{RS}},$$ y coincide precisamente con el ángulo (orientado) geométrico entre las rectas $PQ$ y $RS$. De esta forma, las rectas $PQ$ y $RS$ son perpendiculares si y sólo si el producto punto $PQ\cdot RS$ es cero.

Problema. Sea $ABC$ un triángulo con sus vértices pensados como vectores. Sean $H$ y $O$ su ortocentro y circuncentro respectivamente. Supongamos que el circuncentro $O$ está en el origen. Muestra que $H=A+B+C$.

Sugerencia pre-solución. Trabaja hacia atrás. Define al punto $A+B+C$ y ve que las rectas que unen a los vértices con este punto en efecto son alturas. Para calcular los ángulos, usa el producto punto y sus propiedades.

Solución. Como el circuncentro equidista de $A$. $B$ y $C$, tenemos que $$\norm{A}=\norm{B}=\norm{C}.$$ Tomemos el punto $H’=A+B+C$.

Vectores en geometría para encontrar el ortocentro
Ortocentro con vectores

Calculemos el ángulo entre las rectas $BC$ y $AH’$, haciendo su producto punto:
\begin{align*}
BC\cdot AH’ &= (C-B)\cdot (H’-A)\\
&=(C-B)\cdot(C+B)\\
&=C\cdot C + C\cdot B – B\cdot C – B\cdot B\\
&=\norm{C}^2 – \norm{B}^2\\
&=0.
\end{align*}

Observa que estamos usando la linealidad y conmutatividad del producto punto. Al final usamos que $A$ y $C$ tienen la misma norma.

Esto muestra que la recta $AH’$ es la altura al lado $BC$. De manera análoga, $BH’$ y $CH’$ son las alturas a los lados $CA$ y $AB$ respectivamente. Por lo tanto, $H’$ es el ortocentro, así que $H=A+B+C$.

$\square$

Cualquier triángulo $ABC$ en el plano se puede trasladar para que su circuncentro $O$ quede en el origen. El ortocentro estará en $H=A+B+C$ y el gravicentro, como vimos antes, en $G=\frac{A+B+C}{3}$, que es un múltiplo escalar de $H$. Por lo tanto, $O$, $H$ y $G$ están alineados. Acabamos de demostrar con vectores en geometría un clásico resultado euclideano.

Teorema (recta de Euler). En cualquier triángulo $ABC$, el circuncentro $O$, el gravicentro $G$ y el ortocentro $H$ están alineados. Además, $$\frac{OG}{GH}=\frac{1}{2}.$$

Teorema de la recta de Euler
Teorema de la recta de Euler

Si el circuncentro no está en el origen, ahora podemos usar el teorema de la recta de Euler y la proposición de la razón para concluir que $G=\frac{2O+H}{3}$. Usando que $G=\frac{A+B+C}{3}$, obtenemos el siguiente corolario

Corolario. Sea $ABC$ un triángulo en el plano, $H$ su ortocentro y $O$ su circuncentro. Entonces al pensar a los puntos como vectores tenemos que $$A+B+C=2O+H.$$

Más problemas

Puedes encontrar más problemas del uso de vectores en geometría en la sección 8.3 del libro Problem Solving through Problems de Loren Larson.

Álgebra Superior II: Continuidad y diferenciabilidad de polinomios reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Al inicio de esta unidad, hablamos de las propiedades algebraicas de $\mathbb{R}[x]$, definimos sus operaciones y argumentamos por qué se puede usar la notación de potencias. Luego hablamos de las propiedades aritméticas de los polinomios cuando hablamos de divisibilidad, máximo común divisor y factorización en irreducibles. Vimos una aplicación de esto a la solución de desigualdades. Lo que queremos hacer ahora es pensar a los polinomios como funciones de $\mathbb{R}$ en $\mathbb{R}$ y entender las propiedades analíticas que tienen, es decir en términos de cálculo. Nos interesa saber qué les sucede cuando su entrada es grande, la continuidad y la diferenciabilidad de polinomios.

Estas propiedades tienen consecuencias algebraicas importantes. La continuidad de polinomios nos permite encontrar raíces reales en ciertos intervalos. La diferenciabilidad de polinomios nos ayuda a encontrar la multiplicidad de las raíces. Supondremos que manejas conocimientos básicos de cálculo y de manipulación de límites, pero de cualquier forma recordaremos algunas definiciones y daremos esbozos de la demostración de algunos resultados.

Límites a reales y límites a infinito

Recordemos dos definiciones de cálculo, que se aplican para funciones arbitrarias definidas en todos los reales.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función y $a, b$ reales. Decimos que $$\lim_{x\to a} f(x) = b$$ si para todo $\epsilon >0$ existe un $\delta > 0 $ tal que cuando $0<|x-a|<\delta$, entonces $|f(x)-b|<\epsilon$. En palabras, decimos que el límite de $f$ cuando $x$ tiende a $a$ es $b$.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función. Decimos que $$\lim_{x\to \infty} f(x) = \infty$$ si para todo $M>0$ existe un $r > 0 $ tal que cuando $x>r$, entonces $f(x)>M$. En palabras, decimos que el límite de $f$ cuando $x$ tiende a infinito es infinito.

De manera análoga se pueden definir límites cuando $x$ tiende a menos infinito, y definir qué quiere decir que el límite sea menos infinito. La siguiente proposición se prueba en textos de cálculo.

Proposición (propiedades de límites). Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones y $a$, $b$, $c$ reales. Si $$\lim_{x\to a} f(x) = b \quad \text { y } \quad \lim_{x\to a} g(x)= c,$$ entonces:

  • «El límite de la suma es la suma de los límites», en símbolos, $$\lim_{x\to a} (f+g)(x) = b+c.$$
  • «El límite del producto es el producto de los límites», en símbolos, $$\lim_{x\to a} (fg)(x)=bc.$$

La proposición anterior es sólo para cuando los límites son reales. Hay resultados para cuando algunos de los límites son infinitos, pero en general hay que tener cuidado.

La primer propiedad analítica de los polinomios es saber cómo es su comportamiento cuando $x$ se hace infinito o menos infinito. Si el polinomio es constante, entonces este límite es simplemente su valor en cualquier punto. Para polinomios de grado mayor o igual a $1$, su comportamiento queda resumido en la siguiente proposición.

Proposición (límites a infinito). Tomemos al polinomio $p(x)$ en $\mathbb{R}[x]$ dado por $$p(x)=a_0+a_1x+a_2x^2+\ldots+a_nx^n,$$ en donde $n\geq 1$ y $a_n\neq 0$.

  • Si $a_n>0$ y $p(x)$ es de grado par entonces $$\lim_{x\to \infty} p(x) = \lim_{x\to-\infty} p(x)= \infty,$$
  • Cuando $a_n>0$ y $p(x)$ es de grado impar entonces $$\lim_{x\to \infty} p(x) = \infty \quad \text { y } \quad \lim_{x\to -\infty} p(x)=-\infty$$
  • Si $a_n<0$ y $p(x)$ es de grado par entonces $$\lim_{x\to \infty} p(x) = \lim_{x\to-\infty} p(x)= -\infty,$$
  • Cuando $a_n<0$ y $p(x)$ es de grado impar entonces $$\lim_{x\to \infty} p(x) = -\infty \quad \text { y } \quad \lim_{x\to -\infty} p(x)=\infty.$$

Demostración. Vamos a hacer una de las demostraciones. Mostraremos que para cuando $a_n>0$ y el grado es par, entonces $$\lim_{x\to \infty} p(x) = \infty.$$ Las demás se siguen haciendo cambios de signo cuidadosos y usando que una potencia impar de un real negativo es un real negativo, y una potencia par es siempre un real positivo. Pensar en estas demostraciones queda como tarea moral.

Tomemos entonces $p(x)$ un polinomio de grado par y con coeficiente principal $a_n>0$. Intuitivamente, tenemos que mostrar que si $x$ es muy grande, entonces $p(x)$ es tan grande como queramos. Tomemos un real $M>0$. Como haremos $x$ grande, podemos suponer que $x>1$.

Como el término $a_nx^n$ es positivo, basta mostrar como resultado auxiliar que si $x$ es suficentemente grande, entonces $$a_nx^n >M+|a_0+a_1x+\ldots+a_{n-1}x^{n-1}|,$$ ya que si esto sucede, tendríamos que:
\begin{align*}
a_nx^n&>M+|a_0+a_1x+\ldots+a_{n-1}x^{n-1}|\\
&=M+|-a_0-a_1x-\ldots-a_{n-1}x^{n-1}|\\
&>M-a_0-a_1x-\ldots-a_{n-1}x^{n-1},
\end{align*}

y de aquí, pasando todo excepto a $M$ a la izquierda, tendríamos $p(x)>M$.

Para probar el resultado auxiliar, tomemos $A$ como el máximo de los valores absolutos $|a_0|,\ldots,|a_{n-1}|$. Por la desigualdad del triángulo y usando $x>1$ tenemos que

\begin{align*}
M+|a_0&+a_1x+\ldots+a_{n-1}x^{n-1}|\\
&\leq M+|a_0|+|a_1 x| + \ldots + |a_{n-1}x^{n-1}|\\
&\leq M+A(1+x+\ldots+x^{n-1})\\
&< M+nA\\
&<(M+nA)x^{n-1}
\end{align*}

De esta forma, para mostrar nuestra desigualdad auxiliar basta mostrar que para $x$ suficientemente grande, tenemos que $(M+nA)x^{n-1}<a_nx^n$. Pero como $x>0$, esta desigualdad es equivalente a $x>\frac{M+nA}{a_n}$.

Recapitulando, para cualquier $M>0$, si $x>\frac{M+nA}{a_n}$, entonces $p(x)>M$. Esto termina la demostración.

$\square$

Podemos usar la proposición anterior para comparar polinomios cuando su variable tiende a infinito.

Ejemplo. Mostraremos que existe una $M$ suficientemente grande tal que si $x>M$, entonces $$\frac{1}{2}x^7-x^6-x-1>x^6+1000x^5+1000000.$$ Pasando todo del lado izquierdo, nos queda la desigualdad equivalente $$\frac{1}{2}x^7-2x^6-1000x^5-x-999999>0.$$ Aquí tenemos un polinomio $p(x)$ de grado impar y coeficiente principal positivo. Por la proposición anterior, $\lim_{x\to \infty} p(x) = \infty$, de modo que la $M$ que estamos buscando existe.

$\triangle$

Continuidad de polinomios

Antes de llegar a diferenciabilidad de polinomios, haremos un paso intermedio. Recordemos otra definición de cálculo.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función y $a$ un real. Decimos que $f$ es continua en $a$ si $$\lim_{x\to a} f(x) = f(a).$$ Decimos que $f$ es continua si es continua en todo real.

Por la proposición de propiedades de límites, la suma o producto de funciones continuas es continua. Las funciones constantes son continuas. La función identidad $I:\mathbb{R}\to \mathbb{R}$ dada por $I(x)=x$ es continua. Estos tres hechos nos ayudan a demostrar que todos los polinomios son funciones continuas sin tener que recurrir a la definición de límite.

Teorema. Cualquier polinomio $p(x)$ en $\mathbb{R}[x]$ pensado como una función $p:\mathbb{R}\to \mathbb{R}$ es una función continua.

Demostración. Supongamos que $p(x)$ está dado por $$p(x)=a_0+a_1x+\ldots+a_nx^n.$$

Para toda $i$ de $0$ a $n$ tenemos que la función $x\mapsto a_i$ es constante y por lo tanto es continua. Si $i>0$, la función $x\mapsto x^i$ es producto de $i$ veces la identidad consigo misma. Como la identidad es continua y producto de continuas es continua, entonces $x\mapsto x^i$ es continua.

De nuevo, usando que producto de funciones continuas es continua, tenemos que $x\mapsto a_ix^i$ es una función continua. De esta forma, $p(x)$ es la suma de $n+1$ funciones continuas, y por lo tanto es una función continua.

$\square$

El resultado anterior nos ayuda a usar teoremas versátiles de cálculo en nuestro estudio de polinomios. Recordemos el teorema del valor intermedio.

Teorema (del valor intermedio). Sea $f:\mathbb{R}\to \mathbb{R}$ una función continua. Sean $a<b$ dos reales. Entonces entre $a$ y $b$, la función $f$ toma todos los valores entre $f(a)$ y $f(b)$.

Veamos cómo el teorema del valor intermedio nos permite encontrar raíces de polinomios.

Problema 1. Muestra que el polinomio $p(x)=x^7-5x^5+x^2+3$ tiene por lo menos una raíz en el intervalo $[0,2]$.

Solución. Al evaluar al polinomio en cero, obtenemos $p(0)=3$. Al evaluarlo en $2$, obtenemos
\begin{align*}
p(2)&=2^7-5\cdot 2^5+x^2 + 3\\
&=128-160+4+3\\
&=-25.
\end{align*}

Como los polinomios son funciones continuas, podemos aplicar el teorema del valor intermedio. Concluimos que $p(x)$ toma todos los valores de $-25$ a $2$ en el intervalo $[0,2]$. En particular, existe un real $r$ en $[0,2]$ tal que $p(r)=0$.

$\triangle$

El teorema del valor intermedio nos ayuda a demostrar que un polinomio tiene una raíz en cierto intervalo. Sin embargo, no es de tanta utilidad para decir exactamente cuál es esa raíz. Es un resultado existencial en vez de ser constructivo. Veamos un ejemplo más, que muestra una proposición que quedó pendiente en una entrada anterior.

Problema 2. Sea $p(x)$ un polinomio cuadrático, mónico e irreducible en $\mathbb{R}[x]$. Muestra que $p(r)>0$ para todo real $r$.

Solución. Procedamos por contradicción. Supongamos que $p(r)\leq 0$ para algún real $r$.

Como $p(x)$ es mónico, su coeficiente principal es $1$, que es positivo. Como $p(x)$ es cuadrático, es de grado par. Por la proposición de límites a infinito, existe un real $t>r$ tal que $p(t)>0$. Por el teorema del valor intermedio, existiría un real $s$ en el intervalo $[r,t]$ tal que $p(s)=0$. Pero esto es imposible, pues entonces por el teorema del factor $x-s$ divide a $p(x)$ y esto contradice que $p(x)$ es irreducible.

$\triangle$

Como muestra el problema anterior, se pueden combinar los límites de polinomios a infinito y menos infinito, y sus propiedades de continuidad. Otra aplicación es mostrar que todo polinomio de grado impar tiene por lo menos una raíz real. Esto se verá en otra entrada.

Por supuesto, otros resultados de continuidad también se pueden usar en todos los polinomios, como el teorema del valor extremo. Aplicándolo directamente, concluimos lo siguiente.

Proposición. Sean $a<b$ reales y $p(x)$ un polinomio en $\mathbb{R}$. Entonces $p(x)$ está acotado en el intervalo $[a,b]$ y existen reales $r$ y $s$ en dicho intervalo tales que $p(r)$ y $p(s)$ son el mínimo y máximo de $p(x)$ en $[a,b]$, respectivamente.

Diferenciabilidad de polinomios

Es momento de hablar de diferenciabilidad de polinomios. Recordemos una última definición de cálculo.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función. Decimos que $f$ es diferenciable en $a$ si el límite $$\lim_{h\to 0} \frac{f(a+h)-f(a)}{h}$$ existe. En este caso, a ese límite lo denotamos por $f'(a)$. Una función es diferenciable si es diferenciable en todo real. A la función $f’:\mathbb{R}\to \mathbb{R}$ le llamamos la derivada de $f$.

Al igual que en el caso de continuidad, la suma y producto de funciones diferenciales es diferenciable. Si $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ son diferenciables, entonces la derivada de $f+g$ está dada por $$(f+g)'(x)=f'(x)+g'(x)$$ y la derivada de $fg$ está dada por la regla de la cadena $$(fg)'(x)=f'(x)g(x)+f(x)g'(x).$$

Las funciones constantes son diferenciables, y su derivada es la función constante $0$. La función identidad es diferenciable, y su derivada es la función constante $1$. Esto es sencillo de mostrar y queda como tarea moral.

Proposición. Sea $n\geq 1$ un entero. El polinomio $p(x)=x^n$ es diferenciable, y su derivada es la función $p'(x)=nx^{n-1}$.

Demostración. Haremos la prueba por inducción. Si $n=1$, el polinomio es $p(x)=x$, y su derivada es $p'(x)=1=1\cdot x^0$, como queremos. Supongamos que el resultado es cierto para el entero $n\geq 1$ y tomemos $p(x)=x^{n+1}=x^n\cdot x$. Por hipótesis inductiva, $x\mapsto x^n$ es diferenciable. Como $p(x)$ es producto de dos funciones diferenciables, entonces es diferenciable.

Usando la regla de la cadena, la hipótesis inductiva de la fórmula y la derivada de $x\mapsto x$, tenemos que $$p'(x)=(nx^{n-1})(x)+(x^n)(1)=(n+1)x^n.$$ Esto termina la demostración.

$\square$

Con todos estos ingredientes podemos mostrar la diferenciabilidad de todos los polinomios. Los detalles quedan como tarea moral.

Teorema (diferenciabilidad de polinomios). Sea $p(x)$ un polinomio en $\mathbb{R}[x]$ dado por $$p(x)=a_0+a_1x+\ldots+a_nx^n,$$ Entonces $p(x)$ pensado como función es diferenciable y su derivada es un polinomio. Si $p(x)$ es constante, su derivada es el polinomio $0$. En otro caso, su derivada es el polinomio $$a_1+2a_2x+3a_3x^2+\ldots+na_nx^{n-1}.$$

Ejemplo. El polinomio $x^7+3x^2-1$ es diferenciable. Su derivada es el polinomio $7x^6+6x$.

$\triangle$

Ya que sabemos que los polinomios son diferenciables, podemos usar todas las herramientas de cálculo diferencial, como:

No profundizaremos en esto, pues es el contenido de un buen curso de cálculo, o bien de material de algún texto en el área, como el libro de Cálculo de Spivak.

A nosotros nos interesa una consecuencia algebraica de que los polinomios tengan derivada. Como la derivada de un polinomio es otro polinomio, entonces la derivada es diferenciable. Por ello, un polinomio $p(x)$ se puede derivar iteradamente tantas veces como se quiera. Al polinomio obtenido de derivar $n$ veces le llamamos la $n$-ésima derivada y lo denotamos por $p^{(n)}(x)$. En la siguiente entrada veremos cómo la repetida diferenciabilidad de polinomios nos ayuda a detectar la multiplicidad de sus raíces.

Más adelante…

En la siguiente sección nos encargaremos de realizar varios problemas para repasar las definiciones y propiedades que acabamos de enunciar, y posteriormente ocuparemos todo lo aprendido para explotar el conocimiento que tenemos de los polinomios.

En particular, nos será útil el concepto de diferenciabilidad pues con este podemos dar una definición precisa de lo que significa que la raíz de un polinomio sea múltiple.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Estudia el resto de los casos de la proposición de límites de polinomios cuando la entrada va a menos infinito y a infinito.
  2. Muestra usando la definición de límite que las funciones constantes y la función identidad son continuas.
  3. Demuestra por definición que las funciones constantes son diferenciables y que su derivada es la función constante $0$. Demuestra por definición que la función identidad es diferenciable y que su derivada es la función constante $1$.
  4. Muestra que existe un real $x$ en el cual los polinomios $p(x)=x^5+x^3+x$ y $q(x)=100x^4+10x^2$ son iguales. Sugerencia. Reescribe esta igualdad en términos de encontrar una raíz de un sólo polinomio.
  5. Completa los detalles del teorema de diferenciabilidad de polinomios.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»