Álgebra Superior II: El teorema de derivadas y multiplicidad

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores definimos qué quiere decir que un real sea una raíz de un polinomio. Luego, vimos que mediante el teorema del factor se puede definir una relación entre las raíces de un polinomio y los polinomios lineales que lo dividen. Sin embargo, es posible que un real sea una raíz de un polinomio «más de una vez», que fue un concepto que formalizamos en la entrada de desigualdades de polinomios. En esta entrada veremos que a través de las derivadas de polinomios, podemos determinar la multiplicidad de sus raíces.

Como recordatorio, la multiplicidad de una raíz $r$ de un polinomio $p(x)$ en $\mathbb{R}[x]$ es el mayor entero $m$ tal que $(x-r)^m$ divide a $p(x)$ en $\mathbb{R}[x]$. También, en esta entrada haremos uso de la regla del producto para derivadas.

El teorema de derivadas y multiplicidad

El siguiente resultado es fundamental para la detección de raíces múltiples. Su demostración es sencilla pues usamos varios de los resultados que hemos obtenido anteriormente.

Teorema (derivadas y multiplicidad). Sea $r$ una raíz del polinomio $p(x)$ en $\mathbb{R}[x]$ de multiplicidad $m$. Si $m>1$, entonces $r$ es una raíz de la derivada $p'(x)$, y es de multiplicidad $m-1$. Si $m=1$, entonces $r$ no es raíz de $p'(x)$.

Demostración. Como $r$ es una raíz de $p(x)$ de multiplicidad $m$, entonces se puede escribir $p(x)=(x-r)^m q(x)$, en donde $q(x)$ es un polinomio que ya no es divisible entre $x-r$. Derivando, por regla del producto tenemos que
\begin{align*}
p'(x)&=m(x-r)^{m-1}q(x) + (x-r)^m q'(x)\\
&=(x-r)^{m-1}(mq(x)+(x-r)q'(x)).
\end{align*}

Afirmamos que $x-r$ no divide a $mq(x)+(x-r)q'(x)$. Si lo dividiera, como divide a $(x-r)q'(x)$ entonces también tendría que dividir a $mq(x)$ y por lo tanto a $q(x)$. Pero esto sería una contradicción con la elección de $q(x)$.

De esta forma, si $m=1$ entonces $x-r$ no divide a $p'(x)$ y por el teorema del factor entonces $r$ no es raíz de $p'(x)$. Y si $m>1$, entonces $(x-r)^{m-1}$ divide a $p'(x)$ por la expresión que encontramos de la derivada, pero $(x-r)^m$ no, pues $x-r$ no divide al segundo factor. Esto termina la prueba.

$\square$

Ejemplo. Consideremos al polinomio $p(x)=(x-3)^3(x+1)$. Tanto $3$ como $-1$ son raíces de $p(x)$. La multiplicidad de la raíz $3$ es tres y la multiplicidad de la raíz $-1$ es uno. Si derivamos a $p(x)$ usando la regla del producto, tenemos que
\begin{align*}
p'(x)&=3(x-3)^2(x+1)+(x-3)^3\\
&=3(x-3)^2(x+1+x-3)\\
&=3(x-3)^2(2x-2)\\
&=6(x-3)^2(x-1)
\end{align*}

Observa que $p'(x)$ en efecto tiene a $3$ como raíz de multiplicidad dos y ya no tiene a $1$ como raíz.

$\triangle$

Es muy importante respetar la hipótesis de que $r$ sea raíz de $p(x)$. Por ejemplo, en el ejemplo anterior $1$ es raíz de $p'(x)$ de multiplicidad $1$, pero $1$ no es raíz de $p(x)$ (y mucho menos de multiplicidad $2$).

El teorema de derivadas y multiplicidad es interesante, pero todavía no es útil en aplicaciones prácticas. Sin embargo, tiene dos consecuencias que sí se pueden usar para estudiar polinomios concretos.

Encontrar la multiplicidad de una raíz

El teorema de derivadas y multiplicidad nos dice que la multiplicidad de una raíz «baja en uno» al pasar de un polinomio a su derivada, pero aún no nos dice cuál es esa multiplicidad. Sin embargo, lo podemos aplicar repetidamente para obtener esta información. Recuerda que para $k$ un entero no negativo y $p(x)$ en $\mathbb{R}[x]$, usamos $p^{(k)}(x)$ para denotar $k$-ésima derivada de un polinomio. Aquí $p^{(0)}(x)$ es simplemente $p(x)$.

Proposición. Sea $r$ una raíz del polinomio $p(x)$ en $\mathbb{R}[x]$ de multiplicidad $m$. Si $k$ el mayor entero positivo tal que $r$ es raíz de $$p^{(0)}(x), p^{(1)}(x),\ldots,p^{(k)}(x),$$ entonces $m=k+1$.

Demostración. Usando el teorema anterior de manera inductiva, tenemos que para cada entero $0\leq \ell<m$, se tiene que $r$ es raíz de multiplicidad $m-\ell$ de $p^{(\ell)}(x)$ En particular, es raíz de todas estas derivadas. Además, por el mismo teorema, se tiene que $r$ ya no es raíz de $p^{(m)}(x)$. De esta forma, tenemos que $k=m-1$, de donde se obtiene el resultado deseado.

$\square$

La proposición anterior ahora sí nos da una manera de encontrar la multiplicidad de una raíz de un polinomio.

Ejemplo. Sabiendo que $3$ es una raíz del polinomio $$p(x)=x^5-9x^4+28x^3-36x^2+27x-27,$$ vamos a encontrar su multiplicidad.

Para esto, vamos a calcular sus derivadas:
\begin{align*}
p'(x)&=5x^4-36x^3+84x^2-72x+27\\
p^{(2)}(x)&=20x^3-108x^2+168x-72\\
p^{(3)}(x)&=60x^2-216x+168\\
p^{(4)}(x)&=120x-216\\
p^{(5)}(x)&=120\\
p^{(6)}(x)&=0
\end{align*}

Tenemos que
\begin{align*}
p'(3)&=5\cdot 81 – 36 \cdot 27 +84 \cdot 9 -72\cdot 3 + 27\\
&=405-972+756-216+27\\
&=0.
\end{align*}

Hasta aquí, sabemos que $3$ es raíz de multiplicidad al menos dos. Tenemos también que
\begin{align*}
p^{(2)}(3)&=20\cdot 27-108\cdot 9 +168 \cdot 3 – 72\\
&=540-972+504-72\\
&=0.
\end{align*}

Hasta aquí, sabemos que $3$ es raíz de multiplicidad al menos tres. Siguiendo,
\begin{align*}
p^{(3)}&=60\cdot 9-216\cdot 3 +168\\
&=720-648+168\\
&=240.
\end{align*}

Como la tercera derivada ya no se anuló en $3$, la multiplicidad de $3$ como raíz es exactamente tres.

$\triangle$

Es importante que revisemos todas las derivadas, y que sea una por una. En el ejemplo anterior, $p^{(6)}(3)=0$, pero eso no quiere decir que $3$ sea raíz de multiplicidad $7$, pues la evaluación falla desde la tercera derivada.

Simplificar un polinomio para encontrarle sus raíces

Hay otra consecuencia práctica del teorema de multiplicidades y derivadas, que puede ser de utilidad en algunos problemas. Recuerda que para polinomios $p(x)$ y $q(x)$ en $\mathbb{R}[x]$ usamos $\MCD{p(x),q(x)}$ para denotar al máximo común divisor de dos polinomios. En particular, divide a $p(x)$ en $\mathbb{R}[x]$, de modo que $$\frac{p(x)}{\MCD{p(x),q(x)}}$$ es un polinomio en $\mathbb{R}[x]$.

Proposición. Sea $p(x)$ un polinomio en $\mathbb{R}[x]$ y $p'(x)$ su derivada. El polinomio $$q(x):=\frac{p(x)}{\MCD{p(x),p'(x)}}$$ es un polinomio en $\mathbb{R}[x]$, con las mismas raíces reales que $p(x)$, pero todas ellas tienen multiplicidad $1$.

Demostración. Factoricemos a todas las raíces reales de $p(x)$ con sus multiplicidades correspondientes para escribir $$p(x)=(x-r_1)^{m_1}\cdot \ldots \cdot (x-r_n)^{m_n} r(x),$$ en donde $r(x)$ ya no tiene raíces reales. De acuerdo al teorema de derivadas y multiplicidad, podemos escribir $$p'(x)=(x-r_1)^{m_1-1}\cdot \ldots \cdot (x-r_n)^{m_n-1} s(x),$$ en donde ningún $x-r_i$ divide a $s(x)$. Es sencillo entonces mostrar, y queda como tarea moral, que $\MCD{p(x),p'(x)}$ es $$(x-r_1)^{m_1-1}\cdot \ldots \cdot (x-r_n) \cdot \MCD{r(x),s(x)}.$$

A partir de esto, concluimos que
\begin{align*}
q(x)&=\frac{p(x)}{\MCD{p(x),p'(x)}}\\
&= (x-r_1)\cdot \ldots \cdot (x-r_n) \cdot \frac{r(x)}{\MCD{r(x),s(x)}}.
\end{align*}

De aquí se ve que $r_1,\ldots,r_n$ son raíces de multiplicidad $1$ de $q(x)$. No hay más raíces reales en $\frac{r(x)}{\MCD{r(x),s(x)}}$, pues si hubiera una raíz $\alpha$, entonces por el teorema del factor $x-\alpha$ dividiría a este polinomio, y por lo tanto a $r(x)$, de donde $\alpha$ sería raíz de $r(x)$, una contradicción.

$\square$

La proposición anterior se puede usar de manera práctica como sigue:

  • Para empezar, tomamos un polinomio arbitrario $p(x)$.
  • Luego, lo derivamos para obtener $p'(x)$.
  • Después, usando el algoritmo de Euclides, encontramos al polinomio $\MCD{p(x),q(x)}$.
  • Ya con el máximo común divisor, hacemos división polinomial para encontrar $q(x)=\frac{p(x)}{\MCD{p(x),q(x)}}$.
  • Si $p(x)$ tenía raíces repetidas, entonces ahora $q(x)$ será de grado menor, y quizás más fácil de estudiar. Encontramos las raíces de $q(x)$. Estas son las raíces de $f(x)$.
  • Finalmente, usamos el teorema de la sección anterior para encontrar la multiplicidad de cada raíz.

Veamos un problema interesante en el que se conjuntan varias ideas de esta entrada.

Problema. Factoriza en $\mathbb{R}[x]$ al polinomio $$-x^5+5x^4+5x^3-45x^2+108.$$

Solución. Este es un polinomio de grado cinco, para el cual hasta antes de ahora no teníamos muchas herramientas para estudiarlo. Vamos a aplicar el método explicado arriba. Lo primero que haremos es factorizar un $-1$ para volver este polinomio mónico. Recordaremos poner este signo al final. Tomemos entonces $$p(x)=x^5-5x^4-5x^3+45x^2-108.$$ Su derivada es $$p'(x)=5x^4-20x^3+15x^2+90x,$$

Se puede verificar, y queda como tarea moral, que el máximo común divisor de $p(x)$ y $p'(x)$ es el polinomio $$M(x)=x^3-4x^2-3x+18.$$ Haciendo la división polinomial, tenemos que $$\frac{p(x)}{M(x)}=x^2-x-6=(x+2)(x-3).$$ Como este polinomio tiene las mismas raíces que $p(x)$, concluimos que $-2$ y $3$ son las raíces de $p(x)$.

Usando la proposición para multiplicidades de raíces (que también queda como tarea moral), se puede verificar que $-2$ es raíz de multiplicidad dos y que $3$ es raíz de multiplicidad $3$. Como $p(x)$ es un polinomio de grado $5$ y es mónico, entonces se debe de dar la igualdad $$p(x)=(x+2)^2(x-3)^3.$$

Al regresar al polinomio original, debemos agregar un signo menos. Concluimos que la factorización del polinomio del problema es $$-(x+2)^2(x-3)^3.$$

$\triangle$

Esta proposición nos da una manera de encontrar raíces. En las siguientes dos entradas veremos otras dos formas de encontrarlas. Para cuando los polinomios son de grado $3$ y $4$, podemos encontrar las raíces de manera explícita. Para cuando los polinomios tienen coeficientes enteros, podemos encontrar una cantidad finita de candidatos a ser raíces racionales.

Más adelante…

En esta entrada dimos varias herramientas para encontrar las raíces de un polinomio y por lo tanto, para poder factorizar los polinomios, nota que estas entradas dependieron fuertemente del uso del cálculo, y del concepto de la derivada. Sin embargo, regresaremos una última vez al terreno algebraico para poder dar más formas de poder encontrar raíces de un polinomio.

Sin embargo, en las entradas siguientes, pondremos a prueba todo lo aprendido en el curso, desde las propiedades de la teoría de los números enteros, hasta la de los números complejos, y obviamente seguiremos ocupando los teoremas que hemos desarrollado en esta sección de polinomios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Verifica que $1$ es raíz del polinomio $$x^8-x^7-9x^6+19x^5+5x^4-51x^3+61x^2-31x+6$$ y encuentra su multiplicidad.
  2. En la demostración de la última proposición, muestra la igualdad $$\MCD{p(x),p'(x)}=(x-r_1)^{m_1-1}\cdot \ldots \cdot (x-r_n) \MCD{r(x),s(x)}.$$
  3. En el último ejemplo, aplica el algoritmo de Euclides a $p(x)$ y $p'(x)$ para mostrar que el máximo común divisor es el que se afirma.
  4. Aplica la proposición de multiplicidad de raíces en el último ejemplo para verificar que en efecto las multiplicidades de $2$ y $3$ son las que se afirman.
  5. Aplica el mismo método que en la última sección para factorizar el polinomio $$x^6+8x^5+18x^4-4x^3-47x^2-12x+36.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Propiedades del polinomio característico

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si $A$ es una matriz en $M_n(F)$, entonces la expresión $\det (\lambda I_n – A)$ es un polinomio en $\lambda$ de grado $n$ con coeficientes en $F$. A partir de ello, definimos el polinomio característico de $A$ como $$\chi_A(\lambda)=\det(\lambda I_n – A).$$

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz \begin{align*}
\begin{pmatrix}
0&1&0&0\\
2&0&-1&0\\
0& 7 & 0 & 6\\
0 & 0 & 3 & 0
\end{pmatrix}.
\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:
\begin{align*}
\begin{vmatrix}
\lambda&-1&0&0\\
-2&\lambda&1&0\\
0& -7 & \lambda & -6\\
0 & 0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}
+2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Para calcular los determinantes de cada una de las matrices de $3\times 3$ podemos aplicar la fórmula por diagonales para obtener:
\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
\lambda(\lambda^3-18\lambda+7\lambda)\\
&=\lambda(\lambda^3-11\lambda)\\
&=\lambda^4-11\lambda^2
\end{align*}

y
\begin{align*}
2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
2(-\lambda^2+18)\\
&=-2\lambda^2+36.
\end{align*}

Concluimos que el polinomio característico es
\begin{align*}
\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\
&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).
\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son $-2,2,-3,3$.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor $-2$, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo $$(-2I_n-A)X=0.$$

$\triangle$

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si $A=[a_{ij}]$ es una matriz triangular superior en $M_n(F)$, entonces su polinomio característico es $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

Demostración. Como $A$ es triangular superior, entonces $\lambda I_n -A$ también, y sus entradas diagonales son precisamente $\lambda-a_{ii}$ para $i=1,\ldots,n$. Como el determinante de una matriz triangular es el producto de sus entradas en la diagonal, tenemos que $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

$\square$

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea $A$ una matriz en $M_n(F)$. Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:
\begin{align*}
\chi_A(\lambda)&=\det(\lambda I_n – A)\\
&=\det({^t(\lambda I_n-A)})\\
&=\det(\lambda({^tI_n})-{^tA})\\
&=\det(\lambda I_n – {^tA})\\
&=\chi_{^tA}(\lambda).
\end{align*}

$\square$

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios $$(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)$$ tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. Entonces $A$ y $P^{-1}AP$ tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que $\det(P)\det(P^{-1})=1$ y que el determinante es multiplicativo:

\begin{align*}
\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\
&=\det(P) \det(\lambda I_n – P^{-1}AP) \det(P^{-1})\\
&=\det(P(\lambda I_n – P^{-1}AP)P^{-1})\\
&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\
&=\det(\lambda I_n – A)\\
&=\chi_{A}(\lambda)
\end{align*}

$\square$

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si $A$ y $B$ son matrices en $M_n(F)$, entonces $\chi_A(\lambda)$ y $\chi_B(\lambda)$ son cada uno polinomios de grado $n$, así que su producto es un polinomio de grado $2n$, que por lo tanto no puede ser igual al polinomio característico $\chi_{AB}(\lambda)$ pues este es de grado $n$. Así mismo, $\chi_{A^2}(\lambda)$ no es $\chi_{A}(\lambda)^2$.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea $A$ una matriz en $M_n(F)$ y $\chi_A(\lambda)$ su polinomio característico. Entonces $\chi_{A}(\lambda)$ es de la forma $$\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.$$

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio $\chi_{A}$ es mónico, es decir, tiene coeficiente principal $1$,
  • que el coeficiente del término de grado $n-1$ es $-\text{tr} A$ y
  • el coeficiente libre es $(-1)^n \det A$.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:
\begin{align*}
\chi_A(0)&=\det(0\cdot I_n-A)\\
&=\det(-A)\\
&=(-1)^n\det(A).
\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado $n-1$ y el coeficiente principal analicemos con más detalle la fórmula del determinante
\begin{align*}
\begin{vmatrix}
\lambda – a_{11} & -a_{12} & \ldots & -a_{1n}\\
-a_{21} & \lambda – a_{22} & \ldots & -a_{1n}\\
\vdots & & \ddots & \\
-a_{n1} & -a_{n2} & \ldots & \lambda – a_{nn}
\end{vmatrix}
\end{align*}
en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado $n$ es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado $n-1$, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más $n-2$.

De este modo, los únicos términos de grado $n$ y $n-1$ vienen del producto $$(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).$$

El único término de grado $n$ viene de elegir $\lambda$ en todos los factores, y se obtiene el sumando $\lambda^n$, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado $n-1$ se obtienen de elegir $\lambda$ en $n-1$ factores y un término del estilo $-a_{ii}$. Al considerar todas las opciones, el término de grado $n-1$ es $$-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},$$ que era lo último que debíamos mostrar.

$\square$

Ejemplo. El teorema anterior muestra que si $A$ es una matriz en $M_2(F)$, es decir, de $2\times 2$, entonces $$\chi_A(\lambda)=\lambda^2 – (\text{tr}A) \lambda +\det A.$$ De manera explícita en términos de las entradas tendríamos entonces que si $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2-(a+d)\lambda+(ad-bc).$$

Como ejemplo, si $A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2 -2\lambda +1=(\lambda-1)^2.$$ Su único eigenvalor sería entonces $1$.

$\triangle$

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para $A$ una matriz en $M_n(F)$, el espectro de $A$ es el conjunto de eigenvalores de $A$. Lo denotamos por $\text{spec} (A)$

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad algebraica de $\lambda$ es el mayor entero $m_{\lambda}$ tal que $(x-\lambda)^{m_\lambda}$ divide a $\chi_A(x)$.

Cuando estamos en $\mathbb{C}$, por el teorema fundamental del álgebra todo polinomio de grado $n$ se puede factorizar en exactamente $n$ términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz $A$ en $M_n(\mathbb{C})$, su polinomio característico se puede factorizar como sigue:

$$\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),$$

en donde $\lambda_1,\ldots,\lambda_n$ son eigenvalores de $A$, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de $\lambda^{n-1}$ es $$-(\lambda_1+\ldots+\lambda_n)$$ y que el coeficiente libre es $$(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.$$ Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea $A$ una matriz en $M_n(\mathbb{C})$

  • La traza $A$ es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.$$
  • El determinante de $A$ es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.$$

Veamos un problema en donde se usa este teorema.

Problema. Sea $A$ una matriz en $M_n(\mathbb{C})$ tal que $A^2-4A+3I_n=0$. Muestra que el determinante de $A$ es una potencia de $3$.

Solución. Sea $\lambda$ un eigenvalor de $A$ y $v$ un eigenvector para $\lambda$. Tenemos que $$A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.$$ De esta forma, tendríamos que
\begin{align*}
0&=(A^2-4A+3I_n)v\\
&=(\lambda^2 v – 4\lambda v + 3 v)\\
&=(\lambda^2-4\lambda+3) v.
\end{align*}

Como $v$ no es el vector $0$, debe suceder que $\lambda^2-4\lambda+3=0$. Como $\lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1)$, entonces $\lambda=1$ ó $\lambda=3$. Con esto concluimos que los únicos posibles eigenvectores de $A$ son $1$ y $3$.

Como $A$ es una matriz en $\mathbb{C}$, tenemos entonces que su polinomio característico es de la forma $(x-1)^a(x-3)^b$ con $a$ y $b$ enteros no negativos tales que $a+b=n$. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es $1^a\cdot 3^b=3^b$, con lo que queda demostrado que es una potencia de $3$.

$\square$

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor $\lambda$ de una matriz $A$ puede repetirse.

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad geométrica de $\lambda$ es la dimensión del kernel de la matriz $\lambda I_n -A$ pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz $A$ en $M_n(F)$ es diagonalizable si y sólo si su polinomio característico $\chi_A(\lambda)$ se puede factorizar en términos lineales en $F[\lambda]$ y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ tiene como polinomio característico a $\chi_A(\lambda)=\lambda^2+1$. Este polinomio no se puede factorizar en $\mathbb{R}[x]$, así que $A$ no es diagonalizable con matrices de entradas reales.

Sin embargo, en $\mathbb{C}$ tenemos la factorización en términos lineales $\lambda^2+1=(\lambda+i)(\lambda-i),$ que dice que $i$ y $-i$ son eigenvalores de multiplicidad algebraica $1$. Se puede mostrar que la multiplicidad geométrica también es $1$. Así, $A$ sí es diagonalizable con matrices de entradas complejas.

$\square$

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si $A$ es una matriz en $M_n(F)$ y $p$ es un polinomio en $F[\lambda]$ de la forma $$p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,$$ definimos a la matriz $p(A)$ como la matriz $$a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.$$

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si $A$ es una matriz en $M_n(F)$ y $\chi_A(x)$ es su polinomio característico, entonces $$\chi_A(A)=O_n.$$

Ejemplo. Tomemos de nuevo a la matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ del ejemplo anterior. Su polinomio característico es $x^2+1$. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:
\begin{align*}
A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.
\end{align*}

$\square$

Más adelante…

En esta entrada estudiamos algunas propiedades de los eigenvalores y eigenvectores de transformaciones lineales y matrices; vimos cómo obtener eigenvalores de una matriz a partir del polinomio característico y enunciamos dos teoremas muy importantes como parte opcional del curso.

En la siguiente entrada haremos varios ejercicios para desarrollar un poco de práctica al obtener los eigenvalores y eigenvectores de una transformación lineal y de una matriz.

Entradas relacionadas

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz $$\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.$$
  • Sea $A$ una matriz en $M_n(F)$. ¿Cómo es el polinomio característico de $-A$ en términos del polinomio característico de $A$?
  • Tomemos $A$ una matriz en $M_n(F)$ y $k$ un entero positivo. Muestra que si $\lambda$ es un eigenvalor de la matriz $A$, entonces $\lambda^k$ es un eigenvalor de la matriz $A^k$.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de $2\times 2$.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

La continuidad de funciones polinomiales

Por Claudia Silva

Introducción

En la entrada pasada demostramos que los polinomios (vistos como funciones de $\mathbb{R}$ en $\mathbb{R}$) son continuas e infinitamente diferenciables, vimos además que estas propiedades sirven para hacer un análisis más detallado de algunas de sus propiedades algebraicas.

En esta entrada, ocupamos esas propiedades y los teoremas del cálculo (como el teorema del valor intermedio) para resolver algunos ejercicios interesantes sobre los polinomios.

Ejercicios de continuidad

Comenzaremos con probar que los polinomios son acotados inferiormente, luego unos ejemplos simples de derivadas, y posteriormente un par de ejercicios que involucran emplear el Teorema del Valor Medio (TVM) y el Teorema del Valor Intermedio (TVI). En el siguiente ejercicio demostramos que si $[a,b]$ es un intervalo cerrado, y $p$ un polinomi, entonces $p$ está acotado inferiormente en $[a,b]$.

En este ejercicio probamos que todo polinomio de grado impar, tiene una raíz real

Ejercicios de diferenciabilidad

Más adelante…

En la siguiente entrada, seguimos estudiando las propiedades analíticas de los polinomios, y encontramos una interesante relación entre las propiedades de sus raíces y la derivada de la función.

Tarea moral

  1. Demuestra que si $p(x)$ es una función polinomial con al menos una raíz real y $p$ de grado par, entonces $p$ tiene al menos $2$ raíces.
  2. Demuestra que si $p$ es un polinomio con dos raíces reales distintas, entonces $p’$, su derivada, tiene al menos una raíz. ¿El recíproco es verdadero?
  3. Demuestra o da un contraejemplo: El número de raíces de un polinomio es mayor que el número de raíces de su derivada.
  4. Deriva el polinomio $p(x)=3x^4-2x^3+5x-10$.
  5. Demuestra que si $p(x)$ es un polinomio de grado par, entonces es acotado por arriba o acotado por abajo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Problemas de determinantes y ecuaciones lineales

Por Blanca Radillo

Introducción

En esta entrada, realizaremos problemas que nos ayudarán a repasar el tema visto el pasado lunes, sobre soluciones de sistemas lineales, Teorema de Rouché-Capelli y la regla de Cramer.

Problemas de ecuaciones lineales

Una de las maneras más usuales para demostrar que un conjunto de vectores es linealmente independientes es probar que tomamos una combinación lineal de éstos tal que es igual a 0, sólo es posible si todos los coeficientes son igual a cero. Pero como ya lo hemos visto anteriormente en diversos problemas, algunas veces ésto nos genera un sistema de ecuaciones que puede ser difícil y/o tardado resolver.

Por ello, otra manera de demostrar independencia lineal es ilustrada con el siguiente problema.

Problema 1. Considera los vectores

$v_1=(1,x,0,1), \quad v_2=(0,1,2,1), \quad v_3=(1,1,1,1)$

en $\mathbb{R}^4$. Prueba que para cualquier elección de $x\in\mathbb{R}$, los vectores $v_1,v_2,v_3$ son linealmente independientes.

Solución. Sea $A$ la matriz cuyas columnas son $v_1,v_2,v_3$, es decir,

$A=\begin{pmatrix} 1 & 0 & 1 \\ x & 1 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{pmatrix}.$

Sabemos que $v_1,v_2,v_3$ son linealmente independiente si y sólo si $\text{dim(span}(v_1,v_2,v_3))=3$, ya que $\text{rank}(A)=3$, y eso es equivalente (por la clase del lunes) a demostrar que $A$ tiene una submatriz de $3\times 3$ invertible.

Notemos que si borramos el segundo renglón, obtenemos la submatriz cuyo determinante es

$\begin{vmatrix} 1 & 0 & 1 \\ 0 & 2 & 1 \\ 1 & 1 & 1 \end{vmatrix}=-1,$

lo que implica que es invertible, y por lo tanto $v_1,v_2, v_3$ son vectores linealmente independientes.

$\square$

En este curso, los ejemplos usualmente utilizan espacios vectoriales sobre $\mathbb{R}$ o sobre $\mathbb{C}$. Como $\mathbb{R}\subset \mathbb{C}$, es natural preguntarnos si los resultados obtenidos en los problemas trabajados en $\mathbb{R}$ se cumplen en $\mathbb{C}$. En este caso particular, si las soluciones de una matriz en $M_{m,n}(\mathbb{R})$ son soluciones de la misma matriz pero vista como elemento en $M_{m,n}(\mathbb{C})$. El siguiente teorema nos da el resultado a esta pregunta.

Teorema. Sea $A\in M_{m,n}(F)$ y sea $F_1$ un campo contenido en $F$. Consideremos el sistema lineal $AX=0$. Si el sistema tiene una solución no trivial en $F_1^n$, entonces tiene una solución no trivial en $F^n$.

Demostración. Dado que el sistema tiene una solución no trivial en $F_1^n$, $r:=\text{rank}(A) < n$ vista como elemento en $M_{m,n}(F_1)$. Por el primer teorema visto en la clase del lunes, el rango es el tamaño de la submatriz cuadrada más grande que sea invertible, y eso es independiente si se ve a $A$ como elemento de $M_{m,n}(F_1)$ o de $M_{m,n}(F)$. Y por el teorema de Rouché-Capelli, el conjunto de soluciones al sistema es un subespacio de $F^n$ de dimensión $n-r>0$. Por lo tanto, el sistema $AX=0$ tiene una solución no trivial en $F^n$.

$\square$

A continuación, se mostrarán dos ejemplos de la búsqueda de soluciones a sistemas lineales donde usaremos todas las técnicas aprendidas a lo largo de esta semana.

Problema. 2 Sea $S_a$ el siguiente sistema lineal:

$\begin{matrix} x-2y+z=1 \\ 3x+2y-2z=2 \\ 2x-y+az=3 \end{matrix}.$

Encuentra los valores de $a$ para los cuales el sistema no tiene solución, tiene exactamente una solución y tiene un número infinito de soluciones.

Solución. El sistema lo podemos escribir como $AX=b$ donde

$A=\begin{pmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{pmatrix} \quad \text{y} \quad b=\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}.$

Notemos que

$\begin{vmatrix} 1 & -2 & 1 \\ 3 & 2 & -2 \\ 2 & -1 & a \end{vmatrix}=8a-1,$

entonces si $a\neq 1/8$, $A$ es invertible, y por lo tanto $\text{rank}(A)=3$, mientras que si $a=1/8$, $A$ no es invertible y $\text{rank}(A)=2$ ya que la submatriz es invertible

$\begin{vmatrix} 1 & -2 \\ 3 & 2 \end{vmatrix}=8.$

Además, si la matriz $(A,b)$ es igual a

$\begin{pmatrix} 1 & -2 & 1 & 1 \\ 3 & 2 & -2 & 2 \\ 2 & -1 & a & 3 \end{pmatrix},$

quitando la tercera columna, obtenemos una submatriz invertible (ejercicio). Por lo tanto, $\text{rank}(A,b)=3$.

Aplicando el Teorema de Rouché-Capelli, para $a=1/8$, el sistema $AX=b$ no tiene soluciones. También podemos concluir que como $\text{rank}(A)=3$ para todo $a\neq 1/8$, el sistema tiene exactamente una solución. (Y $AX=b$ nunca tiene infinitas soluciones).

$\triangle$

Problema 3. Sean $a,b,c$ números reales dados. Resuelve el sistema lineal

$\begin{matrix} (b+c)x+by+cz=1 \\ ax+ (a+c)y+cz=1 \\ ax+by+(a+b)z=1 \end{matrix}.$

Solución. La matriz del sistema es

$A=\begin{pmatrix} b+c & b & c \\ a & a+c & c \\ a & b & a+b \end{pmatrix}.$

No es difícil ver que $\text{det}(A)=4abc$. Si $abc\neq 0$, usando la regla de Cramer, la única solución al sistema está dada por

$x=\frac{\begin{vmatrix} 1 & b & c \\ 1 & a+c & c \\ 1 & b & a+b \end{vmatrix}}{4abc}, \quad y=\frac{\begin{vmatrix} b+c & 1 & c \\ a & 1 & c \\ a & 1 & a+b \end{vmatrix}}{4abc}$

$y=\frac{\begin{vmatrix} b+c & b & 1 \\ a & a+c & 1 \\ a & b & 1 \end{vmatrix}}{4abc},$

resolviendo los determinantes obtenemos que

$x=\frac{a^2 -(b-c)^2}{4abc}, \quad y=\frac{b^2 -(a-c)^2}{4abc}, \quad z=\frac{c^2-(a-b)^2}{4abc}.$

Ahora, si $abc=0$, entonces $A$ no es invertible ($\text{rank}(A)<3$). El sistema es consistente si y sólo si $\text{rank}(A)=\text{rank}(A,b)$.

Sin pérdida de generalidad, decimos que $a=0$ (pues $abc=0$). Esto reduce el sistema a

$\begin{matrix} (b+c)x+by+cz=1 \\ c(y+z)=1 \\ b(y+z)=1 \end{matrix}.$

El sistema es consistente si $b=c$ y distintos de cero. En este caso, tenemos que $b(2x+y+z)=1$ y $b(y+z)=1$, implicando $x=0$, $y+z=1/b$. De manera similar, obtenemos las posibles soluciones si $b=0$ o si $c=0$.

Resumiendo:

  • Si $abc\neq 0$, el sistema tiene una solución única dada por la regla de Cramer.
  • Si tenemos alguno de los siguientes tres casos: caso 1) $a=0$ y $b=c \neq 0$; caso 2) $b=0$ y $a=c\neq 0$; caso 3) $c=0$ y $a=b\neq 0$, tenemos infinitas soluciones descritas como, para todo $w\in \mathbb{R}$: caso 1) $(0,w,1/b-w)$; caso 2) $(w,0,1/a-w)$; caso 3) $(w,1/a-w,0)$.
  • Si no se cumplen ninguno de las cuatro condiciones anteriores para $a,b,c$, el sistema no es consistente.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Vectores en geometría

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, comenzamos esta serie de entradas de geometría platicando de algunas técnicas euclideanas o sintéticas que se pueden usar para resolver problemas en el plano. Después, tomamos herramientas de la geometría analítica, las cuales nos permiten poner problemas en términos de coordenadas y ecuaciones. Lo que haremos ahora es ver varios ejemplos del uso de vectores en geometría.

A diferencia de la geometría analítica, cuando hablamos de soluciones por vectores estamos hablando de aquellas que aprovechan la estructura de espacio vectorial en $\mathbb{R}^2$. En otras palabras, usamos argumentos en los cuales pensamos a los puntos del plano como vectores, los cuales tienen una dirección y una magnitud. Los vectores tienen operaciones de suma y de producto por un escalar. Además, tienen producto punto, norma y transformaciones dadas por matrices. Apenas tocaremos la superficie del tipo de teoría que se puede usar. Un buen curso de álgebra lineal te puede dar más herramientas para resolver problemas geométricos.

Interpretar puntos como vectores

Pongamos un origen $O$ en el plano. A cada punto $P$ le corresponden ciertas coordenadas dadas por parejas de reales $(x,y)$, que identificaremos con $P$. Al origen le corresponden las coordenadas $(0,0)$. Si tenemos otro punto $Q=(w,z)$, entonces su suma es el vector $P+Q=(x+w,y+z)$. Si tomamos un real $r$, el vector $rP$ es el vector de coordenadas $(rx,ry)$.

Suma de vectores
Suma de vectores

La suma $P+Q$ se puede encontrar mediante la ley del paralelogramo: los puntos $O,P,P+Q,Q$ hacen un paralelogramo en ese orden cíclico. La resta $Q-P$ está definida por $Q+(-1)P$, y la llamamos el vector $PQ$. Geométricamente coincide con el vector que va «de $P$ a $Q$». Observa que el orden es importante y que $OP=P$.

Resta de vectores
Resta de vectores

Proposición (de la razón). Si tenemos dos puntos $P$ y $Q$ distintos y $m,n$ son reales, entonces podemos encontrar al único punto $R$ en la recta por $P$ y $Q$ tal que $$\frac{PR}{RQ}=\frac{m}{n}$$ así: $$R=\frac{n}{m+n}P + \frac{m}{m+n} Q.$$

Punto en una recta con cierta razón
Punto en una recta con cierta razón

Veamos dos problemas en los que se usan estas ideas de vectores en geometría, en particular, la proposición de la razón.

Problema. En el triángulo $ABC$ se toman puntos $D,E,F$ sobre los segmentos $BC,CA,AB$ tales que $\frac{BD}{DC}=\frac{CE}{EA}=\frac{AF}{FB}=\frac{1}{4}$. Muestra que $ABC$ y $DEF$ tienen el mismo gravicentro.

Sugerencia pre-solución. Encuentra una fórmula en términos vectoriales para el gravicentro de un triángulo $ABC$.

Solución. Tomemos un triángulo $PQR$ y pensemos a sus vértices como vectores. Afirmamos que su gravicentro $X$ es el punto correspondiente a $\frac{P+Q+R}{3}$ Demostraremos esto.

El gravicentro está a un tercio del punto medio hacia el vértice correspondiente
Razón del gravicentro en la mediana

Primero haremos un argumento de geometría sintética. El gravicentro es por definición el punto de intersección de las medianas de un triángulo. Si $L$ es el punto medio de $QR$ y $M$ es el punto medio de $RP$, entonces $X$ es el punto de intersección de $PL$ y $QM$. Tenemos que $$\frac{RL}{LQ}=1=\frac{RM}{MP},$$ así que por el teorema de Tales se tiene que la recta por $L$ y $M$ es paralela al lado $PQ$, y $\frac{LM}{PQ}=\frac{1}{2}$. Esto muestra que los triángulos $XLM$ y $XPQ$ son semejantes en razón $1$ a $2$. Por lo tanto, $\frac{LX}{XP}=\frac{1}{2}$.

Ahora hagamos el argumento vectorial, pensando a los puntos como vectores. El punto $L$ está a la mitad de $QR$, así que por la proposición de la razón, $$L=\frac{Q+R}{2}.$$ El punto $X$ cumple $\frac{LX}{XP}=\frac{1}{2}$, así que de nuevo por la proposición de la razón.
\begin{align*}
X&=\frac{2L+P}{2+1}\\
&=\frac{Q+R+P}{3}\\
&=\frac{P+Q+R}{3}.
\end{align*}

Esto es el resultado auxiliar que queríamos mostrar. Regresemos al problema.

De acuerdo al resultado auxiliar, el gravicentro de $ABC$ es $$G:=\frac{A+B+C}{3}.$$ Usando una vez más la proposición de la razón, los puntos $D$, $E$ y $F$ los podemos calcular como sigue:
\begin{align*}
D&=\frac{4B+C}{4+1}=\frac{4B+C}{5}\\
E&=\frac{4C+A}{4+1}=\frac{4C+A}{5}\\
F&=\frac{4A+B}{4+1}=\frac{4A+B}{5}.
\end{align*}

De esta forma, el gravicentro $G’$ de $DEF$ lo podemos encontrar como sigue:
\begin{align*}
G’&=\frac{D+E+F}{3}\\
&=\frac{\frac{4B+C}{5}+\frac{4C+A}{5}+\frac{4A+B}{5}}{3}\\
&=\frac{A+B+C}{3}\\
&=G.
\end{align*}

Esto termina la solución del problema.

$\square$

Problema. En el paralelogramo $ABCD$ el punto $F$ es el punto medio de $CD$. Muestra que el segmento $AF$ corta a la diagonal $BD$ en un punto $E$ tal que $\frac{DE}{DB}=\frac{1}{3}$.

Sugerencia pre-solución. Hay varias formas de hacer las cuentas en este problema, pero el uso de una notación adecuada te hará simplificar muchas operaciones.

Solución. Pensemos a los puntos de la figura como vectores. Coloquemos al punto $A$ en el origen. El punto $C$ está dado por $B+D$, de modo que $$F:=\frac{C+D}{2}=\frac{B+2D}{2}.$$

Vectores en geometría: problema de paralelogramo
Figura auxiliar para problema de paralelogramo

Para encontrar al punto $E$, notemos que está en las rectas $AF$ y $BD$. De esta forma, deben existir reales $r$ y $s$ tales que $$E=rF$$ y $$E=sB+(1-s)D.$$ Expresando $F$ en términos de $B$ y $D$ en la primer ecuación, tenemos que $$E=\frac{rB+2rD}{2}=\frac{rB}{2}+rD.$$ De ambas expresiones para $E$, concluimos que
\begin{align*}
s=\frac{r}{2}\\
1-s=r.
\end{align*}

Este sistema de ecuaciones tiene solución $r=\frac{2}{3}$, $s=\frac{1}{3}$, y por lo tanto $E=\frac{B+2D}{3}$. De aquí se obtiene $\frac{DE}{EB}=\frac{1}{2}$, o bien $\frac{DE}{DB}=\frac{DE}{DE+EB}=\frac{1}{3}$, como queríamos mostrar.

$\square$

Producto punto, norma y ángulos

Para dos vectores $P=(x,y)$ y $Q=(w,z)$ definimos su producto punto como la cantidad $P\cdot Q = xw+yz$. El productos puntos es:

  • Conmutativo: $P\cdot Q = Q\cdot P$
  • Abre sumas: $P\cdot (Q+R)=P\cdot Q + P\cdot R$
  • Saca escalares: $(rP)\cdot Q = r(P\cdot Q)$.

La norma de $P$ se define como $\norm{P}=\sqrt{P\cdot P}$, y coincide con la distancia de $P$ al origen. La norma de $PQ$ es entonces $\norm{PQ}=\sqrt{(Q-P)\cdot (Q-P)}$ y coincide con la distancia de $P$ a $Q$.

El ángulo entre dos vectores $PQ$ y $RS$ se define como el ángulo cuyo coseno es $$\frac{PQ \cdot RS}{\norm{PQ}\norm{RS}},$$ y coincide precisamente con el ángulo (orientado) geométrico entre las rectas $PQ$ y $RS$. De esta forma, las rectas $PQ$ y $RS$ son perpendiculares si y sólo si el producto punto $PQ\cdot RS$ es cero.

Problema. Sea $ABC$ un triángulo con sus vértices pensados como vectores. Sean $H$ y $O$ su ortocentro y circuncentro respectivamente. Supongamos que el circuncentro $O$ está en el origen. Muestra que $H=A+B+C$.

Sugerencia pre-solución. Trabaja hacia atrás. Define al punto $A+B+C$ y ve que las rectas que unen a los vértices con este punto en efecto son alturas. Para calcular los ángulos, usa el producto punto y sus propiedades.

Solución. Como el circuncentro equidista de $A$. $B$ y $C$, tenemos que $$\norm{A}=\norm{B}=\norm{C}.$$ Tomemos el punto $H’=A+B+C$.

Vectores en geometría para encontrar el ortocentro
Ortocentro con vectores

Calculemos el ángulo entre las rectas $BC$ y $AH’$, haciendo su producto punto:
\begin{align*}
BC\cdot AH’ &= (C-B)\cdot (H’-A)\\
&=(C-B)\cdot(C+B)\\
&=C\cdot C + C\cdot B – B\cdot C – B\cdot B\\
&=\norm{C}^2 – \norm{B}^2\\
&=0.
\end{align*}

Observa que estamos usando la linealidad y conmutatividad del producto punto. Al final usamos que $A$ y $C$ tienen la misma norma.

Esto muestra que la recta $AH’$ es la altura al lado $BC$. De manera análoga, $BH’$ y $CH’$ son las alturas a los lados $CA$ y $AB$ respectivamente. Por lo tanto, $H’$ es el ortocentro, así que $H=A+B+C$.

$\square$

Cualquier triángulo $ABC$ en el plano se puede trasladar para que su circuncentro $O$ quede en el origen. El ortocentro estará en $H=A+B+C$ y el gravicentro, como vimos antes, en $G=\frac{A+B+C}{3}$, que es un múltiplo escalar de $H$. Por lo tanto, $O$, $H$ y $G$ están alineados. Acabamos de demostrar con vectores en geometría un clásico resultado euclideano.

Teorema (recta de Euler). En cualquier triángulo $ABC$, el circuncentro $O$, el gravicentro $G$ y el ortocentro $H$ están alineados. Además, $$\frac{OG}{GH}=\frac{1}{2}.$$

Teorema de la recta de Euler
Teorema de la recta de Euler

Si el circuncentro no está en el origen, ahora podemos usar el teorema de la recta de Euler y la proposición de la razón para concluir que $G=\frac{2O+H}{3}$. Usando que $G=\frac{A+B+C}{3}$, obtenemos el siguiente corolario

Corolario. Sea $ABC$ un triángulo en el plano, $H$ su ortocentro y $O$ su circuncentro. Entonces al pensar a los puntos como vectores tenemos que $$A+B+C=2O+H.$$

Más problemas

Puedes encontrar más problemas del uso de vectores en geometría en la sección 8.3 del libro Problem Solving through Problems de Loren Larson.